explode()不能直接展开嵌套dict,需先转为list;展开后需用pd.json_normalize()等解析为列;混合类型须预处理;性能敏感时应避免链式apply+explode。
如果你的列里存的是 {'a': 1, 'b': 2} 这样的 dict,直接对它调用 explode() 会报错:AttributeError: 'dict' object has no attribute 'len'。因为 explode() 只认 list、tuple、Series、np.ndarray 这类可迭代且有长度的对象,dict 不在支持范围内。
解决办法是先统一转成 list:比如把每个 dict 包进一个单元素 list,或者用 apply(list)(如果原本是 Series of dict);更常见的是先用 apply(lambda x: [x] if isinstance(x, dict) else x) 做兜底转换。
df.explode('col')(当 col 是 dict 类型时)df.assign(col=df['col'].apply(lambda x: [x] if isinstance(x, dict) else x)).explode('col')
pd.json_normalize() 或 pd.DataFrame(df['col'].tolist()).add_prefix('col_')

explode() 对 [{'a': 1}, {'a': 2}] 这种 list of dict 生效,但它只负责“行数膨胀”,不会把 dict 里的 key 拆成独立列。结果仍是每行一个 dict,类型是 object,没法直接 df['col.a'] 访问。
必须额外做一步结构化解析:
pd.json_normalize(df['col']),它能自动处理嵌套、缺失 key、甚至多层 dictpd.DataFrame(df['col'].tolist()),但要求所有 dict 的 key 完全一致,否则会出 NaN 或列错位.add_prefix('col_'),避免和原 df 其他列重名现实数据常出现 [{'a':1}, None, [{'b':2}], {'c':3}] 这种混乱结构。直接 explode() 会失败或静默丢弃 None,而 NaN 更麻烦——pd.isna() 判定为 True,但 explode() 遇到它会跳过整行(不是跳过该单元格)。
稳妥做法是预处理:用 apply() 统一规整为 list,并把空值转为空 list []:
df['col'] = df['col'].apply(lambda x: [] if pd.isna(x) else (x if isinstance(x, list) else [x]))df.explode('col').dropna(subset=['col']) 清除爆炸后仍为空的行dropna() 必须指定 subset,否则可能误删其他列的 NaN对千万级 DataFrame,df['col'].apply(...).explode(...) 是两轮遍历,且 apply 是 Python 层循环,速度慢。如果原始数据来自 JSON/Parquet,优先考虑在读取阶段就展平。
替代方案:
pd.json_normalize(data, record_path='col', meta=['id', 'name']) 直接从嵌套 JSON 构建扁平表col 是 list of dict,用 df.explode('col').pipe(lambda x: pd.concat([x.drop('col', axis=1), pd.json_normalize(x['col'])], axis=1)) 减少中间对象assign + explode,尽量一次性完成结构转换真正容易被忽略的是:explode 后的索引默认保留原 index(可能重复),如果后续要 merge 或 groupby,记得用 reset_index(drop=True) 重置,否则行为可能不符合直觉。