read_csv 时用 dtype="string" 可启用 pandas 1.0+ 的原生可空字符串类型,支持 NaN、None 和 Unicode,避免 object 类型的性能与行为缺陷;需注意 dtype 字典键必须匹配列名、不可混用 str、版本需 ≥1.0,并通过 df[col].dtype == "string" 验证。
从 pandas 1.0 开始,"string" 是官方推荐的可空字符串类型(对应 StringDtype),它能自然容纳 NaN、空字符串、None 和任意 Unicode 字符,且不转成 object。直接在 dtype 参数里指定列名映射即可:
df = pd.read_csv("data.csv", dtype={"col_a": 
"string", "col_b": "string"})
注意:"string" 必须是字符串字面量,不是 str 或 pd.StringDtype()(后者虽等价但写法冗余);若整表都需该类型,可用 dtype="string" 全局设置(但会强制所有列走 nullable string,可能误伤数值列)。
object 列看似能存字符串和 NaN,但它本质是 Python 对象引用数组,计算慢、内存高、API 行为不一致(比如 .str.contains() 在含 NaN 的 object 列上可能报错或返回意外结果)。而 "string" 是 pandas 原生 nullable 类型,支持完整 .str 访问器,且自动处理缺失值语义。
object 会保留原始类型,"string" 会统一转为字符串("123"、"45.6"、pd.NA)object 列调用 .astype("string") 可能触发隐式转换警告;直接 read_csv 指定更干净以下情况会导致 "string" 失效:
dtype={"col": str} —— 这是 Python 的 str,pandas 仍按旧规则推断,最终得到 object
converters 或 na_values,但没配合 keep_default_na=False,导致某些空值未被识别为 pd.NA
"string" 不可用),此时只能降级用 object + 手动 .astype("string")(但部分老版本不支持)dtype 字典键没生效验证是否成功:检查 df["col"].dtype 输出应为 string(不是 object),且 df["col"].isna().sum() 能正确统计 pd.NA 数量。
如果已读入为 object,再转 .astype("string") 多数情况下可行,但要注意:
None 或 np.nan 的列,astype("string") 会把它们转为 pd.NA(这是期望行为)datetime.date、自定义类实例)会抛 TypeError,必须先清洗或过滤dtype 更耗内存和时间真正难处理的是那些在 CSV 中被自动识别为数字/布尔/日期的列——它们进来的 dtype 根本不是 object,而是 int64 或 bool,此时 astype("string") 会失败(int 列含 NaN 时甚至无法直接转)。这种列必须回到 read_csv 阶段用 dtype 强制拦截。