pandas去重需指定subset业务主键,keep参数控制保留策略,NaN需谨慎处理;空值应按成因选择填充或删除;类型转换前须用coerce验证;清洗步骤应函数化、可复现、可版本控制。
pandas.DataFrame.drop_duplicates() 去重前必须明确「去重依据」重复行不等于“完全相同”,业务上常需按关键字段判断是否冗余。比如用户表中 id 不同但 phone 和 email 都一致,应视为同一人重复录入。
df.drop_duplicates() 默认检查所有列,容易漏掉逻辑重复subset 参数指定业务主键,例如 df.drop_duplicates(subset=['phone', 'email'])
keep 参数:设为 'first'(默认)保留首次出现;设为 'last' 保留最新记录;设为 False 则全部删除——后者适合清理测试数据或临时脏数据NaN,pandas 默认把它们视为相等,可能误删。可先用 fillna() 统一处理,或改用 df[~df.duplicated(subset=..., keep='first')] 避免隐式 NaN 比较fillna() 或 dropna()
填均值、删整行看似简单,但会扭曲分布或丢失关键样本。真实清洗中要区分空值成因:是采集失败?字段不适用?还是用户主动留空?
df.isna().sum() 先看各列缺失比例;超过 70% 缺失且无业务补全路径的列,建议直接 df.drop(columns=['col_name'])
df['col'].fillna(df['col'].mean()) —— 若存在长尾分布(如订单金额),中位数更稳健:df['amount'].fillna(df['amount'].median())
df['status'].fillna(df['status'].mode()[0] if not df['status'].mode().empty else 'unknown')
pd.NaT 并单独建列 is_time_missing 供后续建模使用astype() 转类型前先验证数据合法性直接 df['age'].astype('int') 遇到 'N/A' 或浮点字符串会报 ValueError: invalid literal for int(),但错误信息不指明哪一行出问题。
pd.to_numeric(df['age'], errors='coerce') 将非法值转为 NaN,再检查 df['age'].isna().sum() 确认异常量级pd.to_datetime():含模糊格式(如 '2025-13-01' 或 'Q1 2025')会导致整列变 NaT。加参数 errors='coerce' 并配合 df['date'].dt.year.isna() 定位问题行category 类型前,先 df['city'].nunique() / len(df) 看基数率;若唯一值占比 > 0.5,转 category 反而增大内存临时写一堆 df = df[...]; df['x'] = ... 很快变成“只有当时写的人能看懂”的黑盒。下次数据源字段微调或新增校验项,就得重翻日志逐行改。
DataFrame,输出 DataFrame,不修改原对象。例如:def clean_phone_column(df):
df = df.copy()
df['phone'] = df['phone'].str.replace(r'\D', '', regex=True)
df = df[df['phone'].str.len() == 11]
return df
cleaning_pipeline = [('drop_dupes', drop_duplicates_by_key), ('clean_phone', clean_phone_column)],再循环调用保持可插拔assert
df['user_id'].is_unique, "user_id contains duplicates after dedup",失败时立刻暴露问题而非静默带病运行最易被忽略的是:清洗规则本身需要版本控制。哪怕只是加了一行 df['score'] = df['score'].clip(lower=0, upper=100),也该和原始数据哈希值、执行时间一起记入元数据表——否则半年后发现模型效果下滑,根本没法回溯是哪次清洗引入了截断偏差。