数据挖掘需以业务理解为先,特征工程重在降噪与可解释性,聚类应匹配数据分布并服务业务,分类须权衡代价而非盲目追准确率。
Python数据挖掘中,聚类、分类和特征工程不是孤立步骤,而是环环相扣的实践链条:特征工程决定模型上限,聚类常用于无监督探索或特征预处理,分类则在高质量特征基础上完成有监督预测。真正有效的分析,往往从“先看数据长什么样”开始,而不是一上来就调用RandomForestClassifier。
真实数据里大量存在缺失、异常、冗余和量纲不一致问题。直接扔给模型,等于让医生蒙着眼做手术。
StandardScaler或RobustScaler(对异常值更稳)统一量纲;缺失值慎用均值填充——若某列30%是空,优先考虑是否该剔除或用业务逻辑补全(比如“用户最近登录天数”为空,可能代表流失用户,填-1反而带入语义)。OneHotEncoder,会爆炸式膨胀维度。改用目标编码(Target Encoding)或频次编码(Frequency Encoding),再加噪声防过拟合。K-Means流行,但默认假设簇是球形、等大小、各向同性。现实数据常是长条状(比如用户生命周期轨迹)、密度不均(比如城市POI分布),强行K-Means只会得到误导性分组。
在风控、推荐、医疗等场景,错判代价差异巨大。单纯追求95%准确率可能毫无价值。
feature_importances_易受高基数特征或多重共线性干扰。用Permutation Importance或SHAP值验证关键特征是否稳定且符合常识。数据挖掘不是算法展览会,核心是让数据说话,同
时确保人听得懂、用得上。写完fit()之后,多花10分钟看一眼df.groupby('cluster')['revenue'].describe(),可能比调参两小时更有价值。