近日,Anthropic宣布将调整其数据使用政策,开始利用用户的新聊天记录和代码编写会话来训练其AI模型,除非用户主动选择退出。与此同时,公司还把相关数据的保留期限延长至五年,适用于未选择退出的用户。所有用户必须在**9月28日前**完成设置,否则默认同意。
如果你现在点击“接受”,Anthropic将立即使用你的新对话数据进行模型训练,并保留这些信息最长五年。该规则仅适用于**新发起或重新开启的聊天与代码会话**。也就是说,历史对话若未被重新打开,则不会纳入训练范围;但一旦你继续某个旧会话,后续内容就会被收集。
此次变更影响Claude面向个人用户的全部订阅层级——包括**免费版、专业版(Pro)和高级版(Max)**,并且明确指出:“通过上述账户使用Claude Code时同样适用。”不过,政府、企业及教育版本用户被排除在外,API调用场景也不在此列。
新注册用户将在注册流程中直接面对这一选择,而现有用户则会收到弹窗提示。弹窗标题为醒目的“**消费者条款及政策更新**”,下方说明称“更新后的条款与隐私政策将于2025年9月28日生效,您可提前接受”。页面底部设有一个显眼的黑色“**接受**”按钮。
而在该按钮下方的小字区域写着:“允许使用您的聊天记录及代码编写会话,用于训练和改进Anthropic AI模型”,并
附带一个默认开启的开关。这意味着,即使你不仔细查看,随手点“接受”,系统也会默认你同意数据被用于训练。
![图片位置1]
许多用户可能根本没注意到这个细节,便一键确认。事实上,这种设计极易引导用户被动授权。若想拒绝,需手动将开关切换为“关闭”状态。如果已经误点“接受”,仍可补救:进入**个人设置 > 隐私标签页 > 隐私设置板块**,在“帮助改进Claude”选项中关闭对应开关即可。
![图片位置2]
需要强调的是,用户可以随时更改这一设置,但修改只对未来产生的数据有效。**一旦数据已被用于训练,就无法撤回**。
消息传出后,在多个社群引发热议。有网友翻出Anthropic去年发布的推文截图:“我们绝不拿用户对话喂模型。”如今对比新规,显得颇为讽刺。
![图片位置3]
新条款措辞绕口:不点“拒绝”即视为同意,想逃?得手动清空旧对话才行。可谁还记得半年前聊了什么?
更有用户实测发现,退出入口藏得极深——要进三级菜单,字体灰小,滑动稍快就错过。产品经理似乎把“拒绝”当成了隐藏彩蛋。更令人不满的是,企业级客户被豁免,普通用户却成了训练数据的贡献者。免费用户连人工客服都联系不上,只能对着界面干着急。
另一边,OpenAI也被曝出悄悄备份已删除的对话记录。仿佛科技大厂达成了默契:**用用户隐私做燃料,烧完一锅再炖下一锅模型**。
那我们能做什么?
✅ 立刻去设置里,把“Improve the model”关掉,别拖延。
✅ 把重要对话导出保存到本地,然后彻底清空云端记录。
✅ 谈敏感话题时,开启飞行模式离线使用,或回归纸笔时代。
说到底,AI变聪明的背后,是无数人的私语被喂进食槽。愿意贡献就留门,不愿就锁好。别让自己的选择权,在一次轻率点击中睡过去。
**月底前,去点个“拒绝”,又不掉块肉,对吧?**