Claude 实名认证新规:当 AI 开始筛选用户,我们在面对什么
一则官方公告引发的震动
2025 年 4 月,Anthropic 在 Claude 帮助中心悄然上线了一篇新文档:《Identity verification on Claude》。没有新闻发布会,没有官方博客推文,但内容却足够重磅——Claude 开始要求部分用户进行身份验证了。
简单来说,如果你在特定场景下使用 Claude,系统会弹出一个验证窗口,要求你提供政府签发的带照片身份证件(护照、驾照或身份证),并通过实时自拍完成人脸匹配。验证服务由第三方公司 Persona Identities 提供,整个过程通常在五分钟内完成。
这不是中国的”实名制上网”,而是美国 AI 公司主动开启的用户筛选机制。问题在于:为什么是现在?为什么是他们?以及,这对普通用户意味着什么?
规则说明:什么情况下会被要求验证?
根据官方文档,目前身份验证主要出现在以下几种场景:
1. 访问特定功能时
某些高级功能或新功能可能需要通过身份验证才能解锁。Anthropic 没有明确列出具体是哪些功能,但从上下文推测,这可能包括高频率 API 调用、企业级功能,或某些敏感应用场景。
2. 平台完整性检查
“作为我们常规平台完整性检查的一部分”——这是官方原文。翻译一下就是:Anthropic 会随机或基于某些算法选择用户进行验证,目的是确保账户背后是一个真实的人,而非批量注册的机器人或用于滥用服务的虚假账号。
3. 安全与合规要求
如果你的账户触发了安全警报(例如异常登录地点、可疑活动模式),身份验证可能成为解锁账户的必要步骤。此外,来自某些地区的用户可能面临更严格的验证要求。
验证流程详解
被选中验证的用户需要准备:
- 原始实体证件:护照、驾照或国家身份证的原件(不接受复印件、扫描件、手机屏幕照片)
- 带摄像头的设备:用于拍摄实时自拍照
- 几分钟时间:官方称通常不超过五分钟
验证由 Persona Identities 处理,这是一家专门做身份验证的第三方公司。Anthropic 强调,证件照片和自拍照由 Persona 保管,不会存储在 Anthropic 自己的服务器上。验证完成后,Anthropic 只会收到”验证通过/未通过”的结果,而非原始图像数据。
深层分析:Anthropic 为什么要这么做?
表面看起来,这是一项安全措施。但如果我们把视角拉远,会发现背后的动机远比”防止滥用”复杂。
1. 监管压力的必然结果
2024-2025 年间,全球 AI 监管格局发生了根本性转变。欧盟 AI 法案(EU AI Act)正式生效,要求高风险 AI 系统必须具备可追溯的用户身份机制。美国虽然没有联邦层面的统一 AI 法规,但各州立法层出不穷,国会听证会越来越频繁。在这样的背景下,主动建立用户身份档案,是 Anthropic 为未来合规铺路的战略选择。
更重要的是,Anthropic 正在积极拓展企业市场和政府业务(Claude for Government)。要拿下这些大单,证明”我们知道谁在使用我们的系统”是基本门槛。
2. 成本控制的残酷现实
训练大模型很烧钱,但运营大模型同样昂贵。API 调用的计算成本、客服支持的人力成本、处理滥用行为的运营成本——这些都与”无效用户”直接相关。
实名验证是一道天然门槛。它不会阻止真正想使用服务的人,但会大幅提高批量注册僵尸账号、薅免费额度羊毛、进行撞库攻击的成本。对于 Anthropic 来说,筛选掉这些用户,意味着资源可以集中在付费意愿强、使用行为健康的真实用户身上。
3. 责任边界的风险管理
当 AI 被用于生成虚假信息、深度伪造内容,或协助网络攻击时,“我们不知道谁干的”已经不能成为有效的免责理由。通过身份验证,Anthropic 至少可以在法律层面证明:我们已经采取了合理措施确认用户身份。
这是一种风险转移。一旦出现问题,Anthropic 可以出示验证记录,证明这不是一个完全匿名的滥用者,而是一个经过身份确认的真实个人。这在未来的法律诉讼中可能至关重要。
4. 商业模式的隐性转向
免费服务时代正在落幕。OpenAI、Anthropic、Google,所有主要玩家都在收紧免费额度,推动用户向付费订阅转化。
身份验证与这一趋势高度契合。一个愿意提供真实身份证件的用户,更有可能转化为付费客户;而一个连邮箱都不愿意验证的用户,其生命周期价值(LTV)几乎为零。从商业角度看,用身份验证筛选用户,本质上是在优化客户获取成本(CAC)。
灰色地带:闲鱼、淘宝上的”身份交易”
每当一个平台收紧准入,地下经济就会迅速填补需求缺口。Claude 的身份验证要求出台后,闲鱼、淘宝等平台上已经开始出现相关”服务”。
你看到的广告
- “Claude 代验证,包过”
- “Claude Pro 账号,已实名,直接可用”
- “海外身份认证服务,支持 Claude、OpenAI”
背后的真相
这些”服务”大致可以分为几类:
第一类:盗用身份
利用从黑市购买的个人信息(姓名、身份证号、证件照片),配合深度伪造(Deepfake)技术生成实时自拍照,通过验证系统。这种服务的成本最低,但对买家风险最高——你使用的账号本质上关联的是另一个真实的人,一旦对方发现身份被盗用,或平台方发现异常,账号会被立即封禁,甚至可能牵扯法律问题。
第二类:共享/转手账号
一个通过真实身份验证的账号,被多人共享或转手出售。这种账号的寿命通常很短:Anthropic 的异常检测系统会识别出多设备、多地点登录的模式,触发二次验证或直接封号。
第三类:虚假承诺
最糟糕的情况是,你付了钱,对方根本没有能力完成验证。Anthropic 的验证系统并非易与之辈,Persona 的反欺诈技术包括活体检测、证件防伪检查、生物特征比对等多重关卡。很多”代验证”服务实际上是在碰运气,失败了就拉黑客户。
为什么你应该远离这些服务
法律风险:使用他人身份信息注册网络服务,在大多数司法管辖区都涉嫌身份欺诈。如果该账号被用于违法活动,关联的身份信息会指向无辜的第三方,而你作为实际控制者,一旦被发现,将面临法律追究。
安全风险:提供”代验证”服务的人需要你的账号信息,甚至要求你提供自己的身份证件(声称用于”匹配”)。这意味着你在向一个不可信的第三方泄露敏感信息,这些信息可能被进一步倒卖或用于其他欺诈行为。
经济风险:购买的账号随时可能被 Anthropic 检测并封禁。你投入的时间、数据、甚至付费订阅费用都将付诸东流。
伦理风险:即使不考虑法律和安全,购买这些服务也是在支持一个以身份盗窃和欺诈为基础的黑色产业链。
被忽视的真相:Claude 的”降智”与服务质量
讨论身份验证时,有一个更深层的问题被大多数人忽略了:当你费尽心思通过验证、甚至可能为此支付额外费用后,你得到的 Claude,可能已经不是当初那个 Claude 了。
业内有一种说法:Claude 的”智商”在过去几个月里下降了约 40%,现在只剩下巅峰期的 60% 左右。这个说法虽然缺乏官方数据支持,但从用户反馈和实际体验来看,并非空穴来风。
你感受到的变化
- 创造力下降:早期 Claude 能够进行跳脱性的联想,提出出人意料的观点;现在的回复往往更加”安全”、模板化。
- 上下文理解能力减弱:长对话中丢失关键信息的情况越来越频繁。
- 拒绝率上升:对于一些模糊地带的请求,Claude 比以前更倾向于直接拒绝,而不是尝试理解用户的真实意图。
- 代码质量波动:编程辅助场景中,生成的代码虽然仍能运行,但架构设计感和优化程度明显下降。
为什么会”降智”?
有几个可能的原因:
对齐税(Alignment Tax):为了让模型更”安全”、更少产生有害内容,Anthropic 可能在训练阶段或推理阶段施加了更严格的对齐约束。这种约束的代价往往是牺牲一部分创造力和灵活性。
成本优化:推理成本与模型复杂度直接相关。如果 Anthropic 为了控制成本而在后端使用了”轻量版”模型(尤其是在免费 tier 或低价 tier),用户感受到的质量下降就不难解释了。
规模扩张的副作用:用户基数暴增意味着更广泛的用例分布。为了服务”平均用户”,模型可能被调整得更中庸、更保守,失去了早期针对技术用户优化时的锐利感。
身份验证的讽刺:当你为了使用 Claude 而不得不购买二手身份、绕过验证系统时,你得到的却是一个质量打折的产品。这是一种双重损失——既承担了风险,又没有获得相应的价值。
结语:我们站在什么样的路口?
Claude 的身份验证新规,表面是技术与安全的议题,实质是 AI 行业从”野蛮生长”向”规范运营”转型的缩影。
对于用户:自由与便利正在让位于安全与合规。这不是 Claude 独有的趋势,而是整个行业的走向。适应这种变化,意味着接受一个基本事实——使用强大的 AI 工具,将越来越与真实身份的披露绑定在一起。
对于行业:身份验证是双刃剑。它能有效遏制滥用,但也会提高使用门槛,将一部分用户(尤其是那些来自身份证件难以获取或隐私保护需求强烈的地区的用户)排除在外。这种排除是否公平,是否会导致 AI benefits 的不平等分配,是一个值得持续关注的议题。
对于灰色市场:只要需求存在,绕过机制就会存在。但这场猫鼠游戏的成本正在上升——平台方的检测技术越来越先进,监管机构的介入越来越深入,用户面临的风险越来越高。
最后,回到那个最实际的问题:如果你正在考虑通过闲鱼或淘宝购买”代验证”服务,请三思。你购买的不仅是一个账号,更是一份随时可能引爆的法律风险、一个可能被随时收回的临时访问权,以及一个可能已经没有想象中那么强大的 AI。
在这个行业里,真正稀缺的不是绕过门槛的技巧,而是清醒的认知和对风险的敬畏。
参考链接: