

当全世界都在为ChatGPT欢呼时,一群站在AI安全最前沿的研究员却选择了离开。他们看到了什么?他们预见了什么?今天,我们就来揭开这个令人不安的真相!
今年2月,Anthropic的安全研究员Mrinank Sharma给同事留下一封信后,毅然辞职。这位牛津大学机器学习博士,当初怀着“为AI安全性做贡献”的理想来到硅谷,却在离职信中写道:“在职期间,我曾面临将自身价值观落实为行动的困难。”
更耐人寻味的是,他宣布要暂时回英国读诗度日——一个AI专家突然转向诗歌,这背后到底发生了什么?
两个月后,Anthropic试验性公开了新型AI模型“Claude Mythos”。这个模型的性能高到可以锁定系统上未知的缺陷!如果被恶意用于银行网络攻击,后果不堪设想。
记者联系Mrinank Sharma询问他是否预见了Claude Mythos的危险性,他只回复了一句:“我目前设立了一段沉默期。”
Claude Mythos的公开引发了美国财政部长与各大银行行长的紧急会议!Anthropic不得不严格限制公开对象,但这已经足够让整个金融系统紧张起来。
Mrinank Sharma在辞职信中的那句话现在听起来像预言:“我们的智慧必须与我们影响世界的能力同步增长,否则就要付出代价。”
几乎在同一时间,OpenAI的安全研究员Zoë Hitzig也因为ChatGPT引入广告而辞职。她在《纽约时报》上发表文章警告:“正因为ChatGPT不带任何意图,人们才会袒露健康不安和人际关系烦恼等内心话。基于这些的广告就变成了操控用户的行为。”
她说得对吗?想想看,当你向AI倾诉最私密的问题时,它却在分析如何向你推送广告——这难道不是最可怕的操控吗?
OpenAI因为巨额开发投资持续亏损,计划向免费用户展示广告来提高收益。Zoë Hitzig一针见血地指出:“AI开发者相信能在AI引发的问题上抢占先机。OpenAI却抛弃了这一点。”
研究AI安全性的开发人员相继离职,反映出一个残酷的现实:在各企业销售额和企业价值不断膨胀的同时,安全和企业伦理开始动摇。
Anthropic的CEO达里奥·阿莫迪在1月发表的文章中承认,AI的快速创新可能会在未来几年内带来严重风险,包括就业流失、贫富差距扩大,甚至被用于生物恐怖主义等大规模杀伤性武器。
但理念在商业竞争面前有多脆弱?看看这个例子:
Anthropic曾明确表示“不是为了军事用途而开发”,要求不要在完全自主型武器和监控美国民众时使用其AI。但在2026年2月,随着竞争对手OpenAI获得美国国防部的合同,Anthropic也表示将继续与政府展开协商。
一位谷歌职员说出了真相:“无论有多么崇高的理念,在开发竞争面前都毫无意义。”
在赢家通吃的激烈竞争中,如果自己止步不前,就是对竞争对手有利。不仅是美国国内企业之间,与中国企业的竞争也日益激烈。而国际规则等“刹车片”仍处于欠缺状态。
OpenAI在4月6日发布的政策建议中,描绘了AI将使社会更加富足的愿景,同时呼吁制定国家层面的安全标准。
Anthropic在4月2日更新的建议中也重点强调了开发过程的透明性以及对超智能模型潜在风险的控制。
但“如何踩刹车”这一点上,各方看法不尽相同。随着Claude Mythos的问世,警戒级别进一步提高。
此前一直主张“科技完全控制”的特朗普在采访中表示,对于AI技术,政府应该拥有强制停止的“终止开关”。
美国国会的危机感也在扩散。在听证会上,议员们追问:“AI对人类的问题是什么?”“劳动者真的受到重视吗?”
在美国内部分裂加深、中美对立加剧的情况下,世界能否找到最佳解决方案?
一个确定的事实是:持续快速进化的AI留给人类的“思考时间”并不长。
金句: 当最懂AI的人开始逃离,我们是否应该停下来问问:我们到底在创造什么?
互动问题: 你觉得AI的发展应该优先考虑安全还是速度?在评论区告诉我你的看法!
引导语: 如果这篇文章让你重新思考AI的未来,请点赞支持!也欢迎分享给更多朋友,让我们一起关注这个影响全人类的话题!