找工位
空间入驻
小程序

软件工程师为何比白领更早被AI击穿?Anthropic CEO反讽马斯克危言耸听!

2026-02-15
文章转载自"北大纵横"

图片
来源 | 大顺AI商业流量
作者 | Alex
4105阅读时间8分钟
近期,Anthropic 宣布完成300亿美元G轮融资,估值跃升至3800亿美元。
几乎同步,埃隆·马斯克在社交平台激烈抨击其AI“厌世、反人类”,并讽刺公司名“Anthropic”终将沦为“Misanthropic”。
这场看似情绪化的交锋,实则揭示了AI发展路径的根本分歧:
一边是马斯克描绘的“月球算力+机器人文明”的末世图景;另一边,Anthropic CEO Dario Amodei 则以冷静的解剖刀,刺破这一宏大叙事的虚妄——他直言:“我们不是要去别的星球上建机器人文明。” 
Amodei 的最新访谈不仅是一次对“危言耸听”的精准拆解,更是一场对AI冲击波传导机制的重新测绘。
其中最颠覆性的判断在于:
软件工程师岗位,而非传统认知中的入门级白领,可能率先被AI“彻底击穿”。
这一转向并非语出惊人,而是基于对技术能力、组织采纳速度与社会摩擦系数的系统性分析。
它迫使我们重新审视AI替代的底层逻辑:
技术成熟度只是起点,真正的瓶颈在于“社会距离”与制度惯性。  
本文的核心命题由此确立:
AI对劳动力市场的冲击并非线性推进,而是由“技术可行性”与“社会可嵌入性”的乘积决定。
软件工程因其零社会距离、高反馈闭环与技能同构性,成为首个被击穿的高价值职业;
而法律、金融等传统白领领域虽面临长期压力,却因制度缓冲带的存在而获得喘息窗口。
这一差异,恰恰暴露了当前AI经济叙事中被严重低估的关键变量——现实世界的摩擦系数

一、AI替代的真正瓶颈:

不是技术,而是“社会距离”

市场长期存在一种朴素认知:
AI将首先取代重复性高、创造性低的白领工作,如数据录入、基础法律文书处理或初级会计。
这一假设隐含一个前提——任务复杂度决定替代顺序。
然而,Amodei 的修正观点直指要害:
替代速度不取决于任务是否“简单”,而取决于该任务所处生态与AI系统的“社会距离”有多近。
社会距离为零:软件工程的天然脆弱性
“社会距离”在此指目标行业与AI生态在工具链、反馈机制与文化习惯上的契合程度。
软件工程具备三大结构性优势:  
工具敏感度极高:
开发者群体历来是新技术的早期采用者。
GitHub Copilot 自2021年推出后,迅速被超百万开发者集成至日常流程,使用率在头部科技公司达70%以上;
反馈闭环极短:
代码可即时编译、执行、报错,错误成本低且可快速迭代。
这种“写—试—改”循环与AI训练范式高度兼容; 
技能同构性强:
AI生成的代码与人类工程师使用同一套语言(Python、JavaScript等)、同一套逻辑(算法、架构),无需跨模态转换。  
这三者叠加,使得AI在软件领域的渗透几乎无摩擦。
据内部测试,当前大模型已能独立完成60%以上的模块开发、单元测试与调试任务。
工程师角色正从“编码执行者”转向“需求定义者”与“质量仲裁者”
但Amodei 警告:
“这个‘人机协作’阶段可能非常短暂。”
一旦模型能端到端交付可靠、可维护的软件系统,对初级乃至中级工程师的需求将断崖式下跌。 
制度摩擦带:白领岗位的隐形护城河  
反观银行合规、法律助理或保险核保等传统白领岗位,其工作深嵌于复杂的组织流程、责任划分与监管框架之中。
即便AI能100%准确完成任务,系统对接、权责界定、员工再培训、客户信任建立等“脏活”将大幅拖慢替代进程。  
以法律行业为例:
AI可高效生成合同初稿、检索判例、预测诉讼结果,但核心价值环节——客户沟通、法庭辩论、策略制定——仍高度依赖人类特质。
更重要的是,法律体系本身构成一道制度缓冲带
美国联邦法院要求出庭律师必须为真人;
陪审团制度设计基于“十二个真人”的集体判断;
客户付费购买的不仅是法律知识,更是情感支持与风险共担的信任关系。  
这些非技术因素共同抬高了AI的“社会嵌入成本”。
正如Amodei 所言:
“出庭得有真人代表,陪审团得有十二个真人。”
软件世界没有这样的护城河——代码只对机器负责,无需说服、无需共情、无需承担法律责任。

二、AI经济效应的双重悖论:

增长易得,分配难解

Amodei 对AI经济影响的预测同样锋利:
AI可能将发达国家GDP增速推至10%-15%,但这将制造一个“怪异世界”——增长变得容易,分配却异常艰难。
这一判断揭示了技术红利与社会适应力之间的根本错配。 
原始生产力的爆发:从想法到现实的压缩
Anthropic已与制药、金融、制造等多行业合作,其观察到的核心变量是“原始生产力”——即AI将抽象想法转化为具体产出的能力。
以药物研发为例,传统模式需耗时3–5年筛选数万种化合物,而AI可并行模拟百万级分子结构,将先导化合物发现周期压缩至数月。
Moderna 在新冠疫苗研发中已验证此路径:
mRNA序列设计仅用48小时。  
这种生产力跃迁的规模难以估量。
Amodei 推测:
“单个行业一年新增一万亿美元收入”并非天方夜谭。
若叠加多次“十倍增长”(10x improvements),AI对GDP的拉动将突破历史分布区间——过去百年,发达国家年均GDP增速仅2%–3%。 
分配机制的滞后:制度无法匹配技术速度 
然而,经济系统的分配机制远未准备好迎接这种增速。
当前政治经济争论多基于“增长稀缺”前提,政策设计围绕如何刺激微弱增长展开。
一旦增长如潮水般涌来,现有税收、福利、教育体系将面临结构性错配。  
以美国为例:资本所得税率长期低于劳动所得税率,导致技术红利迅速资本化。
2020–2023年,标普500企业利润增长28%,而工资总额仅增12%。
若AI进一步放大资本回报,而劳动力转型所需的社会投资(如全民再培训、过渡性收入支持)严重滞后,增长将加剧不平等而非普惠福祉。  
Amodei尖锐指出:“蛋糕变大得太快,社会来不及分。”
这解释了为何AI繁荣未必带来广泛繁荣——技术扩散的速度远超制度演化的速度。

三、拆解“机器之神”迷思:

智能的边际收益递减与现实摩擦

马斯克在播客中预言:
“未来将在月球部署拍瓦级算力,AI将主导智能,人类难再掌控。”
Amodei对此毫不留情地解构:
“那种‘用一颗月球的算力造一个AI神’的讨论有点危言耸听。”
这一批判背后,是对“智能万能论”的深刻反思。  
智能的边际收益递减:封闭系统 vs 开放世界
Amodei 提出关键概念——“智能的边际收益递减”。
在围棋、国际象棋等封闭系统中,智能提升可无限逼近最优解;
但在真实世界,进展受制于物理交互、监管流程、社会接受度等多重约束。  
以癌症治疗为例:
即便AI提出完美疗法,仍需通过I–III期临床试验(平均耗时7年)、FDA审批(平均18个月)、医保谈判(成功率不足30%)等漫长链条。
生物学问题的瓶颈不在智能,而在现实世界的摩擦系数。
因此,“一亿个天才”远比“一个机器之神”更具实用价值——分布式智能可并行探索多条路径,而单一超级智能受限于现实落地的串行瓶颈。
人机共生:拒绝工具论与神明论的二元对立  
针对马斯克隐含的“AI vs 人类”对立框架,Amodei 明确宣示:
“人机关系的核心是共生而非对立。”
Anthropic的“AI宪法”正是这一理念的具象化——75页文档并非冰冷规则集,而是引导AI理解自身角色、用户利益与第三方权益的伦理契约。  
这种设计拒绝将AI视为工具(可任意驱使)或神明(不可控),而是定位为“守护者”:
它提供建议,但不剥夺人类自由意志。
正如Amodei 所言:
“它希望你好,但不想接管你的人生。”
这一立场本质上是对技术决定论的否定——AI的未来不由算力规模决定,而由人类的选择塑造。

四、构建社会适应力:
职业重塑、物理互补与权利重释  
面对AI冲击的加速到来,Amodei并未止步于批判,而是提出系统性应对框架。
其核心逻辑是:技术不可逆,但社会反应可设计。
职业路径的断裂与重构  
法律、金融、医疗等行业的学徒制正面临断裂风险。
初级岗位(如法律助理、投行分析师)本是人才晋升的必经阶梯,若被AI取代,将切断专业人才的培养通道。
解决方案并非抵制AI,而是重构职业内涵——律师转向客户沟通与策略咨询,医生聚焦诊疗决策与人文关怀,会计师升级为财务架构师。  
但Amodei 警告:
“重塑一个行业往往要几十年,而AI推动的经济力量会来得非常快。”
社会需要建立“快速再培训”机制,将转型周期从十年级压缩至年级。
德国“双元制”职业教育或可提供参考:
企业与政府共建模块化课程,实现技能更新与岗位需求的动态匹配。 
物理世界的互补性:蓝领的暂时韧性  
短期内,蓝领岗位反而更具韧性。
数据中心建设、光纤铺设、机器人维护等物理世界工作,成为AI经济的“互补品”。
2023年,美国建筑行业职位空缺率达5.2%,显著高于全行业均值3.8%。  
但这一窗口期有限。随着具身智能(embodied AI)突破,机器人将逐步侵蚀体力劳动领域。
Amodei 的判断冷峻而清晰:
“我不认为‘认知劳动’与‘物理操控’存在根本差异。它们本质上都是信息问题。”
这意味着,无人能长期躲在“动手工作”的安全区——AI终将通过机器人载体进入物理世界。
宪法权利的AI时代重释  
AI对隐私权的侵蚀尤为隐蔽。
公共摄像头配合AI分析,可绘制亿级人际关系网,使美国宪法第四修正案“免于无理搜查”的权利形同虚设。
Amodei 呼吁:
“我们需要扩展宪法含义,而非等待新宪法。”  
这要求法律界以软件工程师的速度更新认知——将AI视为需要被规制的“新权力主体”,而非中立技术
欧盟《人工智能法案》已迈出一步:
将高风险AI系统纳入事前监管,要求透明度与人工干预权。
但全球范围内,法律演进仍远落后于技术扩散。

人类选择的中心性
Amodei 的终极关切,并非技术本身,而是人类能否在AI赋能下走向“富足时代”。
他承认存在“微妙的坏结局”——好的愿景与坏的现实可能仅差细微选择。  
马斯克的“月球AI神”叙事,本质是技术决定论的极端投射;
而Amodei 则坚持人类选择的中心性:“我们不是要在别的星球上建机器人文明,我们想做的是让这些系统改善我们的社会。”  
这场争论的胜负,不取决于算力规模或融资金额,而在于社会能否构建匹配技术速度的适应机制。
当软件工程师开始担忧饭碗,当法律学徒制度濒临瓦解,当宪法权利遭遇算法侵蚀——真正的挑战才刚刚开始。 
Anthropic的3800亿美元估值,与其说是对技术的定价,不如说是对人类智慧的一次豪赌:
我们能否在AI击穿旧秩序前,重建一个更公正、更富足的新世界?
答案不在月球,而在每一个被代码改变的日常里——在政策制定者的会议室,在职业培训机构的课堂,在法官对AI证据的裁量中,在每一位劳动者对未来的主动塑造中。  
企业价值由长期现金流决定,而社会价值由制度韧性与分配正义决定。
AI不是终点,而是压力测试。
它逼迫我们回答一个古老问题:
技术进步,究竟为谁服务?
图片


文中观点仅为作者观点,不代表本平台立场


各位读者朋友,公众号改了推送规则,如果您还希望第一时间收到我们推送的文章,请记得给北大纵横公众号设置星标。图片

点击左下方公众号“北大纵横”→点击右上角“...”→点选“设为星标⭐️”。