

你是不是也以为AI已经能替代人类工作了?是不是觉得Agent时代已经来临?别急,听完AI大神Andrej Karpathy的最新观点,你会重新思考这一切!
作为AI领域最接地气的大神,Karpathy的名字可谓是无人不晓。他曾任Tesla Autopilot负责人、OpenAI创始团队成员,更是AI启蒙教材CS231n课程缔造者。最近他接受长达2小时的访谈,系统拆解了当下AI遇到的难题,观点犀利到让人震惊!
"我们总是高估一年内的变化,却低估十年的力量。"
当大家都在争论AGI何时到来、Agent能力是否就绪时,Karpathy泼了盆冷水——"这不是Agent之年,而是智能体的十年!"
他明确指出:我们现在拥有的Claude、Codex等Agent,虽然已令人印象深刻,但还远未到"能雇来做事"的地步。
"如果你把Agent想象成一个实习生,今天的它根本不够格。它们缺乏多模态能力、无法持续学习、认知结构不完整、不会记事,甚至连真正用电脑干活都很难。"
为什么还需要十年?
Karpathy认为,Agent的不足不是"计算力还不够",而是"认知组件不完整"。真正能交付成果的Agent,需要超越语言模型,拥有持续学习、推理、操作和感知能力。这是一场关于智能构型的系统工程,不是一年能堆出来的能力!
在谈到AI的学习机制时,Karpathy语气罕见地直接:"强化学习很糟糕!"
这不仅是对算法的批评,更是对整个AI训练范式的一次反思。
他解释说:RL的学习机制像是"盲目试错",即模型尝试上百种路径,只要最后一条成功,系统就会奖励整个过程。
问题在于,它假设通往正确答案的每一步都是正确的。即使中间九成都是胡乱摸索,最终因为结果"对"了,系统也会加权这些错误路径——"多做这些"。
他形容这种训练方式是:"你花了几分钟的滚动训练,却只通过吸管吸取到一滴奖励信号的监督,然后把它广播到所有过程。简直愚蠢。"
人类不会这样学习。人类会回顾过程、辨别错误、提炼经验。RL则是"奖励最后一口气",不看前因后果。这正是它的根本缺陷!
当我们谈论AGI的路径时,往往纠结于算力、参数、模型结构,却很少真正问:人类究竟是怎么学习的?
Karpathy给出了一个根本性的提醒:
"大模型所谓的"读一本书",只是延长序列长度、预测下一个token。而人类读书,从来不是这样的。"
人类从不只是"阅读",而是在阅读中思考、在思考中发问、在发问中讨论。你读一本书,和朋友聊这本书,延伸出新的问题与视角,这才是知识的真正入口!
他非常认同一个研究观点:做梦可能是进化出的"反过拟合机制"。
梦境让我们在现实之外随机游走,置身于不合逻辑、不一致的情境中,迫使大脑保有灵活性。
"做梦就是用你自己的样本训练你自己。只不过如果你只用自己的样本,会迅速偏离真实世界,最终崩溃。"
因此,梦境可能不是无用的幻象,而是熵的注入器。人类学习保持活力的方式,正是不断从外部输入熵!
我们常说"AGI来了",但它真的"来了"吗?Karpathy的回答是:它正悄无声息地流入我们经济结构的缝隙之中,而不是以革命者的姿态横扫一切。
他提出一个现实模型:
这种"滑动式自主性"才是AGI最真实的落地方式。你不会看到AGI"砍掉"一份工作,而是看到工作内容重组、人机协作结构被重新编排、组织效率被慢慢提高!
为什么AI在编程领域进展最快?Karpathy解释了三个维度的原因:
总结一句话:代码,是LLM最理想的落地沙盒!
他并不认为其他领域无法落地,只是落地成本远高于代码。哪怕是文本相关任务,如总结会议记录、生成复习卡片,看似是语言模型的原生任务,却因为缺乏反馈闭环和结构基础设施而变得异常困难。
在Karpathy看来,人类智能并不是宇宙中注定要发生的结果,而是一种极端罕见、依赖偶然条件叠加的"生物现象"。
"我们训练AI,不是为了让它长成人类,而是让它成为文化的下一个节点。"
这也是他不喜欢"奇点论"的原因:AI不是天外来客,而是语言、工具、知识在指数扩展过程中的新承载体。
未来的智能体,也许不会拥有情感、意识、动机,但只要它能读懂维基百科、编程文档和法条,它就已经成为人类文明的延续者。
Karpathy用一句话总结这种超越个体的演化方式:
"我们不是创造了超级智能,而是扩展了文明的操作系统。"
在他眼中,人类是早期引导者,而AI将成为文明的"自动驾驶模式"。
真正的智能,从来都是文化的延续而非个体的超越。
看完Karpathy的这些观点,你对AI的未来有什么新的思考?评论区告诉我!
