找工位
空间入驻
小程序

通过大语言模型能实现通用人工智能吗?

2026-02-09
文章转载自"北大纵横"

3554字 | 8分钟阅读

一、大型语言模型(LLM)的发展现状

2022年ChatGPT推出以来,大型语言模型(Large Language Model,LLM已被认为是一项变革性技术,吸引了全球科技界的巨大关注公司竞相构建规模更大、性能更强、训练数据集不断扩大的模型Transformer架构为核心的生成式AI在自然语言处理和图像生成等领域不断取得突破在代码生成、内容创作、信息问答等场景成为高效工具。到目前为止LLM依然处于引领AI潮流的阶段。

随着LLM模型规模越来越大在各种基准测试中不断显示提升的性能,通用人工智能(AGI开始成为业界关注的焦点,越来越多的业内人士已在考虑“通过LLM能实现AGI吗,但与此同时LLM在高速发展的过程中暴露出来的问题也开始逐步引起业内的重视和研究。AI的发展似乎走到了一个十字路口:是依赖原有的扩展法则(Scaling Law)通过算力、数据和参数规模持续扩展来期待模型能力的进一步跃迁还是寻求在算法、架构乃至理论上的根本性突破?AI未来通向AGI的道路依然值得我们继续探索。

二、大型语言模型(LLM)存在的问题

1.缺乏世界模型与常识

当前的LLM本质上是基于统计相关性的“内容复读机”。它们能生成语法完美的句子,但缺乏对现实世界基本规律(如重力、空间关系)和人类常识的深层理解,这导致其在逻辑推理、因果推断和长链思考(即通常所说的“慢思考”)上容易出错。

2.“幻觉”与不可控性

幻觉主要分为事实性幻觉(编造不存在的事实)和忠实性幻觉(指令、上下文或逻辑不一致)两类,这是LLM最广为人知的问题。一方面由于评估体系的缺陷,另一方面由于训练数据的模糊、错误甚至缺失,导致模型会生成看似合理但实则不准确或虚假的信息。业界对于模型“幻觉“的产生的具体过程尚未彻底了解(”黑箱“效应),目前这个问题不完全可控。

3.被动响应与缺乏自主目标

LLM对知识的学习(训练)可以认为是一次性的,训练完成后,模型“知识库”基本固化,模型性能也基本确定。在现实世界的动态环境中,LLM处理需要具备超越训练数据的泛化能力的任务时会有困难。提高模型的性能需要用新的数据被动进行新的训练。由于缺乏自主目标,模型自身无法通过持续迭代学习实现性能提升。

三、通用人工智能(AGI)是什么

通用人工智能(Artificial General Intelligence,AGI)是指能够像人类一样理解、学习和应用知识,从而解决广泛领域问题的AI系统。一般来说AGI具备三个核心特征:

通用性:能跨领域灵活处理多种任务,拥有类似人类的泛化能力;

认知能力:包含理解抽象概念、逻辑推理、自主规划、因果判断等高级智能;

自主性与适应性:能在未知环境中主动学习并制定目标,并通过经验持续进化,类似人类终身学习的过程。

四、LLM通往AGI的道路存在瓶颈

1. 从“统计专家”到“物理学家”:跨越对世界理解的鸿沟

LLM的局限

LLM通过学习海量文本中的词序关联来工作,它精通的是“语言统计学”,而非对世界的深刻理解。LLM可以从文本的角度掌握物理学、化学、生物学等学科所包含的客观世界基本定律,但无法理解这些定律所表达的含义。同样它虽然掌握了海量的数据,但对其中许多我们人类习以为常的常识都不能理解。根本原因在于LLM没有对空间、时间、物体属性和因果关系等建立相应的内在心智模型。

AGI的阻碍

一个真正的AGI必须能理解它所处的世界(无论是现实世界还是抽象世界),并能进行事实推理(“如果我做了某事,会发生什么?”)。LLM缺乏这种基础的世界模型,使其无法进行可靠的、基于理解的规划和决策,但这是智能的核心。

2. 从“模式生成”到“稳健认知”:破解推理和可靠性的危机

LLM的局限

“幻觉”不是代码错误,而是在当前Transformer架构“预测下一个词元(token)”模式下的必然结果。LLM的优化机制是生成“看似合理”的文本,而非“真实正确”的答案。根本原因在于LLM没有内在的真相核查机制或逻辑一致性保障。

AGI的阻碍

AGI必须是一个可信赖的认知主体。在复杂、动态的环境中,它需要基于不完整信息进行严谨推理、区分事实与虚构、评估自身知识的边界并承认不确定性。但LLM的“幻觉”特性和其不可控性,与AGI所需的稳健认知完全相悖。

3. 从“被动工具”到“主动主体”:补齐意识与目标的缺失

LLM的局限

LLM缺乏自身的目标仅为完成用户的即时指令而存在LLM也无法制定并执行一个实现目标所需要的多步骤计划,无法做到适应性地学习在不同情境下如何行动,并且能够持续迭代学习。LLM每次与用户的交互都是“重置”的,无法形成长期记忆。根本原因在于LLM没有一个持续的、内在的主体

AGI的阻碍

自主性是智能的关键标志。AGI应当能够识别自身状态、设定目标、规划路径并驱动自身去实现它。LLM完全依赖外部提示的被动响应模式,与自主智能体的概念存在根本冲突。

五、扩展法则(Scaling Law)面临的挑战

1.高昂的成本与低效的投入产出比

LLM模型性能提升与资源消耗之间可能存在指数级增长关系,最终可能在经济和能源上变得不可行。除训练成本外,模型推理成本也是商业化的主要障碍。许多企业已经发现,将AI试点项目扩展至全公司规模,成本会高至难以承受,难以证明其明确的经济价值

2.复杂的数据治理系统集成

AI项目常常存在数据质量差、业务场景匹配、维护复杂等问题。数据孤岛、数据质量、数据安全和隐私保护是企业在实操中面临的最大难题,合规性要求(如欧盟制定的《通用数据保护条例》(GDPR))也给数据使用带来了诸多限制。另外将AI模型融入企业现有的IT架构、业务流程中,也是一个极其复杂的系统工程,匹配和维护往往比模型开发本身更困难。

六、AGI的未来发展趋势和替代路径

LLM可以通过“大数据”+“大算力”使模型涌现某种惊人的“大能力”,但它存在的问题也清晰地指示出,仅凭这条路径无法抵达AGI的终点。未来的突破很可能需要底层架构和模式的创新与融合,目前业界的研究包括但不限于以下四种趋势和相关替代路径:

1.架构革命

可能需要建立超越Transformer的新架构,能显式地构建世界模型、处理符号逻辑和因果推理。具体的路径包括物理信息与因果混合模型,通过将物理定律和因果推理整合到AI模型中,以提高模型在现实世界中的效用。另一条路径是神经符号架构,将神经网络与符号推理相结合,以增强模型的可解释性以及逻辑、数学问题的解决能力。

2.学习模式转变

从纯粹的静态数据模仿,转向与动态环境交互的主动学习(如强化学习),从而内化对物理和社会规律的理解。DeepSeekOpenAI等公司推出的推理 LLM 已将强化学习纳入数学、编程和科学问答等任务。强化学习的适应性和持续学习能力是创建能学会在不同情境和任务中行动的智能体的关键组成部分,使我们更接近实现 AGI。

3.认知架构整合

借鉴认知科学,构建包含工作记忆、长期目标管理、元认知(对自身思考的监控)等模块的完整智能体架构。相关的路径有认知人工智能,即通过模仿人脑结构提高效率和处理速度。研究的目标是设计出与人类智能相似的系统,该系统能通过与环境其他行动者交互来学习概念拥有短期和长期记忆,能适应性地学习在不同情境下如何行动并且能持续迭代学习。

4.具身智能

AI拥有“身体”(带有传感器的学习型机器人),在具身交互中学习空间关系、物理关系、因果关系等客观规律,被认为是解决物理和常识问题的关键路径。具身智能系统通过与现实交互,发展出对客观世界的细致理解,同时获得高度情境感知,并通过弥合感知与实际之间的差距,系统可以拥有物理、因果和交互知识,以理解其在物理世界中行为的后果,从而做出更明智和安全的决策。

以上介绍的这些AGI发展趋势和路径并非孤立,未来AGI的突破很可能是不同路径融合的结果,比如具身智能需要物理因果模型来理解世界,需要强化学习来训练,其大脑可能是神经符号架构。总体而言,让AI具备自我改进、从环境中自主学习的能力,构建能在物理世界中感知、规划、行动的智能体(Agent),是当前业内的强共识和重点探索方向。

总结

重点介绍了大语言模型(LLM)存在的一系列问题,以及LLM通往通用人工智能(AGI)道路上面临的障碍,之后介绍了可能卓有成效的一些 AGI发展趋势和技术路径未来的通往AGI道路的突破,可能将不再仅仅依赖于扩大模型规模,而更取决于能否在基础理论(如更有针对性的架构)、工程效率(如降低成本的算法)等方面取得协同进展。

总体而言,我们不能否认LLM目前取得的成就,也不能因为这些成就对AI未来的发展盲目乐观。LLM在未来AI通向AGI的道路上就象一盏指路灯,它的成就为我们指明了前方道路的一部分,但它的问题为更为我们照亮了那些必须跨越的鸿沟,而解决LLM的这些根本性问题,有可能正是未来我们打开AGI之门的钥匙。

作者:邬建淞,北大纵横特聘合伙人

作者更多文章推荐



如何理解元宇宙

”查看所有原创作者 ↓↓