

你是不是也觉得,现在的AI竞赛越来越像军备竞赛?
各家都在疯狂堆显卡、烧钱训练大模型,但效果真的有那么大差别吗?
MIT的最新研究给了我们一个颠覆性的答案:所有聪明的AI,最后都会长成一个样子!
MIT的研究员们做了一件超酷的事——他们把59个「出身」完全不同的AI模型凑在一起开派对!
这些模型有的看文字、有的看3D坐标、有的算物理公式,训练数据也五花八门。
但神奇的事情发生了:
更夸张的是,一个读文字的代码模型,竟然能和一个算受力的物理模型在「认知」上高度对齐!
这就像一群人从不同方向爬山,最后都在山顶汇合,看到了同样的风景!
为了搞清楚这些模型是不是真的在靠近真理,研究者引入了一个关键指标:表征对齐度!
简单说,就是看两个模型处理同一个分子时,它们「脑子」里的思路有多像。
结果太震撼了:
性能越强的模型,思维方式就越接近!
在实验中,随着模型预测物质能量准确度的提升,这些模型在表达空间里会自发地向同一个方向靠拢!
尽管这些AI的架构千差万别,但它们在处理同一批分子数据时,其特征空间的复杂度竟然压缩到了一个非常窄的范围。
无论模型外壳多么复杂,它们最后抓取的都是最核心、最精简的物理信息!
你以为这种「英雄所见略同」只发生在科学AI里?
大错特错!
有研究者把纯文本的语言模型(比如GPT系列)和纯图像的视觉模型(比如CLIP)拉出来比对,结果发现:
它们对「猫」的理解,竟然越来越像!
本来两个模型一个只看文字、一个只看图片,压根没交集。
但模型规模越大、性能越强,这两个完全不同模态的「猫」表示,就在线性空间里越靠越近!
仿佛在共享同一个「猫的本质」!
这意味着AI不管从文字、图像、分子结构还是3D坐标切入,只要足够强大,就会在内部悄悄趋向同一个对现实的「内在图景」!
高性能模型都在山顶汇合,那剩下的模型都在干什么?
研究者发现,性能不佳的模型有两种「死法」:
有些模型虽然跑分不错,但思维方式却非常孤僻。
比如MACE-OFF,它在处理某些分子任务时表现很强,但它的表征对齐度却极低,完全不能融入主流高性能模型。
它可能只是在特定领域里找到了某种规律,一旦跨出这个舒适区,它的经验就很难转移到其他科学任务上。
而当AI遇到训练数据里从未出现过的物质时,它们往往会:
由此可见,训练数据不仅仅是模型的养料,更是决定模型能否触碰真理的基础!
如果数据不够多样,哪怕模型的架构再精妙,也终究只是在原地踏步,无法进化成真正的通用基座模型。
既然实验已经证明,不同的AI都在向同一种物理理解靠拢,那我们还有必要堆昂贵的显卡,从头训练一个超级大模型吗?
很显然,没有!
而且AI已经替我们找到了一条捷径——「模型蒸馏」!
研究发现,规模较小的模型,通过模仿那些高性能基座模型的「思维方式」,也能表现出惊人的潜力!
我们不再需要盲目追求参数量的堆砌,而是利用「真理收敛」的特性,把大模型的知识复刻到更轻量、更高效的小模型身上!
这对未来模型的开发具有深远的意义:
Orb V3向我们展示了「苦涩的教训」的另一种解法:通过大规模训练和聪明的正则化手段,简单的架构同样能学到那些昂贵的、强加物理限制的模型才有的理解力!
在未来,评估一个科学AI的标准将变得更加多元。我们不仅看它当下的「考分」,更要看它是否踏入了「真理的收敛圈」。
一旦我们掌握了这种对齐的逻辑,科学发现将不仅是巨头们的算力竞赛,更多轻量级、针对特定场景的AI将如雨后春笋般涌现,真正实现「算力自由」下的创新爆发!
MIT的研究给狂热的AI竞赛浇了一盆冷水,但也指了一条明路!
科学AI的进阶之路,不再是更复杂的架构,也不是更漂亮的物理公式,而是看谁能更稳地进入那个「收敛圈」!
我们不需要沉默算力竞赛,因为真理的路径已经清晰——所有聪明的模型都在往一处跑,那么通过「表征对齐」来实现模型的轻量化和知识迁移,就成了最务实的工程方案!
未来的科学,将属于那些懂得利用收敛性来降低成本的人!
真理只有一个方向,聪明的AI都在往那里跑!
你觉得未来AI发展是应该继续堆算力,还是走模型蒸馏的轻量化路线?
如果这篇文章对你有启发,别忘了点赞和分享给更多朋友!让更多人了解AI发展的新方向!
