

你相信吗?一篇论文能让美股存储板块一夜蒸发900亿美元!
更惊人的是,这篇号称能解决AI存储危机的谷歌神作,竟被曝出学术不端嫌疑!
今天,一位华人学者实名举报,揭开了一场顶级AI论文背后的争议真相……
最近AI圈最炸裂的消息是什么?不是ChatGPT更新,也不是Sora新功能,而是谷歌一篇名为TurboQuant的论文!
这篇论文号称能将大模型KV缓存的内存占用压缩到原来的1/6,推理速度提升8倍!消息一出,美股多支存储股应声大跌,市值合计蒸发超过900亿美元!
这是什么概念?约合人民币6220亿元!一篇论文的威力,比多少分析师报告都管用!
但反转来得比想象中更快!就在大家以为AI存储荒有救了的时候,一位华人学者站了出来……
3月27日,苏黎世联邦理工学院计算机博士后、RaBitQ论文作者高健扬公开发文,直指谷歌TurboQuant论文存在严重问题!
更让人震惊的是,高健扬透露:早在2025年5月,在TurboQuant论文正式投稿前,RaBitQ团队就已经向作者指出了问题!
对方承认了问题,却选择不予修复!这是什么操作?
今天下午,高健扬更新了最新进展:TurboQuant团队只承诺修正部分错误,但拒绝讨论技术相似性,而且要到今年4月会议结束后才修改!
高健扬说,他选择现在公开,是因为错误的学术叙事一旦传播,纠正的成本会越来越高!
在吃瓜之前,我们先搞清楚TurboQuant到底是个什么技术!
简单来说,这是一种向量量化技术,专门给AI数据"瘦身"!传统压缩方法往往会引入额外开销,但TurboQuant号称能实现无损压缩!
谷歌在实验中宣称:TurboQuant在所有基准测试中都达到了"完美的下游任务表现",同时将KV缓存内存占用减至1/6!
在H100 GPU上,4比特TurboQuant相比32比特未量化版本,实现了高达8倍的性能提升!
听起来是不是很牛?但问题就出在这里……
TurboQuant主要通过两个关键步骤实现压缩:
第一步是高质量压缩!对数据向量进行随机旋转,简化数据结构,便于使用标准量化器。这一步用大部分比特捕捉原始向量的主要特征。
第二步是消除隐藏误差!用少量剩余比特对残留误差应用QJL算法。这个阶段相当于数学误差检查器,能够消除偏差,获得更精准的注意力评分。
QJL采用了一种叫做"Johnson-Lindenstrauss变换"的方法,能在缩小高维数据的同时,保持数据点之间的基本关系。
听起来很复杂?没关系,你只需要知道:这个技术的核心就是随机旋转+Johnson-Lindenstrauss变换!
而问题,恰恰就出在这个核心上……
高健扬指出,TurboQuant与他们在2024年5月发布的RaBitQ论文,在方法层面有直接的结构联系!
两者都在量化前对输入向量施加随机旋转(Johnson-Lindenstrauss变换)!这是两篇论文方法设计中最核心、最接近的部分!
但TurboQuant论文却系统性地回避了与RaBitQ的相似性!
面对质疑,TurboQuant团队回应:"随机旋转和Johnson-Lindenstrauss变换已成为该领域的标准技术,我们无法列举所有使用这些方法的方法。"
高健扬认为这是在转移矛盾!作为在相同问题设定下,率先将随机旋转与向量量化结合、并建立最优理论保证的先行工作,RaBitQ应当在文中被准确描述!
更严重的是,TurboQuant论文在不提供任何论据的情况下,将RaBitQ的理论保证定性为"次优",将原因归结为"较粗糙的分析"!
但事实是,RaBitQ的误差界已经达到了理论计算机顶级会议论文给出的渐近最优误差界!
因为这个成果,RaBitQ团队还被邀请至理论计算机科学顶级会议FOCS的Workshop进行报告!
2025年,RaBitQ团队与TurboQuant的第二作者进行了多轮详细的邮件技术讨论,澄清了错误解读,然而相关错误定性一直未被修正!
这一点最让人无法接受!TurboQuant团队在测试时采用了双重标准!
他们用单核CPU、关闭多线程并行的设置来测试RaBitQ算法,但却使用英伟达A100 GPU测试TurboQuant算法!
这就像让一个人骑自行车,另一个人开跑车,然后说跑车更快一样不公平!
更过分的是,他们使用了自己翻译的Python代码,而非RaBitQ团队开源的C++实现!前者的效果明显差于后者!
而这些差异,在论文中都没有充分披露!
TurboQuant论文的一位评审者在OpenReview平台发表评论,说出了很多人的心声!
他虽然认为TurboQuant的理论分析和实验结果都很出色,但也发现这一方法与RaBitQ存在明显的共通之处!
他明确要求TurboQuant团队比较两者在设计上的差异如何影响性能!
但查看最终版本时,他震惊地发现:在论文的实验部分,RaBitQ仅被提到了一次!
知乎上,有网友直言:去年读TurboQuant论文时,就感受到其与RaBitQ的相似之处!
"更像是把RaBitQ换了一种表达方式,在GPU上实现一遍,创新性不够!"
还有网友亲自复现了TurboQuant,发现在向量检索领域,TurboQuant的召回率低于RaBitQ!
X平台上,网友评价更犀利:"在论文提交前问题就被指出,但却被忽略,这是最糟糕的结果!这意味着TurboQuant团队明明意识到问题存在却故意保留了下来!"
虽然ICLR接收了这篇论文,但接收并不总是意味着技术论断站得住脚!
截至目前,这场争议尚未有官方定论。但这件事给我们敲响了警钟!
学术研究的核心在于"可追溯"与"可复现"!当一篇论文通过大厂渠道获得千万级曝光,甚至影响资本市场时,对先行工作的准确引用、对实验条件的完整披露,就不再是可有可无的环节!
顶会论文、大厂标签不是护身符,学术叙事不容"带病传播"!
RaBitQ团队已向ICLR官方再次提交正式投诉和完整证据包。未来,他们还考虑在arXiv上发布详细技术报告。
无论结果如何,这件事都提醒我们:对学术规范的敬畏、对先行者的尊重,以及对每一份实验数据的诚实,始终是不可逾越的底线!
互动问题:你觉得大厂论文是否应该接受更严格的学术审查?在评论区聊聊你的看法!
如果这篇文章让你对AI学术圈有了新认识,记得点赞支持!也欢迎分享给更多朋友,一起关注学术诚信!