

Meta和OpenAI的工程师们,居然在AI使用排行榜上疯狂内卷!有人一周烧掉2100亿个Token,相当于33个维基百科的文本量!更夸张的是,有人每月AI账单高达15万美元,比工资还高!
这已经不是简单的技术讨论,而是演变成了一场赤裸裸的“生产力表演”!当Token消耗量开始写入KPI,当公司把它当作新型福利,我们到底在庆祝什么?是真正的效率革命,还是新一轮的烧钱游戏?
2100亿Token!听起来是不是很吓人?但真相是:今天的Token早就不是标准品了!
两年前,大模型定价还很简单:输入Token+输出Token。现在呢?
以Anthropic的Claude Opus 4.6为例:
同一家公司!同一个模型!同样的“Token”单位!价格能差出十几倍!
真正拉高成本的,早就不是模型调用费了!
OpenAI现在的价目表显示:
从2026年3月31日起,连容器都要按session收费了!
Google也在跟进!Vertex AI的Agent Engine中,Code Execution、Sessions、Memory Bank全部开始单独收费,按vCPU小时和GiB内存小时计价!
所以醒醒吧!今天的大模型厂商,卖的是一整套AI基础能力:可运行、可存储、可搜索、可调用工具、可持续执行!
单看牌面价格,Token确实在降价:
但奇怪的是,AI总使用成本不降反升!为什么?
推理模型的平均输出Token使用量,是非推理模型的5.5倍!Anthropic和OpenAI都把extended thinking Token按输出Token计费——模型想得越深,你的账单越长!
单价降了,但完成同一个任务需要的Token总量翻了好几倍!
这才是Tokenmaxxing的深层驱动力!工程师不是在手动刷Token,而是他们的AI编程智能体在24小时不间断运行!
据阿里云数据:单个Agent的算力消耗是传统Chatbot的100到1000倍!中国整体日均Token消耗:
2026年3月18日,阿里云和百度智能云同日宣布涨价,最高涨幅34%!
AWS在1月将机器学习容量块提价约15%!谷歌云宣布5月起上调AI基础设施费用!
云计算行业专家直言:“这次调价主要由供需关系和成本驱动!”
GPU、并行存储、高速网络、数据中心电力……模型牌价在降,但生产Token的一切都在涨!
Anthropic发布Opus 4.6时专门强调“价格保持不变”——言下之意:更强的能力,成本我们自己扛!
三个机制叠加,结果就是:Token的牌面价格和真实任务成本之间,出现了一条越来越宽的裂缝!
回到Tokenmaxxing排行榜。它记录了消耗量,但没有记录产出质量!
一个工程师一周烧掉33个维基百科的Token,不等于他完成了33个维基百科价值的工作!
这触及了Token经济学最核心的结构性缺陷:行业还没有建立起从Token消耗到任务完成的有效度量!
Token衡量的是投入,不是产出!
一个Agent花了100万Token完成任务,另一个花了10万Token完成同样任务——在Tokenmaxxing排行榜上,前者排名更高!这合理吗?
Shopify CEO Lütke在备忘录中说:一些同事正在贡献“此前认为不可能的10倍产出”。但他没有给出具体衡量标准!
一种新型焦虑诞生了:不通过高昂的Token消耗展示AI生产力,就可能被视为落伍!
这和2000年代每家企业争相建网站、2010年代每个品牌必须做App的逻辑一模一样:技术采纳本身变成了信号,消耗量变成了代理指标!
但与之前不同的是,这一轮的成本是实打实的!
15万美元的月度AI账单!一周2100亿Token的消耗!持续涨价的底层算力和存储!Tokenmaxxing不是免费的!
当成本足够高时,“烧Token”和“用Token创造价值”之间的区别,就会从哲学问题变成财务问题!
Token单价会继续下降,这一点没有悬念!
真正的焦虑在于:谁能最高效地把Token变成任务完成率?
对每一个程序员、每一家企业、每一个普通用户来说:衡量AI成本,不要看每百万Token多少钱,要看完成一件事究竟值得花多少Token!
这两个数字之间的差距,是以“Token为新度量衡的智能时代”下一阶段:
金句: Token单价在降,但真正的AI成本在暗处暴涨!烧Token不等于创造价值,只会烧钱的人终将被淘汰!
互动问题: 你的团队开始统计Token消耗了吗?你觉得这是效率工具还是新型内卷?评论区聊聊!
点赞+分享: 如果你也觉得Token焦虑正在蔓延,点赞让更多人看到!分享给团队,一起讨论如何真正用好AI!