

你有没有发现,最近AI越来越聪明,但电费也越来越贵?
一个千卡级GPU集群,一年电费就要上千万!更可怕的是,AI对算力的需求每3.5个月就要翻一倍,传统电子芯片已经快撑不住了!
怎么办?别急,一场从"电"到"光"的革命正在悄悄发生,而且已经有人靠这个赚翻了!
说出来你可能不信,现在最前沿的AI算力,已经开始用光来替代电了!
一家叫曦智科技的公司,刚刚通过港交所上市聆讯,即将成为"全球AI光算力第一股"!他们的技术有多牛?
创始人沈亦晨是个80后学霸,在麻省理工学院读博时,就在《自然·光子学》发了封面论文,首次验证了用光子做计算的可能性!
当时全球做这件事的团队,一只手就数得过来!
自从ChatGPT爆火,大模型就像个"电老虎",疯狂吞噬算力!
但芯片越做越难,功耗越来越高,成本越来越贵!这个矛盾已经到了临界点!
更麻烦的是——算力不是不够,是"传不动"!GPU之间交换数据的速度,成了最大瓶颈!
光算力解决的,就是这两件事:降低功耗,提高传输效率!
光算力产业链最赚钱的是上游器件!技术壁垒高,毛利更高!
这些公司本质上是在卖"核心部件",谁都绕不开!
曦智科技自己,其实更大的角色是"系统集成"——把光计算和光互连打包成整体方案卖给客户!
招股书显示,他们2025年收入1.06亿元,同比增长超7成,但净亏损13.42亿元!
为什么亏这么多?一方面是研发投入巨大,另一方面是产品集成度提升推高了成本!
但客户一旦接入,替换成本极高,粘性很强!2023年到2025年,新增客户数分别为11家、10家和22家,客户池持续扩大!
前期亏钱,后期靠规模赚钱,这就是典型的科技公司成长路径!
那么,谁在用这些技术赚钱?
第一类是互联网公司,给大模型训练做加速,比如字节、百度!使用光算力后,GPU利用率提升了50%,延迟下降了90%!
第二类是智算中心,千卡集群部署成本降低了40%,正在成为"东数西算"的基础设施之一!
第三类是金融机构,做高频交易和风控,延迟降到了0.3毫秒,效率提升了3倍!
智算中心用了光互连方案后,一年能省下几百万电费!互联网公司做AI推理,成本降低了55%,每天能省几百万算力开支!
这赛道别人还能赚吗?能,但门槛在抬高!技术迭代在加速,800G到1.6T到3.2T,每一次升级都是一次洗牌!
美国有Lightmatter、Ayar Labs,主攻数据中心,在前沿技术上确实领先!
英伟达、谷歌都在砸钱做自己的光互连方案!英伟达有NVLink,谷歌的TPU集群也引入了光交换技术!
中国这边,曦智科技做光计算和光互连一体化,中际旭创、新易盛做光模块,占全球70%以上的份额!
按2025年收入计,曦智科技在中国光互连市场排名第一,市场份额达88.3%!光计算芯片累计出货量连续两年全球第一!
总体来说,美国在前沿技术,中国在工程落地!两边各有优势,但都在往同一个方向跑——让算力不再被"电"卡住脖子!
市场有多大?光互连市场预计从2025年的57亿元增长到2030年的1805亿元,年复合增长接近100%!光计算市场则从6000多万元增长到14.6亿元,增速约87%!
换句话说,这是一个"还没长大,但已经爆发"的市场!
当然,这个行业也不是没有风险!技术路线还在分裂,谁会成为主流还没有定论!大多数公司还在亏损,光计算的大规模商业化仍需时间!
但如果把时间拉长一点看:AI的尽头是算力,算力的尽头是能耗,能耗的尽头是物理极限!
而光,是目前最接近这个极限的答案之一!
金句: 当电费成为AI发展的最大瓶颈时,光算力就像一束照亮前路的光!
互动问题: 你觉得光算力能彻底解决AI的能耗问题吗?评论区聊聊你的看法!
点赞+分享: 如果你觉得这篇文章对你有启发,别忘了点赞和分享给身边的朋友!让更多人了解这场正在发生的算力革命!