游戏百科

我国新一代芯片突破,上海交大全光计算芯片 支持大规模AI视觉生成

当全球科技巨头还在硅基芯片的纳米制程里死磕时,中国科研团队悄悄抛出了一枚“王炸”——12月21日,上海交大研发的全光计算

当全球科技巨头还在硅基芯片的纳米制程里死磕时,中国科研团队悄悄抛出了一枚“王炸”——12月21日,上海交大研发的全光计算芯片LightGen正式官宣重大突破,成为全球首个能支持大规模语义视觉生成模型的光计算芯片,算力和能效直接实现量级跃升,给被卡脖子的AI算力瓶颈撕开了一道全新口子。

要读懂这枚芯片的分量,得先搞懂当下AI行业的“切肤之痛”。随着生成式AI的爆发,ChatGPT、 Stable Diffusion这类模型的参数越做越大,对算力的需求呈指数级增长,而传统电子芯片早已逼近物理极限。就像用小水管给大水缸注水,电子在晶体管里移动的速度有限,还会产生大量热量,大型数据中心的耗电量堪比一座小型城市,降温成本更是高得离谱,这就是行业常说的“冯·诺依曼瓶颈”,也是全球智能计算领域的公认难题。

光计算,原本是破解这个难题的希望,但此前一直停留在实验室阶段。“把光计算真正用到生成式AI上并不简单。”论文第一作者、上海交大集成电路学院助理教授陈一彤坦言,已有的全光计算芯片只能处理小规模分类任务,一旦涉及复杂生成任务就掉链子,而且光电转换过程会严重削弱计算速度。直到LightGen的出现,才一次性攻克了三个核心难关:在单枚芯片上实现上百万级光学神经元集成、完成全光维度转换、研发出不依赖真值的光学生成模型训练算法——这三项任意一项突破都算重大进展,三者同时实现,直接让全光芯片处理大规模生成任务从不可能变成了可能。

实测数据最有说服力。在保持和顶尖电子芯片同等生成质量的前提下,即便用的是较滞后的输入设备,LightGen的算力和能效也比传统顶尖数字芯片提升了两个数量级;要是换上前沿输入设备,理论上能实现7个数量级的算力跃升和8个数量级的能效提升。通俗点说,原来电子芯片生成一帧4K视频要耗费数十亿次浮点运算,LightGen只需要一次光信号传输转换就搞定,能耗低到几乎可以忽略不计。更关键的是,它能完整实现“输入—理解—语义操控—生成”的全流程闭环,高分辨率图像、3D场景、高清视频生成,甚至图像去噪、特征迁移这些复杂任务都能轻松应对。

这项成果刚一发表在国际顶级期刊《科学》上,就被杂志官方选为高光论文重点报道。业内专家评价,LightGen不仅为新一代算力芯片助力前沿AI开辟了新路径,更重新定义了算力竞争的赛道——不再是在别人制定的硅基规则里追赶,而是用光子的天然优势另起炉灶。要知道,光子的传播速度是光速,而且光束之间不会相互干扰,能在极小空间里实现海量并行计算,这种从物理原理层面的降维打击,远比在制程上多挤几纳米更具颠覆性。

从战略层面看,这枚芯片的突破更显关键。当前我国在高端GPU领域面临技术封锁,传统硅基路线的追赶成本越来越高,而LightGen提供了一条“弯道超车”的可能。正如分析人士指出的,这不是简单的性能迭代,而是计算范式的潜在变革,一旦实现规模化量产,不仅能让AI大模型的训练成本大幅降低,还能把强大的生成式AI功能塞进手机、智能眼镜等小型设备,彻底改变数字经济的发展逻辑。

当然,理性来看,LightGen从实验室走向商业化还有一段路要走。比如目前它主要聚焦视觉生成任务,在逻辑判断等非线性计算上还需依赖电子芯片配合,形成光电混合架构;而且要搭建配套的软件生态,让开发者适应新的计算平台,也需要时间和资金投入;封装精度、量产良率等工程难题,同样需要产业链协同攻克。但不可否认的是,这枚芯片的出现,已经让全球算力竞争的格局发生了微妙变化,也让我们看到了摆脱技术依赖、掌握核心话语权的希望。

更值得关注的是,LightGen的突破不是偶然。陈一彤团队长期深耕光计算领域,此前已在《自然》《科学进展》等顶级期刊发表多篇重磅成果,这次的突破是多年技术积累的必然结果。背后还有翟广涛教授、张文军院士等专家的支持,以及清华大学团队的协同攻关,更离不开国家和上海市项目的持续资助,这恰恰印证了我国在基础科研领域“集中力量办大事”的优势。

未来几年,随着光计算技术的持续成熟,很可能会出现“电子芯片负责控制、光子芯片负责计算”的混合架构成为主流。届时,AI大模型的训练周期会从以月为单位缩短到以天为单位,能耗成本降低九成以上,自动驾驶、元宇宙、生物医药研发等依赖海量算力的领域,都将迎来爆发式增长。而中国在这个全新赛道上,已经抢占了先发优势,接下来就看产业链能否跟上科研的步伐,把技术优势转化为产业优势。