01
算力危机:AI增长的能源瓶颈
随着OpenAI的ChatGPT、谷歌的Gemini、微软的Copilot等生成式AI工具,日益渗透到现代生活的方方面面。AI的普及带来了一个需要现实思考的问题:以AI当前的增长速度,未来的计算需求还可持续吗?
这个问题的严峻性已迫在眉睫。麦肯锡报告指出,到2030年,由AI工作负载驱动的全球数据中心容量将增长3.5倍,达到156吉瓦(GW),超过了法国目前的总能源需求。要建设满足此容量增长所需的数据中心基础设施,其成本也令人咋舌:从现在到2030年,预计需要投入5.2万亿美元。
“要支持这种计算能力不断增长的需求很困难,但更重要的是能耗问题,”清华大学计算光学专家卢方解释道。为了说明问题,卢方举了OpenAI训练其GPT-4系统的例子。“其能耗约为1300万千瓦时电力,相当于燃烧4550吨煤炭。”
“有些为AI训练而建的数据中心,其耗电量堪比地球上最大的城市,” Lightmatter公司的首席执行官尼克·哈里斯(Nick Harris)说。“如果你从太空观察地球(在热红外波段),能看到的一些最亮的物体就是数据中心——比它们更亮的只有火山和沙漠。”
当然,人类可以暂停或尝试限制AI的使用。但这非常不符合我们的本性。“研究算法、神经网络和深度学习的研究人员不会停下脚步,”卢方说。“事实上,他们正持续增加模型的深度和参数规模,朝着通用人工智能(AGI)的方向推进。”AGI是一种理论上能够学习并掌握任何需要人类智能水平甚至超越人类能力的任务的AI。
因此,在技术前进的步伐非但不见放缓反而可能加速的情况下,社会如何能在满足AI需求的同时,应对其必将带来的巨大经济和环境负担?一种方法是将问题分解到其核心。从根本上说,限制计算能力的罪魁祸首是信息处理的支柱——历史悠久的电子。它成为了限制计算速度、内存带宽以及导致惊人能耗的瓶颈。
02
光子曙光:通往光速计算的理论之路
那么,有替代方案吗?答案是肯定的,但有前提。
光子没有质量,因此能以宇宙的极限速度——光速传播。理论上,光子比电子快得多,这意味着光子计算机的运算速度可能比电子计算机快六到八个数量级(即百万倍到一亿倍)。此外,光子系统有潜力提供更高的带宽,在更短的时间内、以更低的延迟运行更多的计算步骤。
这些优势有潜力极大提升计算效率。光不需要穿过任何物质就能从A点到达B点,不像电子在行进途中会与离子碰撞产生热量。尽管光子系统需要激光器(会产生废热)才能工作,但其效率潜力远高于电子系统,产生的热量也少得多。
光子计算作为一个活跃的研究课题已超过半个世纪,但直到现在首批实用产品才进入市场。原因在于,用光子取代电子,并不像把你家的白炽灯泡换成LED灯泡那么简单。正如大家所熟知的,光子的特性与电子有着根本性的不同。例如,光子通常不会相互发生作用,这使得即使在人们看来最简单的工作——比如设计一个光子晶体管——也变得极具挑战性。
晶体管最基本的应用是作为开关。但在光子系统中实现开关,目前需要一束光来控制另一束光,而这只能通过非线性光学效应来实现。然而,非线性效应通常在光强过高(不适合光子计算)时才会显现,或者需要使用特定的强非线性材料,而这些材料要么不适用,要么尚未发展到适合大规模生产的程度。因此,研究人员仍在寻找能实现高效实用光子开关的材料和机制。
一个集成光子芯片系统。来源:清华大学。
虽然光子晶体管目前还无法实现非线性开关,但光子系统非常擅长矩阵乘法——这正是神经网络的基础。这也是为什么神经网络的一些早期突破是用光子系统实现的。
03
光学神经网络:从早期探索到衍射革命
大约在1993年欧洲核子研究中心(CERN)推出万维网(World Wide Web)的同时,加州理工学院的一个团队正在构建一个能够识别人脸身份的光学网络。这个双层光学网络以标准视频速率接收人脸图像作为输入并进行分类。通过基于一位研究人员的视频记录逐步调整光折变全息图进行训练后,该网络能够实时、非常成功地将该研究人员的记录与其他团队成员区分开来。
尽管后续有渐进式的改进,但在上世纪末,随着数字计算机将模拟光子系统远远甩在身后,人们对光学神经网络的兴趣开始减弱。然而,最近研究人员开始重新评估光子系统,将其视为能够并行、高速、实时处理海量信息的有力工具。
加州大学洛杉矶分校(UCLA)的艾多安·奥兹坎(Aydogan Ozcan)在过去近十年中一直处于这些努力的前沿。2018年,他和同事在《科学》杂志上发表了一项开创性成果。“那是首次展示通过结构化材料进行光学处理,用于计算、统计推断和不同类型物体的分类,”他说。
奥兹坎解释说,他的神经网络由多层衍射表面组成,它们协同工作,以光学方式执行网络可以通过统计学学习的任意函数。该网络使用多个透射和/或反射层构建,每一层上的每个点要么透射要么反射入射波。通过计算机模拟进行训练,这些层被迭代调整以执行特定的机器学习任务,直到所有透射或反射系数被确定下来。这样,整个网络仅通过光与物质的相互作用和光学衍射就能执行该任务。此时,所有参数都已固定,物理网络可以通过3D打印或光刻技术制造出来。
尽管网络的训练是数字化的,但推理(即应用训练好的机器学习模型于新的、未见过的数据以生成预测或决策)是全光学的。“这是一个衍射处理器,模拟信息以光子的形式输入,这意味着我想要处理、分类、识别、计算或形成计算图像的所有信息,都是由光子承载的,”奥兹坎解释道。
“在输出端,我不希望它给出图像再用数字网络做标准分类,而是希望使用一种在波长尺度上制造的材料来处理波在衍射时所携带的信息内容,这样它就能做到,比如,如果图像是人,就让光子向右走;如果不是,就向左走。”
正如其论文所述,为了展示全光学推理的强大能力,奥兹坎的团队成功训练并演示了能够自动分类手写数字(0到9)以及时尚产品的衍射处理器,整个过程仅使用无源光学元件和衍射,以光速运行。
此后,奥兹坎将研究提升到了新高度,特别关注机器视觉应用。他指出,当前机器视觉的范式——从生物学中分析组织样本,到制药工厂车间检查药片缺陷——是捕获并数字化目标物体或样本的所有信息。这导致众多行业数据泛滥。衍射处理器一举解决了这个问题,因为它们只在特定事件发生时才会捕获数据。
全前向模式光子训练的概念图(来源:清华大学)
“我们从太赫兹波开始,因为它们在光谱上信息非常丰富,而且能穿透塑料和纸张等可见光不透明的材料,”奥兹坎说。“利用一个工作在太赫兹波段的衍射处理器,无需生成3D图像或断层扫描图,我们就能证明你可以透视不透明的3D物体,识别隐藏在内部的、传统红外机器视觉会遗漏的缺陷。”
“想象一下这对制药业的意义——巨大的机遇,”奥兹坎继续说道。“如果我们有一种药物,无需打开包装甚至无需捕捉图像,我们就能回答:‘它有缺陷吗?剂量正确吗?’”
尽管对于机器视觉可能具有变革性,尤其是在扩展到利用太赫兹以外波长的其他激动人心的应用时,奥兹坎的衍射神经网络在执行特定、有限任务的能力方面仍然相当固定。其他研究小组正在探索新方法,以使光学神经网络更灵活、更强大,从而解决更复杂的任务,并着眼于甚至超越电子系统,实现构建用于AGI应用的“圣杯”——光学神经网络。
04
“太极”芯片:迈向通用人工智能的光子架构
清华大学方璐教授和戴琼海院士领导的团队也是探索新方法中的一员。2024年,他们发布了全球首款大规模干涉衍射异构集成芯片——太极(Taichi),研究成果发表在《科学》杂志上。“我们在研发‘太极’时意识到,如果只是模仿现有方法,试图构建一个非常深层的神经网络,是行不通的,”她解释道。“光子计算是模拟计算,而传统的电子计算是数字计算,误差会被自动抑制。”
团队认识到,简单地增加层数(就像在电子架构中为提升性能所做的那样)只会导致误差增加。“这就是为什么之前的光子计算工作只能解决非常简单的任务,”方璐教授补充道。
与奥兹坎的光学神经网络类似,方璐教授的“太极”芯片利用了衍射特性,但也利用了光子的另一个特性:干涉。“衍射能帮助我们实现大规模计算,而干涉能帮助我们实现可重构性,”方璐教授说,“将两者结合,我们就能用一块芯片进行超大规模计算,应用于多种不同的任务。”
在论文中,方璐教授团队描述了“太极”的实验实现,他们在芯片上构建了一个拥有1396万个神经元的光学神经网络。随后他们展示了“太极”的能力。首先是分类演示,但规模远超早期成果:实现了1000个类别的识别。接着,他们通过引导“太极”生成内容来展示其更高的功能性。“我们证明了‘太极’能够解决图像或音频内容生成的任务,”方璐教授兴奋地说。“例如,在巴赫的作品上训练后,‘太极’生成了模仿巴赫风格的新音乐。”
05
商业前夜:光子计算的产业化挑战与布局
尽管“太极”集成芯片是一个能够独立执行智能任务的完整功能计算系统,但它还不是一个成品产品。要走向商业化,还需解决几个挑战以使系统更稳健、更集成,例如集成片上光源。
“在商用芯片中,激光器需要微型化和集成化,这需要与工业伙伴合作才能完成,”方璐教授说。此外,尽管所有计算都在光学层面进行,但仍然需要电子器件进行缓冲、存储和控制,这些在商业产品中也需要针对光子计算进行专门优化。因此,方璐对“太极”的后代产品何时能商业发布持谨慎态度。“如果你想要一个成熟的、达到GPU级别的光子解决方案,我相信前面还有漫长而充满挑战的道路要走。”
随着巨额投资和人才招募的进行,像Lightmatter及其竞争对手这样的公司可能在加速这一进程中发挥作用。在巨大声势中,Lightmatter今年早些时候推出了两款晶圆级可编程光子互连产品:Passage L200 和 M1000。哈里斯称后者为“我们互连技术的皇冠明珠,单芯片速率达每秒114万亿比特(114 Tb/s),是世界上最大的光子芯片。”
Lightmatter推出的Envise光子芯片(来源:Lightmatter)
尽管Passage系列芯片并非专为完成AI任务而设计,但它间接解决了困扰AI模型的一些问题。“你用过ChatGPT的‘深度研究’(Deep Research)功能吗?有没有注意到它需要12分钟?”哈里斯问道,他指的是ChatGPT中一个较新的功能,它利用推理综合大量在线信息来完成多步骤的研究任务。
“Passage最终能将大量GPU连接起来,比如1000块甚至更多,来运行那些繁重的工作负载,并在1秒内给你返回答案,因此它解决了通信瓶颈问题。”同时,将Passage集成到OpenAI等公司正在为AI训练而建的庞大数据中心中,能使AI训练更快、更高效。
在Passage进入生产阶段的同时,哈里斯和他不断壮大的团队一直在致力于下一阶段:开发一个执行高精度AI计算的光子系统。该公司Envise光子处理器的细节已于今年公布。与“太极”类似,Envise将光子核心与传统的电子控制和存储系统集成在一起,并使用PyTorch和TensorFlow等标准AI框架进行编程。
然而,Envise在技术成熟度上更进一步,它在一个封装内包含6个光子互连的芯片,集成了500亿个晶体管和100万个光子元件。“从未有人制造过不基于晶体管却又能做任何有用事情的实用计算机,”哈里斯说。“我们想与世界分享这一刻。”
在论文中,Lightmatter团队展示了Envise如何以接近电子精度的水平执行先进的AI模型,包括谷歌开发的用于自然语言处理的机器学习框架BERT(来自Transformer的双向编码器表示),以及在49款经典雅达利游戏上达到专业人类游戏测试员水平的Atari深度强化学习算法。
但Envise更像是一个研究平台,而非急于上市的产品。“我们目前还不会将光子计算推向市场,”哈里斯说。“我们是在展望计算的未来,因为归根结底,人类在几乎所有方面的进步都依赖于计算机变得更好,而晶体管已经无法变得更好了。”
在这个未来里,全光学光子芯片能否实现AGI?尽管近年来在这一领域取得了显著进展,但哈里斯、卢方和奥兹坎都认为,未来的计算(至少在短期内)仍将涉及一些电子器件。“现阶段开发一个功能像GPU或CPU那样的光子芯片是不现实的,”卢方说。“光子计算和电子计算必须保持紧密的盟友关系。”
作者 | 本杰明·斯库斯(Benjamin Skuse)
编译 | 光电汇编辑团队
征稿范围
投稿通道:邮件标题统一命名为“投稿+文章标题”的格式文章用word附件或者文章链接,发送至邮箱sueuel@oeshow.net;或者电话/微信联系13296607101,备注“投稿”即可。
特色栏目
![]()
· 往期推荐 ·
17家企业财报看激光行业“两重天”:谁家战略转型已见成效?
价格降至1/70,中国光纤激光器,靠什么赚钱?
赴港上市!基金设立!业绩飘红!华工科技在谋划什么?
专访 | 国科大杭高院王宁:一盘做了10年的“蚊香”
免责声明:本文注明来源为其他媒体或网站的文/图等稿件均为转载,如涉及版权等问题,请作者在20个工作日之内联系我们,我们将协调给予处理。最终解释权归光电汇所有。
本文版权所有,公众号如需转载,请联系
谭女士 13296607101
商务合作,请联系
季先生 18018304797
点个

