MIT全新光子芯片:开启超高速AI计算新时代!

   时间:2024-12-08 08:21 来源:天脉网作者:陆辰风

近日,深度神经网络模型的快速发展给传统电子计算硬件带来了前所未有的挑战。随着模型规模和复杂性的不断攀升,电子计算设备在处理高强度机器学习应用时显得力不从心。

相比之下,光子硬件以其高速和低能耗的特点,在机器学习计算领域展现出了巨大潜力。然而,由于部分神经网络计算难以通过光子设备独立完成,当前仍需依赖芯片外的电子元件或其他辅助手段,这在一定程度上限制了光子硬件的速度和能效。

经过科研人员十多年的不懈努力,这一难题终于迎来了突破。来自麻省理工学院(MIT)等机构的科学家成功研发出一款全新的光子芯片,该芯片是一款完全集成的光子处理器,能够在芯片上通过光学方式完成深度神经网络的所有核心计算任务。

这款光学设备在执行机器学习分类任务时,表现出了卓越的性能。它不仅用时不到半纳秒,而且准确率超过了92%,这一表现足以与传统硬件相媲美。该芯片由多个互联模块构成,形成了一个功能强大的光学神经网络,并通过商业代工制造,为技术的规模化应用和电子设备的整合提供了有力支持。

该光子处理器的研发,对于推动激光雷达、天文与粒子物理领域的科学研究,以及满足高速通信等高计算需求的应用具有重要意义。它有望为这些领域带来更快速、更高效的深度学习能力,从而推动相关技术的进一步发展。

研究的主导者Saumil Bandyopadhyay表示:“在许多应用场景中,计算速度同样重要。现在,我们拥有了一个端到端的系统,能够以纳秒级的时间运行神经网络光学计算,这为我们在更高层次上思考应用和算法提供了全新的可能性。”

深度神经网络由多个相互连接的神经元层组成,这些神经元层通过操作输入数据来生成输出。在深度神经网络中,矩阵乘法是至关重要的操作之一,它利用线性代数原理,使数据在层与层之间传递时完成转换。然而,除了线性操作外,深度神经网络还需要执行非线性操作,如激活函数,这些操作使模型能够学习更复杂的模式,从而具备解决复杂问题的能力。

早在2017年,MIT的Englund教授研究团队就联合物理学教授Marin Soljačić的实验室,展示了一种基于单片光子芯片的光学神经网络,该网络能够利用光完成矩阵乘法。然而,当时这款设备无法在芯片上完成非线性操作,需要将光学数据转换为电信号,再发送到数字处理器进行非线性运算。

“光学中的非线性非常具有挑战性,因为光子之间很难相互作用。触发光学非线性需要消耗大量能量,因此构建一个能够以可扩展方式执行非线性操作的系统十分困难。”研究团队的主要成员Bandyopadhyay解释道。

为了克服这一难题,研究团队开发出了名为非线性光学功能单元(NOFU)的设备。NOFU结合了电子和光学技术,成功实现了在芯片上的非线性操作。随后,他们在光子芯片上构建了一个光学深度神经网络,通过三层设备将线性和非线性操作相结合,从而大幅提升了网络的性能。

研究团队开发的系统从一开始就将深度神经网络的参数编码到光信号中,然后通过一组可编程的光束分离器对输入数据进行矩阵乘法操作。接下来,数据会传递到NOFU,通过将少量光信号引导至光电二极管,将光信号转化为电流,从而实现非线性运算。这种方法无需外部放大器,能耗极低。

“整个计算过程中,操作始终保持在光学域中,直到最后一步读取结果。这使我们能够实现极低的延迟。”Bandyopadhyay表示。超低延迟的实现让团队能够高效地在芯片上训练深度神经网络,这种“原位训练”过程在传统数字硬件上通常会消耗大量能量。

“这一技术尤其适用于需要直接处理光信号的系统,如导航或通信系统,也适用于需要实时学习的设备。”Bandyopadhyay补充道。在训练测试中,这一光子系统的准确率超过96%,推理阶段的准确率也达到了92%以上,与传统硬件表现相当。该芯片能在不到半纳秒内完成关键计算。

Englund教授表示:“这项研究证明,计算的本质——将输入映射为输出——可以通过新的线性与非线性物理架构重新实现,从而带来计算与资源投入间的全新比例规律。”整个电路通过与生产CMOS计算机芯片相同的基础设施和代工工艺制造,这意味着可以利用成熟的技术实现芯片的大规模生产,并将制造过程中的误差降至极低水平。

Bandyopadhyay指出,未来研究的重点将是扩大设备规模,并与现实中的电子系统(如摄像头或通信系统)集成。团队还计划探索能够充分利用光学优势的算法,以实现更快、更高效的系统训练。

 
反对 0举报 0 收藏 0
 
更多>同类天脉资讯
全站最新
热门内容
媒体信息
新传播周刊
新传播,传播新经济之声!
网站首页  |  关于我们  |  联系方式  |  版权隐私  |  网站留言  |  RSS订阅  |  违规举报