3月3日在光学计算硬件上运行的概念神经网络
该提议承诺提高人工智能模型的速度。几个月后,Shen 在 Soljacic 的帮助下创立了 Lightelligence。Lightelligence 今年早些时候发布的光学 AI 加速器的原型是印刷电路板 (PCB) 的大小。
“我们没有使用数字电子设备,而是使用光信号来进行 AI 计算。我们的主要目的是在延迟、吞吐量和功率效率方面将 AI 计算加速几个数量级,”Shen 说。
该公司设计的设备与当前的硬件和人工智能软件兼容。该加速器可以安装在支持 PCI-e 接口的服务器和设备上,并支持流行的 AI 软件框架,包括 Google 的 TensorFlow 和 Facebook 的 PyTorch。
目前还没有创建完全成熟的光学计算机的计划,但该技术肯定适用于特定类型的计算。“光子学非常擅长实现的算法之一是矩阵乘法,”Soljacic 说。
矩阵乘法是神经网络中涉及的关键计算之一,能够加速它将有助于创建更快的 AI 模型。沉说,光学AI加速器可以在一个CPU时钟内执行任何矩阵乘法,无论大小如何,而电子芯片至少需要几百个时钟才能执行相同的操作。
“对于神经网络,根据算法的不同,可能还涉及其他组件和操作。这取决于人工智能算法和应用程序,但我们将能够将性能提高一到两个数量级,快十到百倍,”沉说。
该公司在 MNIST 上测试了光学 AI 加速器,这是一个手写数字数据集,用于对机器学习算法的性能进行基准测试。该硬件的执行速度比其他最先进的 AI 加速器芯片快得多。
Soljacic 解释说,光学神经网络的提议是几十年前提出的,但当时并没有得到关注。然而,过去几年发生了两个重要变化。
“首先,神经网络变得非常重要。这为人们开发用于神经网络的专用硬件提供了很大的动力,这种硬件在 30 年前并不存在。更重要的是,现在我们终于拥有了使电子制造如此成功的相同制造工艺,即 CMOS 工艺,也可用于光子学,”Soljacic 说。
这意味着您可以以与集成电子设备相同的成本在同一芯片上集成数千个光学设备。“这是我们五到十年前所没有的东西,这就是使技术能够实现所有这些的原因,能够以非常低的成本进行大规模生产,”Soljacic 说。
沉补充说,制造光学芯片也比电子设备便宜。“对于光子学,你不需要 7nm 或 3nm 节点来做到这一点。我们可以使用更旧、更便宜的节点来制造它,”他说。