当前的人工智能世界耗电且计算有限。模型开发的轨迹很快,但随着这种进步,需要大幅增加计算能力。现有的基于晶体管的计算正在接近其物理极限,并且已经难以满足这些不断增长的计算需求。
大型企业已经尝试通过开发自己的定制芯片解决方案来解决这个问题。然而,硬件瓶颈可能过于严重,无法用传统的电子处理器来克服。那么,技术如何才能充分满足对计算能力呈指数级增长的需求呢?
矩阵乘法
在大型语言模型中,90%以上的计算任务都使用矩阵乘法。通过以结构化方式进行乘法和加法的基本运算,矩阵乘法支持人工智能的不同功能块。这不仅仅是语言模型。这种基本的线性代数运算是几乎每种神经网络的基础:实现神经元的大规模互连,执行图像分类和对象检测的卷积,处理顺序数据等。这是一个简单的概念,但对于有效操纵和转换支持人工智能和无数其他应用的数据来说是不可或缺的,因此矩阵乘法的重要性怎么估计都不为过。
随着人工智能模型变得越来越大,必须执行更多的矩阵运算,这意味着需要越来越多的计算能力。为了达到所需的性能,即使是现在,电子产品也被推到了极限。还有其他选择吗?
光学矩阵乘法
光学已经以多种方式用于改变我们的生活,最引人注目的是光纤网络中的光通信。光学计算自然是下一步。数字电子学需要大量晶体管来执行最简单的算术运算,而光学计算则利用物理定律进行计算。输入信息被编码为光束,并利用光学的自然特性(例如干涉和衍射)执行矩阵乘法。信息可以以多种波长、偏振和空间模式进行编码,从而允许无限量的并行处理,并且计算实际上以光速进行。
通过3D光学添加新维度
随着登纳德缩放定律和摩尔定律的结束,是时候重新审视计算的基础知识了。数字电子产品本质上局限于“2D”布局——晶体管栅极和电路制造在晶圆上,计算是通过2D平面上不同单元之间的信息流动进行的。这种2D计算架构需要不断增加的晶体管密度,导致严重的互连问题,并遭受臭名昭著的内存瓶颈。随着3D堆叠存储器的发展,2D设计的变革现已开始,但整个行业的适应还有很长的路要走。
现在,光学可以通过在3D空间中自然地执行计算来彻底改变游戏规则。添加新维度可以放松传统计算中的许多限制。互连组件更容易,能源效率更高,并且它允许不断增加的吞吐量(在给定时间内可以执行多少计算),而不影响延迟(每次计算执行的速度)。这对于3D光学来说是完全独特的:无论是将10个数字相乘还是10,000个数字相乘,这一切都会以光速同时发生。这对光学处理器的可扩展性产生了巨大的影响,使其能够达到当前数字处理器速度的1000倍。
除了3D光学固有的可扩展性之外,光学器件的时钟速度可以提供比传统电子器件快100倍的速度,并且波长复用(使用多个波长的光并行处理信息)的能力为进一步提高100倍打开了大门。将这一切结合在一起,使能够以指数方式扩展计算速度,并具有更高的吞吐量、更低的延迟和更高的可靠性,而这些只有3D光学矩阵乘法才能提供。
这对人工智能意味着什么?
无论应用如何,矩阵乘法构成了所有人工智能计算的支柱。值得注意的是,3D光学带来的高吞吐量和低延迟对于数据中心的人工智能推理任务特别有价值,这是一种由实时响应能力和效率推动的应用程序。
与传统电子或集成光子学相比,3D光学计算在带宽、延迟、速度和可扩展性方面取得显著改进,再加上与现有机器学习算法的兼容性,有望彻底改变所有人工智能应用。
来源:http://www.qianjia.com/html/2023-10/31_405591.html