深度学习改变了人工智能领域,但传统计算机硬件的局限性已经阻碍了进展。麻省理工学院的研究人员认为他们的新的“纳米光电”处理器可以通过以光速进行深度学习来成为答案。

20世纪80年代,科学家和工程师们将光学计算誉为信息技术的下一场伟大革命,但事实证明,像光纤电缆和透镜这样的笨重部件并不适合特别坚固或紧凑的计算机。

特别是,通过MIT物理哨所,由Doc Yichen Shen的麻省理工学院物理学,他们发现制作可扩展光学逻辑门非常具有挑战性,因此制作一般光学计算机是非常挑战性的。尽管如此,有一件事是擅长乘以在列和行中排列的数字的矩阵阵列。您实际上可以在数学上解释镜头在矩阵乘法的光束上作用的方式。

这也恰好是深度学习所涉及的计算的核心组成部分。结合纳米光电学研究的进步 - 纳米尺度下光的行为研究 - 这导致了光学计算中感兴趣的重新验证。

“深度学习主要是矩阵乘法,所以它与光的本质有效,”沉说。“借光,你可以更快地学习速度更快,更节能的速度更快。”

为了展示这一点,沉和他的麻省理工学院的同事设计了一款全光芯片,可以实现人工神经网络 - 深度学习核心的脑激发算法。

在一个最近的论文本质上,本集团描述了由56个干涉仪组成的芯片组成,使研究人员能够控制光光束彼此相互干扰以进行数学运算。

处理器可以通过在波导上施加一个小电压来重新编程,波导引导环绕处理器的光束,加热处理器并使其改变形状。

研究人员表示,该芯片最适合推理任务,其中通过应用学习模型来分析新数据,例如算法进行实际使用,例如以检测图像中的对象。

它并不擅长学习,因为与电子系统的重新编程相比,加热波导的速度相对较慢。因此,在他们的研究中,研究人员在计算机上训练算法,然后将学习到的模型转移到纳米光子处理器上,以执行推理任务。

这不是一个主要问题。对于许多实际应用,在同一芯片上没有必要进行学习和推断。谷歌最近制造了头条新闻设计自己的深层学习芯片TPU也是专门为推理设计的,大多数使用大量机器学习的公司将这两项工作分开。

“在很多情况下,他们每隔几个月就更新一次这些模型,而在其他时候,固定的模型只是在做推断,”沈说。“人们通常会把这些任务分开。他们通常有一个服务器只是做训练,另一个只是做推理,所以我不认为让芯片专注于推理有什么大问题。”

一旦模型被编程到芯片上,它就可以以光速进行计算,每次运算所消耗的能量不到传统电子芯片的千分之一。

不过,这也有局限性。由于这种芯片处理的光波仅在几微米范围内运行,因此这些芯片的尺寸有基本的限制。

“波长确实设置了波导可以的小的限制。我们将无法明显更小。也许是四倍,但物理学将最终阻止我们,“合作纸的MIT研究生尼古拉斯哈里斯说。

这意味着难以实施多于几千神经元的神经网。然而,绝大多数当前的深度学习算法在该极限内很好。

该系统确实比实现相同深入学习模型的标准计算机在任务上实现了明显较低的准确性,正确识别76.7%的元音与91.7%相比。

但哈里斯说,他们认为这主要是由于用于编程波导的各种加热元件之间的干扰,并且通过使用热隔离沟槽或额外的校准步骤应该易于修复。

重要的是,这种芯片也使用与传统计算机芯片相同的制造技术,因此扩大生产应该很容易。沈南鹏表示,知名芯片制造商已经对该集团的技术产生了兴趣。

亚利桑那大学的光学教授Pierre-Alexandre Blanche表示,他对本文非常兴奋,他说补充了自己的工作。但他警告着违背了。

“这是有用光学计算进展中的另一个里程碑。但我们仍然远离电子产品,“他在电子邮件中告诉奇点集线器。188金宝搏app1.1.94“关于可扩展性,功耗,速度等的论证。[论文]使用大量有条件的时态和假设,证明了,如果有可能的情况,仍有很多研究可以完成。”

特别是,他指出,该系统只是问题的部分解决方案。虽然绝大多数神经元计算涉及矩阵的乘法,但是还有另一个组件:计算非线性响应。

在本文中,这方面的计算是在普通计算机上模拟。研究人员说,在未来的模型中,这种功能可以通过集成在波导中的所谓的“可饱和吸收器”来实现,随着光强度的增加,吸收的光会减少。

但是,Blanche指出,这不是一个微不足道的问题,他的团队实际上目前正在努力。“这不像你可以在药店买一个,”他说。Bhavin Shastri是普林斯顿的一篇文档后,他们的团队也在努力用于实施神经网络的纳米光电芯片他说,这项研究很重要,因为实现矩阵乘法是实现成熟光子神经网络的关键一步。

他补充说:“总的来说,这一研究领域将迎来一个令人兴奋和充满希望的领域。”“在光子硬件中实现的神经网络可能会彻底改变机器与超快物理现象的交互方式。硅光子学将光子学的模拟器件性能与硅制造的成本和可扩展性相结合。”

股票媒体由across/Pond5.com提供