在一个人头大小的空间中,人类大脑的工作功率约为20瓦(相当于一个60瓦灯泡的三分之一)。最大的机器学习算法使用接近核电站的有足够的电和一整架的芯片来学习。

这并不是要诋毁机器学习,但《自然》可能会有一两个建议来改善这种情况。幸运的是,有一个计算机芯片设计分支注意到了这一呼吁。通过模仿大脑,非常高效神经形态芯片我们的目标是让人工智能从云端消失把它放在你的口袋里

最新的这种芯片比一片纸屑还小,有成千上万个由记忆电阻器制成的人造突触——记忆电阻器芯片组件可以模拟大脑中的天然突触。

在一个最近的一篇论文中自然纳米技术麻省理工学院的一个科学家小组说,他们的微型神经形态芯片被用来存储、检索和操纵美国队长的盾牌和麻省理工学院的基利安法庭的图像。尽管用现有方法存储的图像随着时间的推移往往会失去保真度,但新芯片的图像仍然非常清晰。

“到目前为止,人工突触网络以软件的形式存在。我们正试图为便携式人工智能系统构建真正的神经网络硬件,”麻省理工学院机械工程副教授Jeehwan Kim说一份新闻稿。“想象一下,把一个神经形态设备和你车上的摄像头连接起来,让它识别灯光和物体,并立即做出决定,而不需要连接互联网。”我们希望使用节能记忆电阻器在现场实时完成这些任务。”

你口袋里的大脑

我们的手机和笔记本电脑使用独立的数字元件来处理和存储信息——因此需要在两者之间传输信息——而麻省理工学院的芯片使用的是一种称为记忆电阻的模拟元件,它在同一个地方处理和存储信息。这与大脑的工作方式相似,使记忆电阻器更加有效。然而,到目前为止,它们一直在可靠性和可伸缩性方面苦苦挣扎。

为了克服这些挑战,麻省理工学院的研究小组设计了一种新型的硅基合金记忆电阻器。由非合金材料制成的记忆电阻器中流动的离子随着元件变小而分散,这意味着信号失真,计算结果也不太可靠。研究小组发现,一种银和铜的合金有助于稳定银离子在电极之间的流动,允许他们在不牺牲功能的情况下增加芯片上记忆电阻的数量。

虽然麻省理工学院的新芯片很有前景,但在基于记忆电阻的神经形态芯片成为主流之前,还有很长的路要走。从现在到那时,像Kim这样的工程师需要做更多的工作,以进一步扩大规模并展示他们的设计。但如果成功的话,它们可以制造出更智能的智能手机和其他更小的设备。

“我们希望进一步发展这项技术,以拥有更大规模的阵列来完成图像识别任务,”Kim说。“有一天,你可能可以随身携带人工大脑来完成这类任务,而无需连接超级计算机、互联网或云。”

人工智能专用芯片

麻省理工学院的工作是计算和机器学习更大趋势的一部分。近年来,随着经典芯片的发展,人们对经典芯片的关注也越来越多更高效的软件以及专门的芯片来继续推动这一步伐。

例如,神经形态芯片并不是什么新东西。IBM和英特尔正在开发他们自己的设计。到目前为止,他们的芯片是基于一组标准的计算元件,如晶体管(与记忆电阻器相反),用来模拟大脑中的神经元。然而,这些芯片仍处于研究阶段。

图形处理单元(gpu)——最初是为像视频游戏这样需要大量绘图的工作而开发的芯片——是人工智能专用硬件的最佳实例,并在这一代机器学习早期大量使用。在那之后的几年里,谷歌、英伟达和其他公司开发了更专门的芯片,专门用于机器学习。

人们已经感受到了这种专用芯片带来的好处。

在一个最近的机器学习成本分析研究和投资公司ARK Invest表示,成本下降的速度远远超过了摩尔定律。在一个特定的例子中,他们发现训练一个图像识别算法(ResNet-50)的成本从2017年的约1000美元上升到2019年的约10美元。实际运行这种算法的成本下降幅度甚至更大。2017年,分类10亿张图像花费了1万美元,而2019年仅花费0.03美元。

其中一些下降可以追溯到更好的软件,但根据ARK的说法,专用芯片的性能在过去三年里提高了近16倍。

随着神经形态芯片以及其他定制设计在未来几年的进一步发展,这些在成本和性能上的趋势可能会继续下去。最终,如果一切按计划进行,我们可能都会携带一个口袋大脑,它可以做当今最好的人工智能的工作。

图片来源:彭林

杰森是奇点中心的执行编辑。188金宝搏app1.1.94在进入科技领域之前,他做过有关金融和经济的研究和写作。他对几乎所有的事情都很好奇,遗憾的是他只知道其中的一小部分。