人们说大小不重要,但说到人工智能世界上最大的电脑芯片制造商对此却不敢苟同。关于这款庞大的处理器还有很多疑问,但其非常规的设计可能预示着硅设计的创新新时代的到来。

计算机芯片专门运行深度学习算法是一个蓬勃发展的研究领域硬件的限制GPU是一种专门的图形芯片,已经成为人工智能行业的主力。

周一,加州初创公司Cerebras从隐形模式出来将推出一款聚焦人工智能的处理器,彻底颠覆传统智慧。几十年来,芯片制造商一直致力于把产品做得更小,但晶圆规模引擎(WSE)只有iPad那么大,拥有1.2万亿晶体管、40万个核和18g片上内存。

大脑WSE与最大GPU计算的比较
大脑晶片规模的引擎(WSE)是有史以来制造的最大的芯片。它的面积为46225平方毫米,包含1.2万亿个晶体管。优化的人工智能计算,WSE显示在这里比较与最大的图形处理单元。图片来源:经授权使用大脑系统

不过,这种疯狂是有原因的。目前,要想获得足够的核心来运行真正大规模的深度学习应用程序,就意味着要将大量gpu连接在一起。但在这些芯片之间转移数据是一大排因为连接它们的电线相对较慢。

将所有40万个核都集成到同一个芯片中应该可以绕过这个瓶颈,但有一些原因是以前没有做过的,而大脑必须想出一些理由聪明的黑客来绕过这些障碍。

普通的电脑芯片是用一种叫做光刻的方法在硅片表面蚀刻晶体管来制造的。这些晶片有几英寸宽,所以可以同时在上面植入多个芯片,然后再分割。但直径为8.5英寸的WSE将整个晶圆用于一个芯片。

问题在于,对于标准的芯片制造流程来说,制造过程中的任何缺陷最多只会导致几百个处理器中的几个被丢弃,而对于大脑来说,这就意味着要报废整个晶圆。为了解决这个问题,该公司建立了冗余电路,这样即使有一些缺陷,芯片也可以绕过它们。

巨型芯片的另一个大问题是处理器产生的大量热量,因此该公司不得不设计一个专有的水冷却系统。再加上没有人为巨型芯片进行连接和包装,这意味着WSE不会作为一个独立的组件出售,而是作为整合了冷却技术的预包装服务器的一部分。

目前还没有关于成本和性能的细节,但一些客户已经开始测试原型机,根据Cerebras的说法,结果很有希望。首席执行官兼联合创始人安德鲁·费尔德曼告诉《财富》杂志早期的测试表明,他们正在把训练时间从几个月缩短到几分钟。

我们要等到9月份第一批系统发货给客户,才能看到这些说法是否成立。但费尔德曼告诉ZDNet他们的芯片设计应该有助于在工程师设计神经网络的方式上激发更大的创新。这一过程的许多基石——例如,批量处理数据而不是单个数据点——更多地受到gpu硬件限制的指导,而不是机器学习理论,但他们的芯片将消除许多障碍。

无论事实是否如此,硅硅电池可能是硅设计创新新时代的第一个标志。2016年,当谷歌宣布推出专注于人工智能的张量处理器时,它给芯片制造商敲响了警钟:我们需要一些开箱即用的思维,来应对摩尔定律的放缓和对计算能力的飞速增长的需求。

推动创新的不仅仅是科技巨头的人工智能服务器群。在另一个极端,将智能嵌入日常物品和移动设备的愿望,正在推动对能做到这一点的人工智能芯片的需求只需要少量电力就能运行并挤进最小的形状因子。

这些趋势产生了新的兴趣从大脑启发的神经形态芯片到光学处理器,但WSE也表明,简单地看一看过去芯片制造商所做的其他设计决策,而不是仅仅在芯片上注入更多的晶体管,可能是有益的。

这个巨大的芯片可能是一系列奇异的、受人工智能启发的硅的第一个展览。

图片来源:经授权使用大脑系统

我是一名自由科技作家,住在印度班加罗尔。我的主要兴趣领域是工程学、计算机和生物学,尤其关注这三者之间的交叉点。

遵循Edd: