对于对人类大脑的所有比较,AI仍然不像我们一样。也许那没关系。在动物王国中,大脑有各种形状和尺寸。因此,在一项新的机器学习方法中,工程师与人类大脑一起消失,所有美丽的复杂性转向,转向低蠕虫的大脑以获得灵感。

事实证明,简约有其好处。由此产生的神经网络是有效的,透明的,这是踢球者:这是一名终身学习者。

虽然大多数机器学习算法不能磨练他们的技能超出初步培训期,但研究人员说新的方法,称为液体神经网络,有一种内置的“神经塑性。”也就是说,由于它的工作 - 说,在未来,也许驾驶汽车或指导机器人 - 它可以从经验中学习并在飞行中调整其连接。

在一个嘈杂和混乱的世界中,这种适应性至关重要。

蠕虫媒体司机

该算法的架构受到了302个神经元的启发,构成了神经系统C. Elegans.,一个微小的线虫(或蠕虫)。

去年发表的工作该集团包括来自麻省理工学院和奥地利科学技术研究所的研究人员表示,尽管它的简单性,C. Elegans.能够令人惊讶的是有趣和不同的行为。因此,他们开发了向数学上模拟蠕虫的神经元的方程,然后建立在神经网络中。

他们的蠕虫大脑算法比其他尖端机器学习算法要简单得多,但它仍然能够完成类似的任务,比如将一辆汽车保持在巷子里。

“今天,具有数百万参数的深度学习模型通常用于学习自动驾驶,”奥地利科学技术研究所的博士学位的博士学位的复杂任务,“Mathias Lechner”,。“但是,我们的新方法使我们能够将网络的大小减小两个数量级。我们的系统仅使用75,000个培训参数。“

现在,在一个新文章,通过添加完全新的能力,本集团进一步采用蠕虫启发系统。

老蠕虫,新技巧

神经网络的输出 - 将方向盘转向右侧,例如 - 取决于一组加权连接在网络的“神经元之间”之间。

在我们的大脑中,它是一样的。每个脑细胞连接到许多其他细胞。特定的小区火灾是否取决于它接收的信号的总和。超出一些阈值 - 或重量 - 小区向其自身的下游连接网络发出信号。

在神经网络中,这些权重称为参数。随着系统通过网络馈送数据,其参数会聚在配置上,从而产生最佳结果。

通常,在训练后,神经网络的参数被锁定到位,并且算法放在工作中。但在现实世界中,这可能意味着它有点脆弱,展示了一种差异从训练中脱颖而出的算法,它会破裂。不是理想的结果。

相反,在液体神经网络中,允许参数随时间继续变化和经验。AI学习工作。

这种适应性意味着当世界抛出新的或嘈杂的信息时,这种算法不太可能破坏,例如,当雨遮挡一个自主汽车的相机时,才能抛出新的或嘈杂的信息。此外,与更大的算法相比,其内部工作基本上是不可追溯的,该算法的简单架构允许研究人员对等内部和审核其决策。

既不是它的新能力,也不是其静止的身材似乎持有AI回来。除了在一系列事件中预测下一个步骤的其他最新的时序算法也执行的算法。

“每个人都谈论缩放他们的网络,”拉曼哈尼尼说,这项研究领导作者。“我们想要缩减,越来越富裕的节点。”

一种适应性的算法,消耗相对较少的计算能力将成为理想的机器人大脑。Hasani认为该方法可能在其他应用中有用,这些应用程序涉及对视频处理或财务分析等新数据的实时分析。

他计划继续拨打这种方法来实现它的实用性。

“我们有一个可直言不讳的神经网络,受到自然的启发。但这只是过程的开始,“哈尼尼说。“显而易见的问题是你如何扩展这个?我们认为这种网络可能是未来智能系统的关键要素。“

更好更大吗?

在像Openai和谷歌这样的大玩家经常使用船头机器学习算法,这是一个朝向相反方向朝向的替代方法的迷人示例。

Openai的GPT-3算法去年统称下巴,两者都是它的大小 - 当时,记录设置175亿参数 - 和它的能力。最近的Google算法占据了图表超过万亿参数

然而,批评者担心令人担忧的是更大的AI浪费,昂贵,并在一些有现金的公司手中进行浪费,昂贵,并整合研究资助大型模型。此外,这些巨大的模型是“黑匣子”,他们的行动在很大程度上是不可难以置信的。当无监督的模型是时,这可能是特别问题在未过滤的互联网上培训。没有讲述(或许,控制)他们会捡起什么坏习惯。

学术研究人员越来越多地解决了一些这些问题。作为Openai,Google和Microsoft推动的公司,旨在更大的假设,它可能会出现严重的AI创新将在其他地方出现 - 尽管缺乏资源,但因为它。正如他们所说,必要性是发明的母亲。

图像信用:本杰明河东/uns

杰森正在管理奇点集线器的编辑。188金宝搏app1.1.94他在科学和技术前进行了关于金融和经济学的研究和写作。他很好奇几乎所有东西,悲伤,他只知道一小部分一切。