对于对人类大脑的所有比较,AI仍然不像我们一样。也许那没关系。在动物王国中,大脑有各种形状和尺寸。因此,在一项新的机器学习方法中,工程师与人类大脑一起消失,所有美丽的复杂性转向,转向低蠕虫的大脑以获得灵感。

事实证明,简约有其好处。由此产生的神经网络是有效的,透明的,这是踢球者:这是一名终身学习者。

尽管大多数机器学习算法无法在初始训练期之后磨练技能,研究人员表示,新的方法,称为液体神经网络它有一种内在的“神经可塑性”。也就是说,在它工作的过程中,比如在未来,可能是驾驶汽车或指挥机器人,它可以从经验中学习,并在飞行中调整自己的连接。

在一个嘈杂混乱的世界里,这种适应性是必不可少的。

蠕虫媒体司机

该算法的架构受到了302个神经元的启发,构成了神经系统C. Elegans.,一个微小的线虫(或蠕虫)。

去年出版的作品包括麻省理工学院(MIT)和奥地利科学技术研究所(Institute of Science and Technology)的研究人员在内的研究小组表示,尽管它很简单,C. Elegans.能够令人惊讶的是有趣和不同的行为。因此,他们开发了向数学上模拟蠕虫的神经元的方程,然后建立在神经网络中。

他们的蠕虫大脑算法比其他尖端机器学习算法要简单得多,但它仍然能够完成类似的任务,比如将一辆汽车保持在巷子里。

“今天,具有数百万参数的深度学习模型通常用于学习自动驾驶,”奥地利科学技术研究所的博士学位的博士学位的复杂任务,“Mathias Lechner”,。“但是,我们的新方法使我们能够将网络的大小减小两个数量级。我们的系统仅使用75,000个培训参数。“

现在,在一个新文章,通过添加完全新的能力,本集团进一步采用蠕虫启发系统。

老蠕虫,新技巧

神经网络的输出 - 将方向盘转向右侧,例如 - 取决于一组加权连接在网络的“神经元之间”之间。

在我们的大脑里也是一样。每个脑细胞都与许多其他细胞相连。一个特定的细胞是否触发取决于它接收到的信号的总和。超过某个阈值(或重量),细胞就会向自己的下游连接网络发出信号。

在神经网络中,这些权重称为参数。当系统通过网络提供数据时,它的参数在配置上收敛,从而产生最好的结果。

通常,在训练后,神经网络的参数被锁定到位,并且算法放在工作中。但在现实世界中,这可能意味着它有点脆弱,展示了一种差异从训练中脱颖而出的算法,它会破裂。不是理想的结果。

相反,在液体神经网络中,允许参数随时间继续变化和经验。AI学习工作。

这种适应性意味着,当世界按照自己的方式传递新的或有噪声的信息时,算法不太可能崩溃,例如,当雨遮住了自动驾驶汽车的摄像头时。此外,与内部工作在很大程度上是不可思议的大型算法相比,该算法的简单架构允许研究人员窥探内部,并审核其决策。

它的新能力和仍然矮小的身材似乎都没有阻止人工智能的发展。在预测一系列事件的下一步时,该算法的表现与其他最先进的时间序列算法一样好或更好。

“每个人都谈论缩放他们的网络,”拉曼哈尼尼说,这项研究的领导作者。“我们想要缩减,越来越富裕的节点。”

一种适应性的算法,消耗相对较少的计算能力将成为理想的机器人大脑。Hasani认为该方法可能在其他应用中有用,这些应用程序涉及对视频处理或财务分析等新数据的实时分析。

他计划继续拨打这种方法来实现它的实用性。

“我们有一个被证明更有表现力的神经网络,它受到自然的启发。但这仅仅是这个过程的开始。”“一个明显的问题是,你如何扩展它?我们认为,这种网络可能成为未来情报系统的关键元素。”

更好更大吗?

在像Openai和谷歌这样的大玩家经常使用船头机器学习算法,这是一个朝向相反方向朝向的替代方法的迷人示例。

OpenAI的GPT-3算法去年统称下巴,两者都是它的大小 - 当时,记录设置175亿参数 - 和它的能力。最近的谷歌算法高居榜首超过万亿参数

然而,批评者担心令人担忧的是更大的AI浪费,昂贵,并在一些有现金的公司手中进行浪费,昂贵,并整合研究资助大型模型。此外,这些巨大的模型是“黑匣子”,他们的行动在很大程度上是不可难以置信的。当无监督的模型是时,这可能是特别问题接受过未经过滤的网络训练。没有讲述(或许,控制)他们会捡起什么坏习惯。

越来越多的学术研究人员正致力于解决这些问题。随着OpenAI、谷歌和微软等公司努力证明“越大越好”的假设,在效率方面严肃的人工智能创新可能会在其他地方出现——尽管缺乏资源,但因为它。正如人们所说,需要是发明之母。

图像信用:本杰明henon/uns

杰森正在管理奇点集线器的编辑。188金宝搏app1.1.94他在科学和技术前进行了关于金融和经济学的研究和写作。他很好奇几乎所有东西,悲伤,他只知道一小部分一切。