尽管经常出现类似情况,但如今的人工智能与人脑的运作原理截然不同。现在研究人员提出了一项新的研究结果方法更接近生物学,他们认为这可以帮助我们接近大脑无与伦比的效率。

现代深度学习至少是受到生物学启发的,它通过神经元这种由单个计算单元组成的大型网络之间的连接强度来编码信息。然而,最大的不同可能是这些神经元之间交流的方式。

人工神经网络被组织成多层,每个神经元通常与下一层的每个神经元相连。信息以高度同步的方式在各层之间传递,数量下降的范围决定了神经元对之间连接的强度。

另一方面,生物神经元通过射击被称为尖峰的电气脉冲来沟通,并且每个神经元都在其自己的时间表。连接并不整齐地分为图层,并具有许多反馈循环,这意味着神经元的输出通常最终会影响其在线路某处的输入。

这种基于spike的方法更加高效,这也是为什么训练最强大的AI需要的原因千瓦的电力而大脑只需要20瓦。这导致人们对开发人工神经网络以及所谓的神经形态硬件(模拟大脑的物理组织和原理的计算机芯片)越来越感兴趣,因为这些硬件可以更有效地运行它们。

但我们对这些基于spike的方法的理解仍不完善,它们难以达到更传统的人工神经网络的性能。不过现在,奥地利格拉茨科技大学的研究人员认为,他们可能已经找到了一种接近深度学习能力的方法,这种方法使用的是一种生物学上似是而非的学习方法,这种学习方法与神经网络突起有关。

在深度学习中,通过让网络对数据进行预测,然后评估距离数据有多远来训练网络。然后,这个错误被反向反馈到网络中,以指导调整神经元之间的连接强度。这个过程叫做backpropagation.,并通过多次迭代调整网络,直到它做出准确的预测。

类似的方法也可以应用于脉冲神经网络,但它需要巨大的内存。很明显,这不是大脑解决学习问题的方式,因为它要求错误信号在时间和空间上通过神经元之间的突触向后发送,这显然是不可能的。

这促使参与“人类大脑计划”(Human Brain Project)的研究人员关注实验神经科学数据中已经变得清晰的两个特征:每个神经元都保留了下来年代以分子标记的形式进行先前活动的记忆,这些活动慢慢淡化时间;并且大脑使用像调节的神经递质多巴胺这样的东西提供自上而下的学习信号年代神经元群的行为。

在一个自然通讯,奥地利团队描述年代如何创建d这两个功能的人为类似物,以创建新的学习范式,他们称之为e-prop。虽然该方法学会比基于BackProjagation的方法慢,但它可以实现相当的性能。

更重要的是,它允许在线学习。这意味着,而不是一次性地处理大批次数据,这需要持续转移到与机器学习的能源票据有关的内存,这方法只需从数据中获取。大大降低了它所需的内存量和能量,这使得在较小的移动设备中用于片上学习更加实用。

该团队目前正在与英特尔的研究人员合作,将该方法与该公司的下一个版本集成神经形态芯片Loihi,它是为spiking网络优化的。他们还与曼彻斯特大学的人类大脑项目研究人员合作,将e-prop应用于神经形态的超级计算机大三角帆

要想与当今领先的人工智能匹敌,该技术还有很长的路要走。但如果它能帮助我们开始接近我们在生物大脑中看到的效率,或许用不了多久,人工智能就会无处不在。

图片来源:Gerd奥特曼Pixabay.

我是一名自由科技作家,住在印度班加罗尔。我的主要兴趣领域是工程学、计算机和生物学,尤其关注这三者之间的交叉点。

遵循Edd: