索菲亚的不一边谷面孔,由汉森机器人专利的咖啡制成,正在迅速成为人工智能领域的标志性的形象。她受访了像60分钟一样展示, 做了一个沙特公民,甚至出现在之前联合国。每个媒体外表都引发了关于人工智能如何完全改变世界的评论。这是一个非常好的PR,用于机器人套装中的聊天栏。

但它也骑着人工智能周围的炒作,更重要的是,人们的不确定性周围的构成人工智能,可以用它来完成什么,以及各种里程碑可能是多么近的。

人工智能有各种定义。

例如,有文化想法(来自电影像Ex Machina一样例如)具有人为人工智力的机器。但人类智力或表现也被视为重要的基准对于那些开发旨在模仿人类智力的狭窄方面的软件的人,例如医学诊断。

后一种软件可能被称为窄AI或弱A.弱它可能是,但它仍然可以扰乱社会和基本上工作世界

然后是由Ray Kurzweil,Nick Bostrom和其他人的哲学理念,克里斯特罗姆和其他人的递归改善的超级核心AI最终与人类智力相同,就像我们脱颖而出的那样。这样的情景会以难以想象和更难量化的方式清楚地改变世界;致力于研究如何浏览这个未来的危险,陷阱和可能性。那些人博塞尔姆最大tegmark.缩影这种类型的思维。

这比不是,这是一个情况斯蒂芬霍金当他们将AI视为存在的风险时,各种硅谷灯饰已经警告。

当人们认真地服用索非亚亚洲人时,那些致力于过度智力的人作为假设的未来。然而,没有炒作,围绕行业狭隘的AI的成就,以及这些成就驱动的计算能力和算法复杂性的巨大进步,他们可能无法获得资金来研究AI安全。

一些工作的人算法在前线找到整个超意辩论早产,铸造恐惧和不确定性在有可能使人性受益的工作中。其他人甚至称之为危险的分心来自非常真实的问题狭窄的AI和自动化将姿势,尽管很少有实际在该领域工作。但即使他们试图吸引这种区别,肯定是他们的一些VC资金和股价依赖于这个想法如果超级智能AI是可能的,并且随着世界的变化,因为每个人都相信它将是,谷歌可能会先到达那里。这些梦想可能会让人们加入他们。

然而,歧义是鲜明的。有人在工作,说,麻省理工学院智能追求或谷歌脑可能是通过研究人类心理学和学习或动物神经科学来努力到达AGI,也许试图模拟线虫蠕虫的简单脑。另一名研究人员,我们可能认为在焦点中“狭窄”,列举一个神经网络以诊断癌症比任何人更高的准确性

在哪里应该像索菲亚这样的东西,这是一个坦白的聊天,以欺骗一般智慧,坐?它的创作者说:“作为一个艰难的核心转发人士,我认为这些是有点外围的过渡性问题,这似乎只有在相对较短的时间内似乎有趣,因为AGIS在智力和能力中大量超人造成大量超人。我对使用索菲亚是一般情报研发的平台,我更感兴趣。“这说明了一个进一步的混乱来源:在现场工作的人不同意他们工作的最终目标,AGI可能是多么接近,甚至是什么人工智能是。

斯坦福的Jerry Kaplan是那些铺设的人之一一些责任在AI研究人员的脚下。“关于AI的公众话语已经不受现实阻止,因为该领域没有连贯的理论。如果没有这样的理论,人们无法衡量该领域的进展,并且表征前进成为任何人的猜测。“他更喜欢较少的神秘主义,如“人类计算”。定义智能困难,但斯坦福等努力AI索引朝着建立追踪不同领域进度的框架的方式。

AI周围的歧义和混乱是更广泛趋势的一部分。营销炒作和真正令人印象深刻的技术步伐的组合可以使我们能够高估自己的技术能力或成就。在人工智能中,需要高度有价值的专业知识和昂贵的硬件,未来仍然不均匀分布。对于过去30年来的所有炒作,化石燃料有从提供88%的人数下降我们的能量为85%

我们可以低估漏洞。有多少人见过索菲亚或地图集的视频或听到炒作关于alphago.?好的,现在有多少人知道一些神经网络可以被愚弄可能被打印为贴纸的对抗例子?高估了哪种技术可以让你危险地依赖它,或者对你正在运行的风险盲目。

与此同时,有一种非常真实的风险,即技术能力和影响被低估或完全错过。在美国选举中获得最近对社交媒体工程的争议:没有人可以同意在自动化“机器人”拥有的影响。将这些算法称为“人工智能”,人们认为您是一个阴谋理论家。然而,它们仍然可以产生社会影响。

那些在超智力上工作的人认为,发展可以迅速加速,我们可以在指数曲线的膝盖处。鉴于他们寻求解决的问题(“应该是一个人工的超级智能优化?”)危险地接近“上帝的思想是什么样的?”,他们可能一直需要他们可以得到。

我们迫切需要远离技术 - 炒作和技术恐惧之间的人工二分法;从一个到另一个振荡是无法确保技术安全进步的方法。我们需要以诚实,细致的方式,遵守AI研究的最前沿,并倾听他们的意见和论点,优选地不使用文章中的终结者的图片。

与AI和机器人合作的人应确保他们不会误导公众。我们需要确保政策制定者具有最佳信息。幸运的是,像Openai这样的团体正在帮助这个。

算法已经重塑了我们的社会;无论您认为人工智能所在的地方,对其承诺和危险的困惑反应是没有好事。

图像信用:VS148/shutterstock.com.