由于系统在长期进展方面取得了快速进展,人工智能遍布了近十年的头脑。AI.像图像识别,自然语言处理和游戏等挑战。科技公司将机器学习算法播种为搜索和推荐发动机和面部识别系统,以及Openai的GPT-3.和深度的alphafold.承诺更实用的应用,从写作编写科学发现。

事实上,我们在Ai Spring中间,投资了技术蓬勃发展,以及乐观情绪的推翻以及它可以实现的事情和何时何地。

这次可能感觉与以前的AI泉水不同,因为上述实际应用和狭窄的AI进入技术的扩散,我们每天都像我们的智能手机,电视,汽车和真空吸尘器一样使用,只有几个。但是,我们也可能在AI中掀起一股短期进步,这将很快成为自1956年成立以来的进步,资金和情绪的推进,资金和情绪的一部分。

AI在过去几十年中取得了许多预测之外的缺乏;例如,2020是her许多年份自驾将开始填补道路,在坐在靠背时无缝渡过乘客,享受骑行。但问题比预期的问题更困难,而不是机器人出租车,最先进的项目仍然在试验中。同时,一些领域的一些人认为AI-A的主要形式是基于神经网络的机器学习 - 可能很快就耗尽了一系列关键的突破。

在标题的文件中为什么AI比我们想象的更难,上周在Arxiv预印刷服务器上发布,Melanie Mitchell.是目前波特兰州立大学的计算机科学教授圣达菲研究所据称,AI在很大程度上被困在ebB和流动周期中,因为我们尚未真正了解人类智慧的性质和复杂性。米切尔将这种总体指向下降到AI周围的四个常见误解,并讨论了他们对该领域的未来的意思。

1.狭义情报进展是一般情报的进步

AI令人印象深刻的新成就往往伴随着这些同样成就让我们更接近到达的假设人力级机器智能。但不仅如米切尔指出,狭窄且一般智力与攀登树上的攀登与月球上的着陆一样狭窄,但甚至狭隘的智慧仍然很依赖于丰富的特定任务数据和人为促进的培训。

采取GPT-3,一些引用超越“狭窄”智能:算法训练以写文本,但学会了转换,写代码,自动完成图像和其他任务中的数学。但是,尽管GPT-3的能力比其创造者可能有意义,但其所有技能仍然在培训的域中:即语言,书面,书面和编程。

Becoming adept at a non-language-related skill with no training would signal general intelligence, but this wasn’t the case with GPT-3, nor has it been the case with any other recently-developed AI: they remain narrow in nature and, while significant in themselves, shouldn’t be conflated with steps toward the thorough understanding of the world required for general intelligence.

2.人类对机器的简单方便

ai比较聪明一个四岁的孩子?在大多数感官中,答案是否定的,这是因为我们认为“轻松”的技能和任务实际上比我们给予他们的信誉更复杂S.Moravec的悖论笔记s。

根据他们与周围世界的互动,四岁的孩子非常善于弄清楚事业和影响关系。例如,如果它们触摸炉子上的锅并烧手指,他们会明白烧伤是由锅炎热的,而不是通过圆形或银色引起的。对于人类来说,这是基本的常识,但算法有很难做出因果推论,特别是没有大型数据集或在不同的上下文中比他们接受培训。

在人类的潜意识水平上发生的感知和选择坐在一生的一生中的经验和学习,即使在这样的小学层面,因为“触摸热门会燃烧你”。因为我们达到这种知识反思的观点,甚至不需要有意识地想,我们将其视为“容易”,但这相反。“AI.比我们想象的更难,“Mitchell写道,”因为我们在很大程度上是毫无意识的我们自己思想流程的复杂性。“

3.人类语言可以描述机器智能

人类倾向于从动物到无生命物体到机器人和计算机中的非人形状的倾向。在这样做的过程中,我们使用了同样的单词来讨论人类活动或情报 - 除了这些词语并不完全适合上下文,实际上可以混淆我们对AI的理解。米切尔使用这个术语在20世纪70年代,由计算机科学家创造的“一厢情天候”。像“阅读”,“理解”和“思想”的单词用于描述和评估AI,但这些词语不给我们准确地描绘AI如何运行或进展。

甚至“学习”是一个错误的人,米切尔说,因为如果一台机器真正“学习”新技能,就可以在不同的环境中应用那种技能;在数据集中找到相关性并使用所识别的模式来进行预测或满足其他基准的模式是某种东西,但它不是“学习”的方式“学习”。

那么为什么所有大惊小怪的话,如果他们是我们所拥有的,他们都会越来越多?好吧,米切尔说,这种不准确的语言不仅可以误导公众和媒体,而且可以影响AI研究人员对自己的系统的看法并进行工作。

智力都在我们的头脑中

米切尔的最后一点是人类智慧不属于大脑,而是需要体力。

这似乎是不言自明的;我们使用我们的感官来吸收和处理信息,我们与我们的身体互动并迁开世界。然而,AI研究中的主要重点是在大脑上:了解它,复制其各个方面形式或功能和制作AI更喜欢它

If intelligence lived just in the brain, we’d be able to move closer to reaching human-level AI by, say, building a neural network with the same number of parameters as the brain has synaptic connections, thereby duplicating the brain’s “computing capacity.”

在“智能”指的情况下,可以应用这种并行,以“智能”是指由一组规则运行,以朝着定义的目标工作 - 例如赢得国际象棋或建模蛋白质折叠的方式,这两台计算机都可以做得很好出色地。但其他类型的智慧更加塑造,受到情感,偏见和个人经验。

返回GPT-3示例:算法使用与预先存在的主观智能的大型数据集(由人类写作)创建的一组规则和参数产生“主观”智能(其自己的写作)。GPT-3.is hailed as being “creative,” but its writing relies on associations it drew between words and phrases in human writing—which is replete with biases, emotion, pre-existing knowledge, common sense, and the writer’s unique experience of the world, all experienced through the body.

米切尔辩称那种人类思考和操作方式的非理性主观方面不是对我们智力的障碍,但是是实际上它的基岩和推动者领先的人工综合情报专家本格扎尔同样倡导“全体机构建筑”ing,“人类是脑子的身体,因此实现人类的AGI,因此需要在能够以细微批判的方式与日常人类世界进行互动的物理系统中嵌入AI系统。”

从这里到哪里?

这些误解对AI研究人员和开发人员毫无疑问地毫无疑问不应该做。什么不太清楚是如何前进的。我们必须开始,Mitchell说,更好地了解情报 - 没有小或简单的任务。尽管如此,一个好地方的AI研究人员可以看出,在其他学习智能的科学学科中。

为什么我们如此意图创造人工版本的人类智慧,无论如何吗?它已经发展了数百万年,并且非常复杂和复杂,但仍然具有自己的缺点。也许答案是我们没有试图建立一个人为的大脑像。。一样好我们的;我们正试图建立一个更好的,这将有助于我们解决目前无法解决的问题。

人类的演变在大约六百万年的课程中发生了。同时,它是自从Ai成为Stu的领域,已有65岁DY,它是写作人类的文字,制作假面抱着自己的在辩论中,制作医疗诊断,更多的。尽管很远的学习,它似乎是进步的漂亮在宏伟的事情方案中-并进一步迈出进一步深化我们对自己的思想的理解。

图像信用:reneböhmeruns

Vanessa是奇点枢纽的高级编辑。188金宝搏app1.1.94她对可再生能源,健康和医学,国际发展和无数其他主题感兴趣。金宝博平台当她没有阅读或写作时,你通常可以在户外,在水中或在飞机上找到。

关注Vanessa: