人工智能在我们生活中的重要性是很难避免的,关于它将如何影响我们的未来,有太多的预测。在他们的新书中《所罗门密码:会思考的机器世界中的人类》合著者奥拉夫·格罗斯(Olaf Groth)是霍特国际商学院(HULT International Business School)战略、创新和经济学教授、咨询网络(advisory network)首席执行官Cambrian.ai和加州大学伯克利分校人类兼容人工智能中心执行主任马克·尼茨伯格(Mark Nitzberg)认为权力平衡的转变之间的智能机器而人类已经在这里了。

我赶上了作者关于如何继续集成之间技术以及人类,以及他们对“数字大宪章”(Digital Magna Carta)的呼吁。这是一份由多方利益相关者组成的国会制定的、得到广泛接受的宪章,将有助于指导先进技术的发展,利用它们的力量造福全人类。

丽莎·凯·所罗门:你的新书,所罗门的代码,探讨了所有领导者都需要考虑的人工智能及其对人类、伦理和社会的广泛影响。人工智能是一项已经发展了几十年的技术。为什么现在关注这些话题如此紧迫?金宝博平台

奥拉夫·格罗斯和马克·尼茨伯格:流行的看法总是认为人工智能就改变游戏规则的故事来说——例如,深蓝在国际象棋上打败了加里·卡斯帕罗夫(Gary Kasparov)。但真正影响我们生活的,是这些人工智能应用“进入我们的大脑”并为我们做决定的方式。这并不是说那些引人注目的重大突破不重要;他们是。

但最能改变我们生活的,是平淡无奇的应用程序和机器人的激增,它们赋予或抵消了我们的身份和行为。今天,我们的人数迅速增长决定在不了解这些技术的情况下,甚至在不了解这些技术的二阶和三阶影响以及我们依赖这些技术的决定的情况下,就转向这些机器。

在我们所谓的人类、机器和自然智能之间的“共生智能”伙伴关系中,存在着真正的力量。这些关系不仅可以优化经济利益,还有助于改善人类福祉,创造一个更有目的的工作场所,给我们的生活带来更多的满足感。

然而,在利用机遇的同时降低风险,需要认真、多学科地考虑人工智能如何影响人类价值观、信任和权力关系。不管我们是否承认它们存在于我们的日常生活中,这些问题已不再只是思维练习或科幻小说的素材。

在许多方面,这些技术可以挑战人类的意义,它们的分支已经以真实的,通常是微妙的方式影响我们。我们需要了解如何做到这一点

关于人工智能有很多炒作和误解。在你的书中,你对我们经常与人工智能过程联系在一起的认知能力和更人性化的意识和良知之间进行了有益的区分。为什么理解这些区别如此重要?

噩和MN:随着机器变得更加强大和复杂,它们有一天会取代意识吗?这很难说。但毫无疑问的是,随着机器变得更有能力,人类将开始认为它们是有意识的东西——如果没有其他原因,只是出于我们拟人化的自然倾向。

机器已经开始学习识别我们的情绪状态和身体健康。一旦他们开始回应我们,并相应地调整自己的行为,我们就会倾向于与他们建立某种关系,可能会更信任或更亲密,因为机器能识别出我们的不同状态。

意识很难定义,很可能是一种突现的属性,而不是你可以轻易创造的东西,或者反过来推断出它的各个部分。那么,当我们从人工智能、量子计算或脑机接口的领域把越来越多的元素放在一起时,它会发生吗?我们不能排除那种可能性。

无论如何,我们都需要确保在机器的三个c中为这一发展划出一条清晰的道路和护栏:认知(即AI现在所处的位置);意识(AI的发展方向);以及良知(这是我们在实现这一目标之前需要灌输给AI的东西)。真正的问题是,我们在没有良知的情况下达到机器意识——或者人类决定授予的意识。如果那样的话,我们就创造了一个人造的反社会者。

LKS:我们已经看到了人工智能如何影响产品开发和行业转变的重大进展。人工智能的崛起如何在全球层面改变力量?

噩和MN:无论在公共部门还是私营部门,数据持有者都拥有权力。我们已经在美国和中国看到了大约10个“数字巨头”的崛起,他们拥有巨大的数据宝库、强大的计算能力,以及吸引世界顶级人工智能人才的资源和资金。在技术和企业方面,贫富差距已经拉大,我们也越来越意识到,类似的不平等现象也正在社会层面上形成。

经济权力随着数据流动,给社会经济上处于弱势的人群留下了很少的选择,以及他们腐败、偏见或稀疏的数字足迹。集中权力而忽视价值观,我们破坏了信任。

我们已经可以看到,两种占主导地位的人工智能地缘政治模式之间出现了这种紧张关系。中国和美国在技术和经济方面都已成为最强大的国家,两国都渴望在世界各地发挥影响力。欧盟国家在这些经济和地缘政治措施上更加克制,但他们在隐私和社会问题上走在了前面。

问题是,还没有人把价值观、信任和权力这三个关键要素结合起来。在人工智能系统和战略中培育这三种元素的国家和组织将引领未来。有些国家开始意识到合并的必要性,但我们发现只有13个国家制定了重要的人工智能战略。等待太久才加入这些国家的国家,可能会陷入一种新的“数据殖民主义”,这种殖民主义可能会从外部改变它们的经济和社会。

路:所罗门的代码从多个角度看待人工智能,考虑到积极和潜在的危险影响。你们对不断上升的全球威胁以及人工智能和数据武器化提出警告,称“有偏见或肮脏的数据比核武器或大流行更具威胁性。”“对于正在阅读本文的全球领导人、企业家、技术专家、政策制定者和社会变革推动者,您有什么具体的建议来确保AI的道德发展和应用?”

噩和MN:我们把很多最重要的决定都交给了对数据的狂热崇拜。在大多数情况下,这是一件好事,因为我们更多地依靠科学证据来理解我们的世界和我们的方式。但在其他情况下,我们走得太远了,假设数据集和算法产生了一个完整的故事,不受人类偏见或智力缺陷的玷污。我们可以选择忽视它,但没有人对核战争或大流行病的危险视而不见。然而,我们故意对脏数据的威胁视而不见,反而相信它们是原始的。

那我们该怎么办呢?在个人层面上,这是一个意识的问题,知道谁控制你的数据,以及如何将决策外包给会思考的机器会带来机遇和威胁。

对于企业、政府和政治领导人来说,我们需要看到一个更广泛的道德委员会的扩展,用透明的标准来评估新产品和服务。我们可以考虑一些类似于药物临床试验的东西——一种可以透明和独立地衡量算法、机器人等对人类的影响的测试方案。所有这些都需要多学科合作,需要从技术、社会系统、伦理、人类学、心理学等领域引进专业知识。

最后,在全球层面上,我们需要一个新的权利宪章——一个数字大宪章——将这些保护正式化,并指导新的人工智能技术的发展,以造福全人类。我们建议建立一个多方利益相关者寒武纪国会(联系起来的生命的爆炸在寒武纪),不仅可以开始帧为人类福利,但构建全球共识原则基本守则,为评估和执行机制和思想,所以我们可以在社会中没有任何大规模的故障或反弹。所以,不是其中之一,而是两者都有。

图片来源:whiteMocca/Shutterstock.com

我们是亚马逊服务有限责任公司联合计划的参与者,该计划是一个附属广告计划,旨在为我们提供一种方式,通过链接到Amazon.com和附属网站来赚取费用。

Lisa Kay Solomon是设计创新领域著名的思想领袖,专注于帮助领导者学习如何在不断的变化面前变得更有创造力,更灵活,更有弹性。Lisa是奇点大学(Singularity University)“变革实践与领导力”(Transformational Pract188金博宝进不去ices and Leadership)的主席。奇点大学是一个由聪明、充满激情、以行动为导向的领导者组成的全球社区,他们希望使用指数级技术来积极地……

遵循丽莎: