AI的道德是一分钟的热门话题,特别是随着持续的争议面部识别软件现在数学家们开发了一个模型当商业AI系统可能在追求利润时可以帮助企业现货。

现代人工智能擅长优化——找到最短的路线,完美的定价最佳点,或公司资源的最佳分配。但它也忽视了很多人类做出类似决定时应该意识到的情况,尤其是涉及到伦理问题时。

例如,大多数人意识到,虽然在健康危机期间提高药品价格会提高利润,但这在道德上也是站不住脚的。但艾没有道德感因此,如果让它负责定价策略,这似乎是一个很有前途的方法。

事实上,在一个最近的纸张皇家学会开放科学,研究人员表明,在相当普遍的情况下,以最大化回报为任务的人工智能实际上更有可能选择不道德的策略。幸运的是,他们还表明,预测可能发生这种情况的环境是可能的,这可以指导修改人工智能以避免这种情况。

人工智能可能会选择不道德的策略,这一事实似乎是直觉的。有许多不道德的商业行为,如果你侥幸逃脱,它们可以获得巨大的回报,尤其是因为你的竞争对手很少敢使用它们。尽管这些公司可能会面临声誉和监管方面的反弹,但它们往往会歪曲甚至违反规定,这是有原因的。

不过,对于部署人工智能解决方案的公司来说,这些潜在的影响应该是相当值得关注的。而努力在人工智能中构建伦理原则已经在进行中,它们是新生,在许多背景下都有一个广大潜在的选择策略从。通常,这些系统在很少或没有人力投入的情况下做出决策,很难预测它们可能会在何种情况下选择不道德的方法。

事实上,这篇论文的作者已经用数学方法证明了,被设计成收益最大化的人工智能很可能会选择不道德的策略,他们称之为“不道德优化原则”。幸运的是,他们表示,风险管理者或监管机构可以评估这一原则的影响,以帮助发现潜在的不道德策略。

关键是要专注于可能提供最大回报的策略,因为这些是优化过程可能会选定的策略。作者根据回报率推荐排名策略,然后手动检查排名最高的策略,以确定它们是否合乎道德。

他们说,这不仅是杂草最有可能被通过的不道德策略,还可以帮助发展II涉及问题的方式,因此更好地了解寻找其他有问题的战略的地方。

我们希望这将使我们能够重新设计AI以避免这些策略。如果不可能,作者建议分析策略空间,估计AI选择不道德解决方案的可能性有多大。

他们发现,如果少数策略获得极端回报的概率很高,那么有统计技术可以帮助估计人工智能选择不道德策略的风险。但是,如果如果回报的概率是均匀分布的,那么最优策略很可能是不道德的,公司不应该允许系统在没有人力投入的情况下做出决定。

即使可以估计风险,作者们仍然认为,对这些预测过于相信是不明智的。他们还建议,或许有必要重新思考人工智能的运作方式,以便在训练阶段自动剔除不道德的策略。

这到底是怎么发生的呢目前还不清楚,所以让人类参与大多数人工智能决策似乎是个好主意。

图片来源:Arek SochaPixabay.

我是一名自由科技作家,住在印度班加罗尔。我的主要兴趣领域是工程学、计算机和生物学,尤其关注这三者之间的交叉点。

遵循Edd: