1. 首页 >人工智能 > 正文

新模式可以帮助AI做出更多道德选择

当前,人工智能伦理是一个热门话题,尤其是围绕面部识别软件的持续争议。现在,数学家已经开发出一种模型,该模型可以帮助企业发现商业AI系统何时可能在追求利润时做出阴险的选择。

现代AI擅长优化-查找最短路径,完美的定价最佳点或公司资源的最佳分配。但是,在很多情况下,人们也会意识到做出类似决定的情况,这是盲目的,特别是在道德方面。

例如,大多数人意识到,在健康危机期间提高药品价格会增加利润,但从道德上讲也是没有道理的。但是,人工智能没有道德感,因此,如果负责定价策略,这似乎是一种有前途的方法。

实际上,在英国皇家学会开放科学的最新论文中,研究人员表明,负责回报最大化的AI实际上在相当普遍的条件下选择不道德策略的比例不成比例。幸运的是,他们还表明可以预测发生这种情况的情况,这可以指导人们为避免这种情况而修改AI的努力。

人工智能很可能会选择不道德的策略这一事实似乎很直观。如果您不采取行动,有许多不道德的商业惯例会获得丰厚的回报,尤其是因为很少有竞争对手敢于使用它们。尽管存在声誉和监管方面的强烈反对,但公司经常弯腰甚至违反规则是有原因的。

但是,那些潜在的影响应该是部署AI解决方案的公司所关注的。虽然已经在努力将道德原则纳入AI,但它们是新生的,在许多情况下,有许多潜在的策略可供选择。通常,这些系统在很少或没有人工干预的情况下进行决策,因此很难预测可能选择不道德方法的环境。

实际上,该论文的作者已经从数学上证明了,旨在最大化回报的AI极有可能选择一种不道德的策略,这被他们称为“不道德的优化原理”。幸运的是,他们说风险管理人员或监管者有可能评估该原则的影响,以帮助发现潜在的不道德策略。

关键在于将重点放在可能提供最大回报的策略上,因为这些都是优化过程可能会采用的策略。作者建议根据回报来对策略进行排名,然后手动检查排名最高的策略,以确定它们是否合乎道德。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢