1. 首页 >人工智能 > 正文

设计方法可能有助于修正人工智能

人工智能(A I)和机器学习程序中的偏差是众所周知的。来自北卡罗莱纳州立大学和宾夕法尼亚州立大学的研究人员现在建议软件开发人员将“女权主义设计思维”的概念纳入他们的开发过程,作为一种改善公平的方式-特别是在开发招聘过程中使用的软件方面。

信息系统/技术教授、NC State大学系学者费·佩顿说:“关于人工智能中的偏见是如何表现出来的,似乎有无数的故事,关于是什么导致了这种偏见,还有许多想法。””我们的目标是提出指导方针,用以制定可行的解决办法,解决IT劳动力中针对妇女、非裔美国人和拉丁美洲职业的算法偏见。

佩顿是一篇有关这项工作的论文的合著者,他说:“现有的太多招聘算法都包含了事实身份标记,因为性别、种族、族裔、年龄等因素而排除了合格候选人。“我们只是在寻求公平——求职者能够平等地参与招聘过程。”

佩顿和她的合作者认为,一种称为女权主义设计思维的方法可以作为一个有价值的框架来开发软件,以有意义的方式减少算法偏见。在这种背景下,应用女性主义设计思维将意味着将公平思想纳入算法本身的设计中。

该论文的合著者、宾夕法尼亚州立大学信息科学与技术系副教授Lynette Yarger说:“使算法偏见的影响更加复杂的是,女性、黑人和拉丁裔软件工程师在历史上的代表性不足,他们根据他们的生活经历,就公平设计方法提供了新的见解。”

佩顿说:“从本质上说,这种方法将意味着开发出重视性别、种族和族裔包容和公平的算法。””这方面的实际应用是开发和实施一个创建算法的过程,在这个过程中,设计师正在考虑一个包括妇女、包括黑人、包括拉丁人的受众。从本质上讲,所有背景的开发人员都会被要求积极考虑与自己不同的人和价值。

“要明确的是,这不仅仅是做某件事,因为它在道德上是正确的。但我们知道,妇女、非裔美国人和拉丁人在IT领域的代表性不足。有充分的证据表明,多元化、包容性的员工队伍可以改善公司的底线,”佩顿说。“如果你能做正确的事情,提高自己的利润率,为什么你不会呢?”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢