1. 首页 >科技 > 正文

专家和AI必须共同努力减轻风险

美国和其他政府应加入GPAI和类似的伙伴关系,开始就AI框架开展合作,以主动应对这一强大的新技术所带来的未来挑战。

迄今为止,最有前途的AI框架是“循环中专家(EITL)”概念,这是一种AI和机器学习方法,可将主题专家置于AI决策流程中的关键监管点。

信任AI可以处理人类难以完成的杂务,例如处理大量信息或检查非常大的数据集。通常,AI算法还可以管理下一级别的分析,查找模式,针对现有数据库进行交叉引用信息,甚至可以基于复杂的统计模型计算风险。

然后,在EITL模型中,将AI工具生成的见解移交给专家以验证准确性并进行AI无法(也可能不应该)进行的高级分析,例如对验证拥有最终决定权被AI标记为禁飞名单的人员的身份。

EITL的主要优势在于,协作可以减少错误,减轻风险并提高基于AI的判断和决策的透明度。基于AI的算法和专家个人在同一决策上犯相同错误的机会,要比单独操作时要低得多。EITL减少了危险情况,并提供了对AI的更多监督。

在没有专家驱动的制衡的情况下,组织将无法验证或影响AI系统的决策。技术领导者一致认为,我们需要明智,灵活,经过现场测试的模板和法律来指导AI的开发和部署。我们明智地开始听他们的话。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢