1. 首页 >人工智能 > 正文

金融服务中的AI可以解决许多风险

金融服务公司需要考虑使用AI技术会产生什么业务结果,这将如何影响他们公平对待客户的能力,以及他们是否可以在决策过程中保持透明度和问责制。

解决这些问题将有助于金融服务企业有效管理公认的不公平偏见和歧视风险,并评估与AI供应商合作时应寻求的合同保护水平。

公司可以采取尽职调查步骤,并且可以选择合同选择权。

金融服务在哪里使用人工智能?

当前,在前台和后台操作中都使用了AI技术,其中一些技术包括监视用户行为,招聘流程,保险决策,信用咨询,承销贷款以及反洗钱和欺诈检测流程。人工智能也被资本市场所接受。据国际货币基金组织称,现在有三分之二的现金股权交易与自动交易有关。

鉴于进入金融服务业务的数据范围之广和规模之大,重要的是要考虑AI工具是否恰当地制定了没有偏见或偏见的决策,以避免法律索赔,监管机构罚款和声誉受损。

这些是公认的风险。根据欧洲银行业管理局(EBA)的说法,“在金融服务中使用AI会引发有关它是否对社会有益[以及]它是否造成或加剧偏见的问题”,数据伦理与创新中心的AI晴雨表报告说: “财务决策中的偏见被视为使用数据驱动技术带来的最大风险”。

一些公司已经接受了一些由AI主导的决策的审查,有些则认为它们偏向特定人群。

什么是偏见?

偏见的定义不同,并取决于使用它们的上下文。EBA将偏见称为“偏向或反对某个人,物体或位置的偏见”。相反,欧洲委员会的技术定义将偏差描述为“一种通过系统地歪曲代表性而失去统计结果的效果”。剑桥英语词典的定义规定,偏见是“由于允许个人意见影响您的判断而以不公平的方式支持或反对特定的人或事物的行为”。通常,这些定义都凸显了,实际上,作为下游过程,人工智能系统可能会不经意地和无意识地产生偏差。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢