1. 首页 >科技 > 正文

Microsoft如何建立对人工智能的信任

Azure机器学习自动跟踪数据集的沿袭,因此客户可以在中央注册表中维护其机器学习资产的审核跟踪,包括历史记录,培训和模型说明。这为数据科学家,机器学习工程师和开发人员提供了工作流程中更高的可见性和可审核性。

在会议期间,Microsoft提供了有关如何使用Azure机器学习中的自定义标签来实现机器学习模型的数据表的指南,从而使客户能够改善其数据集的文档和元数据。自定义标签基于Microsoft与AI合作伙伴关系及其对机器学习生命周期的理解和透明度的注释和基准(About ML)项目,该项目旨在提高机器学习系统文档的透明度和问责制。

Microsoft的另一个重点领域是可以更好地理解机器学习模型并评估和减轻数据不公平性的工具。在过去的几个月中,它一直在大力投资用于模型不公平和可解释性的工具。这些领域对于目前的机器学习从业者来说尤其重要。

在2019年,微软发布了Fairlearn,这是一个开放源代码工具包,用于评估机器学习模型的公平性。在今年的Build上,Microsoft宣布它将在6月将工具包本地集成到Azure机器学习中。

Fairlearn工具包提供了多达15个“公平性指标”,可用于评估和重新训练模型。它还提供了可视化的仪表板,以向从业者展示该模型在针对客户选择的某些群体(例如年龄,性别或种族)方面的表现。Microsoft计划随着该领域的研究进展而增加这些功能。

它还正在使用称为InterpretML的工具解决可解释的人工智能(AI),该工具提供了一组交互式仪表板,这些仪表板使用各种技术来提供模型可解释性。对于不同类型的模型,InterpretML可帮助从业人员更好地理解确定模型输出的最重要功能,执行“假设分析”并探索数据趋势。

微软还宣布,它将为工具集添加一个新的用户界面,该界面配备了一组可视化功能以实现可解释性,对基于文本的分类的支持以及反事实示例分析。

可视化客户的可解释性

这些关键领域在AI中的新兴性质使一些早期企业难以理解技术在实践中的工作方式,尤其是对他们的客户而言。

Microsoft在这方面做了很多视觉上的改进,特别是对于数据科学家和机器学习工程师。在InterpretML的演示中,微软展示了零售商如何在行动中运用可解释性,例如在其网站上支持其针对消费者的AI驱动产品推荐。建立客户之间对AI的透明度和信任度是目前该技术面临的最大障碍之一。

实际上,对技术的信任(或缺乏信任)已成为企业采用机器学习的最大障碍。在2019年的CCS Insight调查中,有39%的IT决策者将信任视为采用组织的最大障碍。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时候联系我们修改或删除,多谢