跳转到主要内容

微软概述了负责任人工智能的六个关键原则:问责制、包容性、可靠性和安全性、公平性、透明度以及隐私和安全性。随着人工智能进入主流产品和服务,这些原则对于创建负责任和值得信赖的人工智能至关重要。他们受到两种观点的指导:道德和可解释。

A diagram of responsible AI principles.

道德的

从伦理角度来看,人工智能应该:

  • 在其断言中要公平和包容。
  • 对其决定负责。
  • 不歧视或阻碍不同种族、残疾或背景。

2017年,微软成立了一个人工智能、伦理以及工程和研究效果咨询委员会(Aether)。该委员会的核心职责是就负责任的人工智能的问题、技术、流程和最佳实践提供建议。要了解更多信息,请参阅了解微软治理模式-以太+负责任人工智能办公室。

责任

问责制是负责任人工智能的重要支柱。设计和部署人工智能系统的人需要对其行动和决策负责,尤其是在我们朝着更自主的系统迈进的时候。

组织应考虑建立一个内部审查机构,为开发和部署人工智能系统提供监督、见解和指导。该指南可能因公司和地区而异,应反映组织的人工智能历程。

包容性

包容性要求人工智能考虑所有人类种族和经历。包容性设计实践可以帮助开发人员理解和解决可能无意中将人排除在外的潜在障碍。在可能的情况下,组织应使用语音到文本、文本到语音和视觉识别技术来增强听力、视觉和其他障碍患者的能力。

可靠性和安全性

为了让人工智能系统可信,它们需要可靠和安全。对于一个系统来说,按照最初的设计执行并安全地应对新情况是很重要的。其固有的弹性应能抵抗有意或无意的操纵。

组织应建立严格的运行条件测试和验证,以确保系统对边缘情况做出安全响应。它应该将A/B测试和冠军/挑战者方法整合到评估过程中。

人工智能系统的性能可能会随着时间的推移而下降。组织需要建立一个稳健的监控和模型跟踪流程,以被动和主动地衡量模型的性能(并在必要时对其进行再培训以实现现代化)。

可解释的

可解释性有助于数据科学家、审计师和商业决策者确保人工智能系统能够证明他们的决策以及如何得出结论。可解释性还有助于确保遵守公司政策、行业标准和政府法规。

数据科学家应该能够向利益相关者解释他们是如何达到一定水平的准确性的,以及是什么影响了结果。同样,为了遵守公司的政策,审计师需要一个验证模型的工具。商业决策者需要通过提供透明的模型来获得信任。

解释性工具

微软开发了InterpretML,这是一个开源工具包,可以帮助组织实现模型的可解释性。它支持玻璃盒和黑盒型号:

  • 玻璃盒子模型由于其结构而具有可解释性。对于这些模型,可解释助推机(EBM)基于决策树或线性模型提供算法的状态。EBM提供无损解释,可由领域专家编辑。
  • 由于神经网络的内部结构复杂,黑盒模型的解释更具挑战性。像局部可解释模型不可知解释(LIME)或SHapley加性解释(SHAP)这样的解释者通过分析输入和输出之间的关系来解释这些模型。

Fairlearn是Azure机器学习集成,是SDK和AutoML图形用户界面的开源工具包。它使用解释者来了解主要影响模型的因素,并使用领域专家来验证这些影响。

要了解更多关于可解释性的信息,请在Azure机器学习中探索模型可解释性。

公平

公平是所有人类都要理解和应用的核心伦理原则。在开发人工智能系统时,这一原则更为重要。关键的制衡需要确保系统的决策不会基于性别、种族、性取向或宗教歧视或表达对群体或个人的偏见。

微软提供了一个人工智能公平性检查表,为人工智能系统提供指导和解决方案。这些解决方案大致分为五个阶段:设想、原型、构建、发布和发展。每个阶段都列出了建议的尽职调查活动,这些活动有助于最大限度地减少系统中不公平的影响。

Fairlearn与Azure机器学习集成,支持数据科学家和开发人员评估和提高其人工智能系统的公平性。它提供了不公平缓解算法和可视化模型公平性的交互式仪表板。组织应该使用该工具包,并在构建模型时仔细评估模型的公平性。这项活动应该是数据科学过程中不可或缺的一部分。

了解如何减轻机器学习模型中的不公平现象。

透明度

实现透明度有助于团队理解:

  • 用于训练模型的数据和算法。
  • 应用于数据的转换逻辑。
  • 生成的最终模型。
  • 模型的相关资产。

这些信息提供了关于模型是如何创建的见解,因此团队可以以透明的方式复制它。Azure机器学习工作区中的快照通过记录或重新培训实验中涉及的所有培训相关资产和指标来支持透明度。

隐私和安全

数据持有者有义务保护人工智能系统中的数据。隐私和安全是这个系统不可分割的一部分。

个人数据需要得到保护,对其的访问不应损害个人隐私。Azure差异隐私通过随机化数据和添加噪声向数据科学家隐藏个人信息来帮助保护和维护隐私。

人类人工智能指南

人类人工智能设计指南由18个原则组成,这些原则发生在四个时期:最初,在交互过程中,当错误时,以及随着时间的推移。这些原则有助于组织产生一个更具包容性和以人为中心的人工智能系统。

开始

  • 明确系统可以做什么。如果人工智能系统使用或生成指标,重要的是要显示所有指标以及如何跟踪它们。
  • 明确系统能在多大程度上完成它所做的工作。帮助用户理解人工智能并不完全准确。设定人工智能系统何时可能出错的预期。

交互过程中

  • 显示与上下文相关的信息。提供与用户当前上下文和环境相关的视觉信息,例如附近的酒店。返回接近目标目的地和日期的详细信息。
  • 缓解社会偏见。确保语言和行为不会引入意想不到的刻板印象或偏见。例如,自动完成功能需要包含性别认同。

当错误的时候

  • 支持高效解雇。提供一种简单的机制来忽略或消除不需要的功能或服务。
  • 支持高效校正。提供一种直观的方式,使编辑、优化或恢复更加容易。
  • 明确系统为什么这么做。优化可解释的人工智能,提供有关人工智能系统断言的见解。

随着时间的推移

  • 记住最近的互动。保留交互历史以备将来参考。
  • 从用户行为中学习。根据用户的行为对交互进行个性化设置。
  • 谨慎更新和适应。限制中断性更改,并根据用户的配置文件进行更新。
  • 鼓励细粒度的反馈。从用户与人工智能系统的互动中收集用户反馈。

可信的人工智能框架

A diagram of a persona-centric, trusted AI framework.

AI设计师

人工智能设计者构建模型,并负责:

  • 数据漂移和质量检查。设计者检测异常值并执行数据质量检查以识别缺失值。设计者还标准化分布,仔细检查数据,并生成用例和项目报告。
  • 评估系统来源中的数据,以确定潜在的偏差。
  • 设计人工智能算法以最大限度地减少数据偏差。这些努力包括发现装箱、分组和规范化(尤其是在传统的机器学习模型中,如基于树的模型)如何从数据中消除少数群体。分类人工智能设计通过在依赖受保护健康信息(PHI)和个人数据的垂直行业中对社会、种族和性别类别进行分组,重申了数据偏见。
  • 优化监测和警报,以识别目标泄漏并加强模型的开发。
  • 建立报告和见解的最佳实践,提供对模型的精细理解。设计者避免使用使用特征或向量重要性、统一流形近似和投影(UMAP)聚类、Friedman的H统计量、特征效果和相关技术的黑匣子方法。识别指标有助于定义复杂和现代数据集中相关性之间的预测影响、关系和依赖性。

人工智能管理员和官员

  • 人工智能管理员和官员监督人工智能、治理和审计框架的运营和绩效指标。他们还监督人工智能安全的实施方式以及企业的投资回报。他们的任务包括:
  • 监控跟踪仪表板,该仪表板有助于模型监控并组合生产模型的模型度量。仪表板主要关注准确性、模型退化、数据漂移、偏差以及推理速度/误差的变化。
  • 实现灵活的部署和重新部署(最好通过REST API),允许将模型实现到开放的、不可知的体系结构中。该体系结构将模型与业务流程集成,并为反馈循环产生价值。
  • 致力于建立模型治理和访问,以设置边界并减轻负面业务和运营影响。基于角色的访问控制(RBAC)标准确定了安全控制,从而保留了受限制的生产环境和IP。
  • 使用人工智能审计和合规框架来跟踪模型如何发展和变化,以维护特定行业的标准。可解释和负责任的人工智能建立在可解释性度量、简明特征、模型可视化和行业垂直语言的基础上。

人工智能商业消费者

人工智能商业消费者(商业专家)闭合反馈回路,为人工智能设计者提供输入。预测性决策和潜在的偏见影响,如公平和道德措施、隐私和合规以及业务效率,有助于评估人工智能系统。以下是商业消费者的一些注意事项:

  • 反馈循环属于企业的生态系统。显示模型偏差、错误、预测速度和公平性的数据在人工智能设计者、管理员和官员之间建立了信任和平衡。以人为中心的评估应随着时间的推移逐步改进人工智能。
  • 从多维、复杂的数据中最大限度地减少人工智能学习可以帮助防止有偏见的学习。这种技术被称为少于一次(LO)学习。
  • 使用可解释性设计和工具使人工智能系统对潜在的偏见负责。模型偏差和公平性问题应被标记并提供给警报和异常检测系统,该系统从这种行为中学习并自动解决偏差。
  • 每个预测值应按重要性或影响分解为单独的特征或向量。它应该提供全面的预测解释,这些解释可以导出到业务报告中,用于审计和合规性审查、客户透明度和业务准备情况。
  • 由于全球安全和隐私风险不断增加,解决推理过程中数据违规问题的最佳做法需要遵守各个垂直行业的法规。示例包括关于不遵守PHI和个人数据的警报,或关于违反国家/地区安全法的警报。

接下来的步骤

探索人类人工智能指南,了解更多关于负责任人工智能的信息。

文章链接