跳转到主要内容

如果道德和治理没有纳入您的 AI 战略,人工智能及其实施所固有的因素可能会对您的公司产生可怕的影响。

根据你观看的终结者电影,邪恶的人工智能天网要么已经接管了人类,要么即将接管人类。但不只是科幻作家担心不受控制的人工智能的危险。

在 AI 研究和咨询公司 Emerj 2019 年的一项调查中,14% 的 AI 研究人员表示 AI 是对人类的“生存威胁”。即使人工智能世界末日没有到来,改变人工智能道德规范也会对社会以及部署这些人工智能系统的企业构成巨大风险。
这些风险的核心是技术固有的因素——例如,特定的人工智能系统如何得出给定的结论,称为“可解释性”——以及企业使用人工智能的特有因素,包括依赖有偏见的数据集或部署没有适当治理的人工智能。

虽然人工智能可以通过多种方式为企业提供竞争优势,从发现被忽视的商业机会到简化成本高昂的流程,但如果不充分关注人工智能治理、道德和不断发展的法规,人工智能的缺点可能是灾难性的。

以下现实世界的实施问题突出了每个 IT 领导者在整合其公司的 AI 部署战略时必须考虑的突出风险。

公共关系灾难


上个月,Motherboard 获得的一份泄露的 Facebook 文件显示,Facebook 不知道其用户数据发生了什么。

“对于我们的系统如何使用数据,我们没有足够的控制和解释能力,”该文件称,该文件归于 Facebook 隐私工程师。

该文件称,现在该公司正面临“入境法规的海啸”,如果没有对基础设施的多年投资,它就无法解决这个问题。该文件称,该公司尤其对其解决机器学习和人工智能应用基本问题的能力缺乏信心。 “这是一个新的监管领域,我们很可能会在未来几年看到新的要求。我们对我们的解决方案是否足够的信心非常低。”

这一事件让我们深入了解了在没有充分数据治理的情况下部署人工智能的任何企业可能出现的问题,这只是一系列备受瞩目的公司中的最新一起,这些公司在头版看到了与人工智能相关的公关灾难。

2014 年,亚马逊开发了人工智能驱动的招聘软件,压倒性地偏爱男性候选人。

2015 年,谷歌的照片应用将黑人照片标记为“大猩猩”。没有从这个错误中吸取教训,Facebook 不得不为去年秋天的类似错误道歉,当时它的用户被问到他们是否想“继续看有关灵长类动物的视频”后观看了一个黑人男性的视频。

微软的 Tay 聊天机器人于 2016 年在 Twitter 上发布,很快就开始发布种族主义、厌恶女性和反犹太主义的信息。

律师事务所 Loeb & Loeb 的技术和采购实践部主席 Ken Adler 表示,糟糕的宣传是公司在人工智能项目方面最大的担忧之一。

“他们担心实施一种他们不知道的解决方案,这种解决方案具有内在的偏见,”他说。 “它可以是任何东西——种族、民族、性别。”

负面社会影响


有偏见的人工智能系统已经造成伤害。歧视女性的信用算法或未能向某些员工推荐领导力课程的人力资源推荐工具将使这些人处于不利地位。

在某些情况下,这些建议实际上可能是生死攸关的问题。 Insight 的杰出工程师 Carm Taglienti 曾经在一家社区医院工作过。

Taglienti 说,来到医院急诊室的患者通常遇到的问题超出了他们特别关注的问题。 “如果你来医院抱怨胸痛,可能还有血液问题或其他问题,”他解释道。

这家特定医院的数据科学团队已经建立了一个系统来识别此类合并症。这项工作至关重要,因为如果患者进入医院并出现第二个可能致命的问题,但医院没有发现它,那么患者可能会被送回家并最终死亡。

然而,问题是,考虑到健康考虑和医院资源的限制,医生应该在什么时候根据人工智能系统的建议采取行动?如果算法发现的相关性很弱,医生可能会让患者接受不必要的检查,这对医院来说是浪费时间和金钱。但是,如果没有进行测试,并且出现了一个可能证明是致命的问题,那么医院为其社区提供的服务价值就会产生更大的问题,尤其是如果它的算法提出了这种可能性,尽管这种可能性很小。

他说,这就是道德的用武之地。 “如果我尝试做功利主义的方法,对大多数人最有利,我可能会对待你,无论你是否需要它。”

但在资源有限的情况下,这不是一个实际的解决方案。

另一种选择是收集更好的训练数据来改进算法,从而使推荐更加精确。 Taglieti 说,医院通过加大对数据收集的投资来做到这一点。

但他补充说,医院也找到了重新平衡资源等式的方法。 “如果数据科学告诉你你错过了合并症,那一定是医生看病吗?我们可以改用执业护士吗?我们可以自动化吗?”

医院还创建了一个病人调度机制,这样没有初级保健提供者的人可以在急诊室不太忙的时候去看急诊室医生,比如在工作日的中间。

“他们能够专注于底线,并且仍然使用 AI 建议并改善结果,”他说。

未通过监管要求的系统


Genpact 首席数字策略师 Sanjay Srivastava 曾与一家大型全球金融服务公司合作,该公司希望使用人工智能来改进其贷款决策。

Srivastava 说,银行在做出某些决定时不应该使用某些标准,例如年龄或性别,但仅仅从 AI 训练数据中提取年龄或性别数据点是不够的,因为数据可能包含其他信息这与年龄或性别有关。

“他们使用的训练数据集有很多相关性,”他说。 “这使他们面临比他们计划的更大的风险足迹。”

银行最终不得不返回训练数据集并追踪并删除所有其他数据点,这一过程使他们推迟了几个月。

他说,这里的教训是确保构建系统的团队不仅仅是数据科学家,还包括各种主题专家。 “永远不要只和数据科学家一起做人工智能项目,”他说。

医疗保健是另一个未能满足监管要求的行业,可能会将整个项目送回起点。这就是一家致力于开发 COVID 疫苗的全球制药公司所发生的事情。

“许多制药公司使用 AI 来更快地找到解决方案,”安永全球金融服务风险负责人 Mario Schlener 说。他说,一家公司在构建算法方面取得了一些不错的进展。 “但由于缺乏围绕他们的算法开发过程的治理,这使得开发变得过时了。”

而且由于该公司无法向监管机构解释算法是如何工作的,他们最终在大流行高峰期间失去了九个月的工作。

GDPR 罚款


欧盟通用数据保护条例是世界上最严厉的数据保护法律之一,罚款高达 2000 万欧元或全球收入的 4%——以较高者为准。自该法律于 2018 年生效以来,已开出 1,100 多张罚款单,而且总数还在不断上升。

GDPR 和全球范围内出现的类似法规限制了公司使用或共享敏感私人数据的方式。由于人工智能系统需要大量数据进行训练,如果没有适当的治理实践,在实施人工智能时很容易违反数据隐私法。

O'Reilly Media 新兴技术内容副总裁 Mike Loukides 说:“不幸的是,似乎许多组织对 AI 治理持‘我们会在需要时添加它’的态度。” “等到你需要它是保证你为时已晚的好方法。”

欧盟也在制定一项人工智能法案,该法案将制定一套专门针对人工智能的新法规。 AI 法案于 2021 年春季首次提出,最快可能在 2023 年获得批准。不遵守将导致一系列处罚,包括高达全球收入 6% 的经济处罚,甚至高于 GDPR。

不可修复的系统
今年 4 月,由通用汽车支持的自动驾驶汽车公司 Cruise 运营的一辆自动驾驶汽车因未开前灯行驶而被警方拦下。一名困惑的警察走近汽车并发现它没有司机的视频迅速传播开来。

汽车随后开走,然后又停下,让警察追上。弄清楚汽车为什么这样做可能很棘手。

“我们需要了解自动驾驶汽车的决策是如何做出的,”Capgemini 人工智能和分析副总裁 Dan Simion 说。 “汽车制造商需要保持透明并解释发生了什么。透明度和可解释性是道德人工智能的组成部分。”

很多时候,人工智能系统是高深莫测的“黑匣子”,几乎无法深入了解它们是如何得出结论的。因此,找到问题的根源可能非常困难,甚至可以解决问题是否可以解决的疑问。

“最终,我认为法规将会出台,尤其是当我们谈论自动驾驶汽车时,以及其他行业的自主决策时,”Simion 说。

但他说,公司不应该等待在他们的人工智能系统中建立可解释性。从长远来看,从头开始构建可解释性更容易、更便宜,而不是试图在最后加上它。此外,Simion 说,构建可解释的 AI 有直接、实用的商业原因。

除了能够解释人工智能系统为什么会这样做的公共关系好处之外,拥抱可解释性的公司还能够更轻松地解决问题和简化流程。

问题出在模型中,还是在其实现中?是算法的选择,还是训练数据集的不足?

为其部分或全部人工智能系统使用第三方工具的企业还应与供应商合作,要求其产品具有可解释性。

员工情绪风险


当企业构建侵犯用户隐私、有偏见或危害社会的人工智能系统时,它会改变他们自己的员工对它们的看法。

波士顿咨询集团首席人工智能道德官史蒂夫米尔斯表示,员工希望在与他们有共同价值观的公司工作。 “大量员工因道德问题离职,”他说。 “如果你想吸引技术人才,就必须担心如何解决这些问题。”

根据 Gartner 今年早些时候发布的一项调查,自大流行开始以来,员工对工作的态度发生了变化。近三分之二的人重新考虑了工作在他们生活中的位置,超过一半的人表示,疫情让他们质疑日常工作的目的,让他们想为社会做出更多贡献。

去年秋天,Blue Beyond Consulting 和 Future Workplace 的一项研究证明了价值观的重要性。根据调查,如果公司价值观与他们的价值观不一致,52% 的工人会辞职——只有四分之一的人会接受。此外,76% 的人表示他们希望他们的雇主成为社会中的一股造福力量。

尽管公司可能出于监管原因或避免不良宣传而启动 AI 道德计划,但随着这些计划的成熟,动机会发生变化。

“我们开始看到的是,也许他们不是以这种方式开始的,但他们认为这是一个目的和价值观问题,”米尔斯说。 “这成为一个社会责任问题。公司的核心价值。”

原文:https://www.cio.com/article/100000595/6-business-risks-of-shortchanging-ai-ethics-and-governance.html

本文:https://cio.ceo/6-business-risks-shortchanging-ai-ethics-and-governance