跳转到主要内容

如果你想用生成型人工智能让你的客户惊叹,你需要接受负责任的技术思维。

在过去的12个月里,生成型人工智能产生了几乎同等程度的热情和恐惧。我们都对这项技术通过律师考试或创作获奖摄影作品的能力感到惊讶。但这种独创性让许多消费者深感不安,他们可能更愿意知道人类仍然在驾驶。

这给当今许多商业领袖带来了一个难题。使用生成人工智能进行创新有非常真实的机会,但同样有很多消费者对这项技术感到不舒服。如何在不疏远客户群的情况下抓住机遇?

在Thoughtworks,我们希望探索消费者对genAI的态度,并为我们的客户确定前进的道路。好消息是,在我们从全球调查的10000人中,83%的人同意企业可以使用genAI来更具创新性,更好地为他们服务。

但更大比例(93%)的人对genAI有道德顾虑。这些担忧包括令人不安的deepfakes的出现、失去“人情味”的可能性以及对数据隐私的担忧等。

当被问及时,我们的调查受访者表示,他们对部署genAI的企业的三大优先事项是:

  • 清楚地概述如何使用数据
  • 确保没有生成非法内容
  • 披露genAI何时生成内容

与大多数备受瞩目的科技趋势一样,监管机构也迅速施展拳脚。这对许多消费者来说可能是个好消息——事实上,82%的受访者表示,他们认为政府在确保genAI使用安全方面发挥着至关重要的作用。然而,仅仅依靠监管机构并不是实现这一目标的最有效方法。技术——尤其是人工智能——以如此惊人的速度发展,法规几乎不可能跟上。我们经常看到监管机构努力跟上技术的步伐,制定善意但繁琐的立法。企业应该带头公开透明地使用genAI,以及如何在使用genAI时建立信任,而不是等待法规的出台(毫无疑问,他们会这样做)。

这听起来很简单,对吧?但当涉及到genAI时,仅仅有良好的意图是不够的:如果你想建立信任,你需要一个非常深思熟虑的计划来确保道德、公平和包容性的原则。

企业需要采用“负责任的技术”实践,这将为他们提供一个强大的杠杆,使他们能够部署创新的genAI解决方案,同时与消费者建立信任。

负责任的技术是一种哲学,它使组织对技术的使用与个人和社会的利益相一致。它包括开发在产品开发周期的每个阶段都遵守这些原则的工具、方法和框架。这确保了伦理问题在一开始就得到解决。

随着人们意识到genAI等技术如何影响他们的日常生活,这种方法的势头越来越大。甚至像联合国这样的组织也在编纂其负责任技术的方法。

消费者迫切希望组织在使用genAI时负责任且透明。这可能是一个挑战,因为当涉及到透明度时,有很多因素需要考虑,包括从承认人工智能被使用到披露使用了什么数据源、采取了什么措施来减少偏见、系统的准确性,甚至与genAI系统相关的碳足迹。

为了做到透明,您需要以正确的格式提供正确数量的信息,以满足不同受众的需求。这有助于通过三个视角来考虑您的genAI使用:

  • 技术功能:这个系统实际上是做什么的?
  • 沟通功能:开发人员或部署人员说它能做什么?
  • 感知功能:系统的用户认为它能做什么?

这种方法可以帮助以一种支持有意义的透明度和社会责任的方式来巩固genAI系统的复杂性。它可以帮助你与消费者建立信任——他们中的许多人想要genAI能够支持的创新。

文章链接