跳转到主要内容

文章分类

2024年3月15日

2024年3月13日,欧洲议会通过了备受期待的《欧洲人工智能法案》,这是首次在全球范围内对人工智能进行全面监管。《人工智能法案》正式名称为《欧洲议会和理事会制定人工智能统一规则的条例提案》,概述了人工智能的广泛监管框架,并于2021年4月由欧盟委员会首次提出。自那以后,该立法经过了一轮又一轮的修订,最终版本将在《欧盟官方公报》发表后三十(30)天生效,不同条款的遵守期限错开。

《人工智能法》通常采用基于风险的方法来部署和使用人工智能系统。被视为构成“不可接受”风险水平的人工智能系统被彻底禁止,其他人工智能系统则被置于风险等级内,并承担相应的合规义务。义务因业务是系统的提供者(开发人员)还是部署者而异,大部分义务都落在提供者身上。

此外,《人工智能法》可能具有广泛的域外影响。与《通用数据保护条例》(GDPR)类似,《人工智能法》涵盖了在欧盟“投放市场”或“投入服务”人工智能系统的任何实体。该法案适用于欧盟“人工智能系统的进口商和分销商”,以及“使用[人工智能]系统产生的输出”的人工智能系统供应商和部署商。《人工智能法案》还规定了严厉的处罚,这使得企业必须仔细评估其对人工智能的使用是否属于《人工智能法》的范围。

下面,我们对《人工智能法》的范围和每个风险分类级别的义务进行了高级别概述。

范围

 

经过有争议的辩论,谈判者将人工智能系统广义地定义为“一种基于机器的系统,旨在以不同程度的自主性运行,在部署后可能表现出适应性,并且为了明确或隐含的目标,从其收到的输入中推断出如何产生输出,如预测、内容、建议或决策,这些输出可能会影响物理或虚拟环境。”

不可承受的风险

 

被认为构成“不可接受”风险的人工智能系统被禁止。如果目前正在使用,这些系统必须在《人工智能法案》生效后的六(6)个月内关闭。人工智能系统通过以下方式构成“不可接受”的风险:

  • 使用潜意识的、操纵性的或欺骗性的技术,扭曲行为并损害知情决策;
  • 利用与年龄、残疾或社会经济环境有关的脆弱性;
  • 利用推断敏感属性(例如种族、政治观点)的生物特征分类系统;
  • 利用社会评分;
  • 仅根据个人特征或性格特征来评估个人犯罪的风险(除非辅以基于某些标准的人类评估);
  • 通过从互联网或CCTV无目标地抓取面部图像来编译面部识别数据库;
  • 在工作场所或教育环境中推断情绪,医疗或安全原因除外;
  • 为执法目的在公共场所实施“实时”生物特征信息识别(有重大例外)。

高风险

下一个风险类别包括对基本权利、公共安全或公共健康构成“高风险”的人工智能系统,但可以通过使用适当的保障措施来减轻风险。被归类为“高风险”的系统包括那些使用人工智能进行以下操作的系统:

  • 确定接受教育或职业培训的机会(例如,评分);
  • 运营运输系统等关键基础设施;
  • 提供产品的安全组件;
  • 管理工人或评估就业情况,例如评估求职者;
  • 评估获得公共或私人福利和服务的资格;
  • 研究、解释法律并将其应用于事实或其他争议解决方案;
  • 提供移民、庇护或边境管制服务;
  • 履行执法职能(例如,评估证据)。

高风险系统并没有被禁止,但根据《人工智能法》使用这些系统需要供应商进行复杂且重复的评估,对于某些系统,需要向欧盟当局进行注册。重要的是,提供者可以证明,属于高风险类别的系统不会对基本权利、公共安全或公共健康造成重大风险。该系统仍必须进行注册和评估,但如果提供商能够证明其人工智能系统符合以下标准之一,则该系统不会被指定为高风险系统:

  • 人工智能系统旨在只执行一项狭窄的程序性任务;
  • 人工智能系统改进了以前由人类完成的活动;
  • 人工智能系统分析决策模式,但不会影响或取代人类做出的决策;和/或
  • 人工智能系统在用于高风险系统的系统中执行准备任务。

通用人工智能(GPAI)模型

GPAI模型的处理方式在谈判中引发了广泛的争论。最后案文采用了一种分级办法,规定了不同的遵守义务。《人工智能法案》将GPAI模型定义为“人工智能模型,包括在大规模使用自我监督使用大量数据进行训练时,该模型具有显著的通用性,能够胜任执行各种不同的任务,无论该模型在市场上的放置方式如何,并且可以集成到各种下游系统或应用程序中。”《人工智能法》指出,“尽管人工智能模型是人工智能系统的重要组成部分,但它们本身并不构成人工智能系统。”

该法案通常为GPAI模型提供规则,并对构成“系统性风险”的GPAI模型提出了更高的要求。当模型集成到人工智能系统中时,这些义务将适用。

一般来说,所有GPAI模型必须:

  • 实施透明度措施,包括公开用于培训模型的内容摘要;
  • 向供应商披露模型的技术文件,包括培训和测试过程以及模型评估的结果;和
  • 采取一项政策来证明其遵守了版权法。

开放式GPAI模型通常不受这些要求的约束,除非该模型存在系统性风险。

具有“系统性风险”的GPAI模型还必须:

  • 进行模型评估;
  • 评估和减轻系统性风险;和
  • 确保该模型具有足够的网络安全措施。

有限风险

根据《人工智能法案》,被视为具有“有限”风险的系统的义务最低。有限风险系统包括用户可能没有意识到自己正在与人工智能交互的系统,如聊天机器人或人工智能生成的内容。这些系统的义务围绕着对最终用户的透明度。

作为第一部全面的人工智能法规,加上其潜在的广泛域外影响,《人工智能法案》将对在全球运营的美国企业产生重大影响。企业应仔细评估该法案的范围,以确定其对人工智能系统的使用是否受该法案要求的约束。