观韬解读 | 大模型出海关注点—— 欧盟《人工智能法案》解读二
作者:王渝伟 张恩泽
前言:
2024年5月21日,欧盟理事会正式批准了《人工智能法案》(以下简称“AI法案”),这是全球首部全面规制人工智能的法规。在欧洲议会和理事会主席签署后,该法案将在欧盟官方公报上公布,并在公布20天后生效。此次欧盟委员会通过的《人工智能法案》,不仅在人工智能技术和应用的监管上有着开创性的意义,也将对大模型技术的国际化应用产生重要影响。对于希望拓展国际市场的企业来说,如何应对和适应这一新法规也将成为关注焦点。基于这一背景,我们紧跟国际立法热点,继前篇的立法历史沿革之后,从风险分类分级角度着手解读欧盟《人工智能法案》,以期为中国企业大模型“出海”提供相应合规指引。
一、AI法案的适用主体及其责任内容
(一)适用主体
AI法案的适用主体范围相当广泛,其按照AI系统的全生命周期将适用主体分为AI系统的提供者(providers)、部署者(deployers)、进口商(importers)和分销商(distributors)等,具体如下表所示:
序号 | 欧盟《人工智能法案》的适用主体 |
1 | 在欧盟将人工智能系统投放市场或投入使用或将通用人工智能模型投放市场的提供商,无论其设立或位于哪里; |
2 | 在欧盟设立或位于欧盟的人工智能系统使用商; |
3 | 设立或位于第三国的人工智能系统提供商和使用商,且人工智能系统所产生的输出在欧盟使用; |
4 | 人工智能系统的进口商和分销商; |
5 | 将人工智能系统与其产品一起以自己的名称或商标投放市场或投入使用的产品制造商; |
6 | 不在欧盟设立的人工智能系统提供商的授权代表; |
7 | 位于欧盟的受影响人士 |
参照上表总结,该法案具有广泛的域外适用效力,无论企业是否在欧盟国家设立提供人工智能服务的相关机构,只要其事实上向欧盟国家提供了人工智能服务,都将被包含在法案规制的主体范围内,因此应引起相关主体的高度关注。
当然,法案也规定了一些适用主体的例外情形,包括但不限于:(1)仅为科学研究和开发目的而专门开发和投入使用的人工智能系统或人工智能模型及其输出;(2)在纯粹个人非专业活动中使用人工智能系统的自然人;(3)专门为军事、国防或国家安全目的而投放市场、投入使用的人工智能系统(无论开展这些活动的实体属于何种类型)。因此,在当前语境下,涉及欧盟国家的跨国使用AI智能系统及跨国科学研究等个人行为将不受该法案约束。
(二)责任内容
AI法案针对不同类别的主体规定了不同的义务承担内容,不同主体与其对应的责任内容可参见下图:
责任主体 | 定义 | 主体的相关责任 |
AI系统提供者 | 开发或拥有已经开发的AI系统,以自己的名义或商标将其投放市场或在欧盟投入服务的自然人和法人。 | 在提供高风险AI系统和有限风险AI系统时均需承担AI法案项下相关责任。 |
AI系统部署者 | 在欧盟境内在其权限/被授权范围内使用AI系统的自然人/法人。 | 在使用高风险AI系统和有限风险AI系统时均需承担AI法案项下相关责任。 |
AI系统进口商 | 欧盟内实际存在或成立的任何自然人或法人,其投放市场的产品上标有欧盟外自然人或法人的名称或商标。 | 仅在进口欧盟境外的高风险AI系统时承担AI法案项下的责任。 |
AI系统分销商 | 供应链中提供进口商之外的在欧盟市场中提供AI系统且不改变其系统属性的自然人/法人。 | 仅在分销高风险AI系统时承担AI法案项下的责任 |
参照上图总结,各主体承担责任的条件与其提供、部署、进口、分销的AI系统的风险等级高度相关。我们理解,对AI系统的风险等级划分管理是欧盟此次AI法案中规定的亮点内容,我们将在下文进行详尽阐述。
二、AI法案的风险分类分级制度
欧盟AI法案采用分类分级的风险规制路径,在制定了统一监管框架的基础上,以风险等级为导向,分别识别和评估不同的AI系统可能引发的风险。法案中将AI系统分成了四个风险级别,分别是不可接受风险类、高风险类、有限风险类和最小风险类,每个风险类别都有其对应的应用场景和监管措施,具体分类标准如下所示:
1、不可接受风险类人工智能系统
AI法案严格禁止某些人工智能行为。从广义上讲,该法案禁止任何试图操纵人类行为、利用人性弱点或支持政府社会评分的人工智能系统。具体而言,以下人工智能系统将被禁止:
Ø使用潜意识的、操纵性的、或欺骗性的手段来扭曲行为,损害知情决策的能力,造成重大伤害;
Ø利用与年龄、残疾或社会经济状况有关的弱点来扭曲行为,造成重大伤害;
推断敏感属性(种族、政治观点、工会会员身份、宗教或哲学信仰、性生活或性取向)的生物识别分类系统,但合法获取的生物识别数据集的标记或过滤,以及执法部门对生物识别数据进行分类的情况除外;
Ø根据社会行为或个人特征对个人或群体进行评估或分类,从而对这些人造成不利或不利待遇;
Ø仅根据特征分析或个性特征评估个人实施刑事犯罪的风险,除非是根据与犯罪活动直接相关的客观的、可核实的事实来加强人工评估;
Ø通过无针对性地从互联网或闭路电视录像中抓取面部图像来编制面部识别数据库;
Ø在工作场所或教育机构进行情绪识别,除非出于医疗或安全原因;
Ø在公共场所为执法部门进行“实时”远程生物识别(RBI),但以下情况除外:寻找失踪人员、绑架受害者和被贩卖或遭受性剥削的人;
Ø防止对生命的重大和紧迫威胁,或可预见的恐怖袭击;或识别严重犯罪(如谋杀、强奸、武装抢劫、毒品和非法武器贩运、有组织犯罪和环境犯罪等)的嫌疑人。
2、高风险类人工智能系统
对健康、安全、基本权利和法治构成重大威胁将被认定为属于高风险类的人工智能系统。法案中规定的大部分义务均适用于高风险的人工智能系统。
这类系统可以进一步分为两类,一类是人工智能系统作为安全部件的产品或人工智能系统本身作为产品,受欧盟安全立法规范,且需要根据此类法律进行第三方符合性评估。另一类是法案附件3中明确指定为高风险的人工智能系统,包括用于以下领域的人工智能系统:
Ø用于未被禁止的生物识别系统,包括推断受保护特征的系统、情感识别系统和远程生物识别系统(不包括对个人的生物识别验证);
Ø用于管理关键基础设施;
Ø用于教育和职业培训;
Ø用于就业、员工管理和自营职业机会;
Ø用于获得和享受基本私人服务以及基本公共服务和福利,如医疗保健或信贷(但用于金融检测欺诈的除外);
Ø用于执法;
Ø用于移民、庇护和边境管制管理;
Ø用于司法和民主进程。
如上文所述,如果人工智能系统不会对自然人的健康、安全或基本权利造成重大损害风险,包括不会对决策结果产生实质性影响的,则不会被视为高风险系统。在将这部分属于附件3但被视为非高风险的人工智能系统投放市场之前,提供商必须将其风险评估记录在案,并在欧盟数据库中注册该系统。前述评估应考虑到可能造成伤害的严重性及其发生的概率。如果人工智能系统符合某些情况,例如,如果该系统只是为了执行狭义的程序任务或改善先前完成的人类活动的结果,则该系统可能不会被认定为高风险系统。然而,如果人工智能系统会对自然人进行特征分析,则该系统始终会被认定为高风险系统。
另外,所有使用高风险人工智能系统的企业都必须履行广泛的义务,包括满足有关透明度、数据质量、记录保存、人工监督和稳健性的具体要求。在进入市场之前,它们还必须接受符合性评估(Conformity Assessments),以证明它们满足法案的要求。公民将有权提交有关人工智能系统的投诉,并获得对基于高风险人工智能系统、影响其权利的决定的解释。
3、有限风险类人工智能系统
AI法案中将该有限风险类人工智能系统定义为不会构成任何严重威胁的系统,与其相关的风险主要在于系统透明度。2021年AI法案提案第52条规定了有限风险AI系统的特殊/额外透明度义务,2022年AI法案的妥协版本对此进一步完善,2023年AI法案的折衷草案对此无更新。故根据2021年AI法案提案序言5.2.4的解释,透明度义务旨在应对有限风险AI系统的具体操纵风险(Specific Risk of Manipulation),保障人们能够在充分知情的情况下进行选择或退出特定场景。例如,在使用聊天机器人等人工智能系统时,应让人类意识到他们正在与一台机器进行交互,以便他们在知情的情况下决定是否继续。提供商还必须确保人工智能生成的内容是可识别的。此外,人工智能生成的文本在发布时必须标明是人工生成的,这也适用于构成深度伪造的音频和视频内容。
4、最小风险类人工智能系统
法案允许自由使用最小风险类的人工智能系统,包括人工智能电子游戏或垃圾邮件过滤器等应用。欧盟目前使用的绝大多数人工智能系统都属于这一类。
5、针对各类系统的监管要求
欧盟将AI系统分为不可接受的风险、高风险、有限风险以及极低风险四类,针对每一类AI系统,AI法案采取了不同的监管策略,并配以具体的制度使得监管可执行落地。具体而言,针对不可接受风险的AI系统,欧盟禁止任何企业或个人进行部署;针对高风险AI系统,欧盟允许相关主体在履行事前评估等义务后投放市场或投入使用,并进行事中、事后的持续监测;针对有限风险的AI系统,欧盟虽然不要求相应主体履行事前评估等义务,但其仍需遵循相应的透明度义务;针对极低风险AI系统,相应主体则可依据自由意志部署和使用。
本团队实习生张恩泽亦参与本文撰写。