观韬解读 | 全球人工智能监管系列解读(一)——美国监管体系评议
作者:王渝伟 张烜 徐倩怡 张可妮
伴随人工智能(AI)飞速发展、以及中国企业出海浪潮的大背景,全球范围内关于人工智能的法律法规和政策指引正逐步成型。因此,我们汇总和梳理了全面的、涉及境外主要经济体的人工智能法律与政策分析,并将作为完整的系列逐步发布,以期为企业出海、以及后续在人工智能领域的进一步法律研究,提供基础支持和指引。
本篇为该系列的第一篇,对美国在人工智能领域的法律法规、政策进行归纳和解读。
引言
如今,人工智能在娱乐、医疗、教育等诸多领域都有着广泛的应用。例如,其在新媒体领域的应用可以为用户提供更加丰富的使用体验,在医疗领域的应用可以辅助进行医疗诊询,在教育领域的应用可以帮助师生实现个性化教学辅导。然而基于算法脆弱性、透明度低等弊端,人工智能的安全风险日益凸显。
在国际舞台上,美国人工智能技术的发展始终处于领先地位,而关于深度伪造、隐私侵犯以及其他可能对公民权利造成的妨碍风险,也一直是美国民众关注的热点问题。对此,政府积极回应,多次举行听证会,提出《安全创新框架》《AI立法框架》《2023年人工智能研究、创新和问责法案》等多项安全监管方案以做出应对。然而,联邦政府在立法环节却偏向保守,导致最终以法案形式颁布的强制性规范并不多。这部分立法阻力可能源于美国政府对于技术停滞的恐慌超过了对潜在风险的担忧,但从客观角度来看,这也为市场和技术的发展保留了相对广阔的空间。现将主要的监管及指引文件梳理如下:
通过梳理可以看到,截至目前美国虽未针对人工智能颁布普遍适用的强制性联邦立法,但已逐步形成多层级灵活监管机制:在联邦层面,政府协同国家标准与技术研究院(NIST)等机构陆续颁布了《人工智能权利法案蓝图》和《人工智能风险管理框架》等AI监管规则和标准,通过明确安全性、公平性、透明性等原则建立非强制性监管体系,规范人工智能技术的发展和应用,避免其带来不可控的风险和负面影响;在州政府层面,已有超过三十个州正在推动人工智能的监管规范,并处于提案或颁布的不同立法阶段,强调落实AI模型广泛应用背景下对消费者权益和隐私权的保护以及对AI系统透明度和生成内容标识等方面的重点监管。
下文将分别从联邦层面和州层面双线分析美国人工智能监管的具体措施,剖析重点文件的规制思路,从而形成对美国人工智能治理体系的整体认知,并结合宏观背景以期对其未来的监管趋势和前景进行展望。
一、联邦层面监管举措
2023年以来,美国联邦政府在人工智能监管方面持续发力,虽未颁布联邦专门立法,但在全政府协同和分布式治理模式下搭建起了美国式AI监管路线。白宫科技政策办公室发布《人工智能权利法案蓝图》,旨在以公平与隐私为重点预防滥用风险。该蓝图确定了五项原则,包括建立安全和有效的系统、避免算法歧视、保护数据隐私、系统的通知和解释要清晰及时可访问以及设计自动系统失败时的替代方案等。这为自动化系统的设计、使用和部署提供了指导,保护了人工智能时代美国公众的利益。
美国国家标准与技术研究院发布《人工智能风险管理框架》,帮助将风险管理原则转化为实践。该框架将可信度考量纳入设计、开发、使用和评估AI产品、服务和系统中,为组织提供了管理AI风险、提升AI系统可信度的方法,促进了负责任地开发和使用AI系统。框架分为两部分,第一部分分析了AI的风险和可信性,概述了可信的AI系统的特征;第二部分概述了四个具体功能:治理、映射、衡量和管理,帮助组织在实践中解决AI系统的风险。
2023年10月,时任美国总统拜登签署颁布《关于安全、可靠、可信地开发和使用人工智能的行政命令》,旨在建立人工智能安全和保障的新标准,以保护美国用户隐私、促进公平和公民权利,确保美国在人工智能领域的领先地位,维护国家的安全和利益。确立安全新标准等八项行动;另外,该行政令要求领先的人工智能系统开发者与政府分享安全测试结果等关键信息,令政府可以更好地了解人工智能系统的安全性,及时发现潜在风险,并采取相应的措施。同时,开发者也可以从政府的反馈中获得改进的建议,提高系统的安全性;建立生物合成筛选新标准;建立检测AI生成内容和验证官方内容的标准及最佳实践;建立先进的网络安全计划;开发AI工具查找和修补关键软件漏洞,以期防止和规避潜在的生物安全、网络安全、系统安全威胁和风险。
人工智能伦理问题是美国政府的治理重点,核心在于解决算法歧视、数据隐私保护和特殊群体权益保护等问题。政府致力于采取措施消除算法偏见,保护民众免受歧视,同时强调数据收集和使用的合法性与安全性,优先保护公民数据隐私,限制敏感数据收集。此外,政府特别关注患者、学生和工人等特殊群体,推动人工智能在医疗、教育和就业领域的负责任使用,以解决相关问题。
然而,该行政命令在发布后也遭到了一系列消极声音的质疑。部分人认为监管举措效力值得商榷,公司可通过更换技术路径规避。例如,一些科技企业认为行政命令可能会限制创新,增加合规成本,他们可能会寻找其他技术解决方案来避免受到监管的影响。还有人担忧更严格监管会造成准入障碍,不利于新小公司竞争。新小公司可能缺乏资源来满足严格的监管要求,这可能会使他们在市场竞争中处于劣势。也有人对行政命令的合法性提出质疑。他们认为行政命令可能超出了总统的权力范围,或者在制定过程中没有充分考虑各方利益。
二、州层面监管政策
州政府在立法方面发挥先导作用,在通信、深度伪造、消费者权益保护等具体领域的监管,州政府往往先于联邦政府做出反应。在过去五年时间里,共有近三十个州通过了数十项地方立法,在一定程度上填补了国会的立法空白。
重点州的具体措施
1. 科罗拉多州
科罗拉多州采用分层的、基于风险的人工智能政策方法。州长贾里德波利斯于今年5月17日签署了由科罗拉多众议院颁布的SB 205法案,这是美国首个在州一级对人工智能及其应用提出具体要求的综合性监管立法。
该法案借鉴了欧盟人工智能法的理念,对“高风险人工智能系统”进行特别规制。高风险系统是指在教育、就业、金融服务、政府服务、医疗、住房、保险或法律服务等关键领域进行重大决策影响的人工智能系统。法案规定,高风险人工智能系统的部署者必须实施风险管理政策和程序,以识别、记录和减轻算法歧视的风险。此外,部署者还需要完成高风险人工智能系统的影响评估,并定期进行更新和监测。法案明确了开发者和部署者的职责,要求向消费者清楚地公开其使用的人工智能系统的具体信息,包括系统的功能、限制和可能的风险。同时,总检察长负责执行这些规定,并有权制定必要的规则以确保法规得到妥善实施。
2. 田纳西州
田纳西州是第一个保护配音演员免受未经授权的人工智能克隆的州。经州长签署后《确保相似声音和图像安全法案》于2024年7月1日正式生效,要求未经许可不得使用人工智能模仿艺术家的声音。保护音乐家免遭人工智能技术未经授权使用其声音以及防止音频深度伪造和声音克隆。特别增加了对未经许可复制表演者声音的处罚。这一举措体现了田纳西州对艺术家权益的保护,以及对人工智能技术在特定领域可能带来侵权问题的关注。
3. 加利福尼亚州
值得瞩目的是,2024年9月加利福尼亚州州长加文·纽瑟姆签署了数十项与人工智能相关的安全法案,监管内容包括:AI透明度监管,政府的生成式AI使用要求、与选举相关的AI生成的深度伪造内容立法、反对儿童性虐待立法、娱乐行业保护、医疗行业AI使用和对人工智能系统中的个人信息及消费者隐私的保护。然而,加利福尼亚州在人工智能监管方面也面临着一些障碍。州长否决了法案SB 1047,该法案原本会对开发人工智能的公司提出广泛的安全和透明度要求。另一项针对社交媒体上人工智能深度伪造内容分销商的加利福尼亚州法案今年秋天被搁置,等待诉讼结果。
三、美国人工智能监管特点
与欧盟对比,美国政府将人工智能监管服务于在该领域长期保持战略优势的大国竞争需求。其目的在于通过较为灵活的监管方式,为美国的人工智能企业尤其是巨头企业创造有利的发展环境,从而确保美国在人工智能技术方面的领先地位,以在全球竞争中占据优势。欧盟则希望通过影响全球标准的制定来保护本土市场和企业,致力于打造人工智能监管的全球模板。欧盟的《人工智能法案》采取风险分级制度,对不同风险等级的人工智能系统进行分类监管,以确保在其市场上部署和使用的人工智能系统的安全性,并向世界提供符合欧盟价值标准的监管体系。
相比之下,欧盟在人工智能领域的监管体系更为健全且相对严格,以横向监管为基础,分类分级作为风险规制主要方式,还对高风险系统采取了较为严格的强制性监管,要求企业在进入欧洲市场前必须经过内部影响评估、治理机构合格评定、注册录入欧盟高风险数据库、签署符合性声明等四个步骤。同时,对违规公司处以高额罚款。美国相关立法进程显著滞后,更多地依赖于倡议性文件作为应对策略,并秉持自愿性原则。目前,美国仅在州级层面对人工智能产业实施立法监管,且各州发展水平参差不齐。尽管联邦政府部门已阐述了发展人工智能框架的立场和原则,但尚未构建起全面综合的立法监管体系。美国在人工智能治理方面强调“弱监管”和“软治理”,旨在为人工智能技术的发展清除不必要的障碍。
四、总结与展望
当前,美国国内对于人工智能治理的分歧依旧明显。不同行业及社会角色仍未在监管人工智能的最佳方法这一问题上达成一致认知。高新科技企业、法律界人士以及普通民众对于人工智能的监管范围、力度和方式都有着不同的看法。这种分歧使得短期内难以形成统一的监管共识,为全面的人工智能立法带来了巨大挑战。
在人工智能立法中,要找到一个合适的平衡点并非易事。过于模糊的法律在司法实践中可能面临频繁的挑战,因为其缺乏明确的指导,难以确保法律的有效执行。而过于具体的法律又可能因实践的多样性而缺乏适用性,无法涵盖所有可能的情况。这种矛盾使得在广泛的人工智能立法中求得平衡变得极为困难。目前来看,短期内美国进行全面人工智能立法可能性不大。更有可能的是,不同政府机构在其特定管辖范围内制定有针对性的法律或规则,以应对人工智能带来的各种问题。在现阶段创造一个鼓励合作和实验的环境显得尤为重要。人工智能技术仍在快速发展中,过于严格的监管可能会抑制创新,阻碍技术的进步。通过创造合作实验环境,可以让不同的利益相关者共同参与,探索人工智能的发展路径,在安全和发展之间找到平衡。例如,政府可以与科技企业、学术界等合作,共同开展人工智能的研究和实验,以更好地理解人工智能的风险和潜力,为未来的监管提供依据。此外,国际合作也将在人工智能监管中发挥重要作用,以应对人工智能带来的全球性挑战。
引用:
● 中国科学院,美国家标准与技术研究院发布《人工智能风险管理框架》
● 邢亚杰、戚凯,论当前美国政府的人工智能监管政策
● 石烁,美国如何监管人工智能?
● 阎德学、郜晗轩,“软法”先行拜登政府人工智能治理的动因、挑战及前景
● 安全内参,美国《加州AI安全法案》被否:AI监管面临的问题与展望
● 邢亚杰、戚凯:论当前美国政府的人工智能监管政策
● 安全内参,静水流深:美国人工智能治理的特征、趋势与启示
● 安全内参,从美国首部人工智能监管立法生效看联邦人工智能法的未来
● 享法互联网JoyLegal,从ChatGPT思考人工智能监管:“基于风险的方法”