观韬视点 | 生成式AI发展与监管白皮书(五):发展治理“双轮驱动”,“世界之问”下的中国方案
白皮书出品团队:观韬中茂律师事务所X南财合规科技研究院
白皮书撰写者:王渝伟 杨欣如 周丹 钱雨晴 王俊 冯恋阁 郑雪 温泳珊 林婉娜 罗洛
2017年,人工智能第一次被写入政府工作报告。报告指出,要加快人工智能等技术的研发和转化,培育壮大新兴产业。6年间,这一产业发展突飞猛进。今年2月,工信部相关数据显示,我国人工智能核心产业规模达到5000亿,企业数量接近4000家。
不过,技术快速发展为秩序带来新的挑战,生成式AI横空出世后,数据泄露、个人隐私风险、著作权侵权、虚假信息等诸多问题亟待监管治理。
人工智能掀起的第四次工业革命浪潮下,如何平衡产业的安全与发展,俨然已经成为了全球性难题。当前,各国政府和监管机构已开始采取措施加强监管,以确保公众利益和安全。
面对生成式AI的“世界之问”,中国给出了怎样的解决方案?从现有规则来看,我国的治理路径与欧盟和美国不同,在伦理规则和法律法规方面皆有布局,而具体到生成式AI治理,我国强调安全与发展的“双轮驱动”。在这一背景下,未来,生成式AI应用应注意完善的风险治理框架,在保障安全的基础上发展。
一、治理脉络:伦理与法律并行
中国的人工智能治理之路始于2017年。当年7月,国务院发布《新一代人工智能发展规划》,提出人工智能三步走的战略目标,并设置了2020年、2025年及2030年三个时间节点,目标覆盖人工智能技术理论、产业发展、治理体系等领域。
2019年,国家新一代人工智能治理专业委员会在6月、9月先后发布《新一代人工智能治理原则》、《新一代人工智能伦理规范》,前者强调了“发展负责任的人工智能”这一主题,并提出发展相关方需要遵循的八项原则;后者则提出要将“伦理道德”这部“软法”融入至人工智能研发和应用的全生命周期。2020年,全国人大常委会则在立法工作计划首次提及要重视人工智能法律问题。
步入数字经济发展“快车道”,算法歧视、“大数据杀熟”等算法不合理应用问题日渐突出。2021年12月31日,国家互联网信息办公室联合公安部等四部门联合发布了《互联网信息服务算法推荐管理规定》(以下简称“《算法推荐管理规定》”),主要用于规范算法推荐服务提供者在使用包括生成合成类等算法推荐技术提供服务。
2022年,我国各地开始考虑人工智能产业发展问题。在9月,深圳、上海相继发布《深圳经济特区人工智能产业促进条例》和《上海市促进人工智能产业发展条例》,对地方人工智能产业发展和治理提出要求,值得注意的是,两地在治理环节都提到要建立人工智能伦理(专家)委员会、采用风险分类分级机制对人工智能进行管理。
同年11月,为应对元宇宙等概念兴起,AI换脸等深度伪造技术引发的社会事件,监管部门对于深度合成技术应用做出回应,发布《互联网信息服务深度合成管理规定》(以下简称“《深度合成规定》”),对深度合成技术提出一系列要求,其中,将深度合成技术定义为“利用生成合成类算法制作文本、图像、音频等的技术”。
时间来到2023年,ChatGPT的面世和大模型领域的密集动态无疑给人工智能的烈火再添一把新柴。我国在治理上亦有相应动作。4月,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称“征求意见稿”),对生成式AI产品或服务提高者的责任、数据安全等与生成式AI技术密切相关的问题做出回应;5月,国务院发布的2023年度立法工作计划中,人工智能法草案赫然在列。
二、核心思路:发展治理“双轮驱动”
生成式AI影响力逐步扩大,今年以来,各国都在积极探索治理路径。
今年6月,欧洲议会以 499 票赞成、28 票反对和 93 票弃权通过了关于欧盟人工智能法案的谈判立场,欧盟基于风险的生成式AI治理思路逐步确立。美国也在今年以来发布《人工智能风险管理框架》、《国家人工智能研发战略规划》以期更好地发展人工智能,提升未来战略竞争力的一个关键领域。
不同于美国和欧盟采取的治理方式,中国对生成式AI应用的规制思路主要采用目标与问题导向相结合的风险治理框架,既采取措施支持和鼓励生成式AI应用的发展,又针对生成式AI应用场景下可能引发的风险进行规制。 其实,我国针对生成式AI应用的治理经历了一个从“问题导向”向“目标与问题导向相结合”的治理模式的转变。
前文提到,由于算法歧视、“大数据杀熟”等算法不合理应用问题日渐突出,元宇宙、AI换脸等新概念、新技术影响扩大,网信办于2021年、2022年先后发布《互联网信息服务算法推荐管理规定》和《互联网信息服务深度合成管理规定》。 《算法推荐管理规定》与《深度合成管理规定》的治理框架主要以问题为导向,关注包括生成合成类算法服务、深度合成服务在内的生成式AI技术在应用过程中的风险问题,通过制定相关规则和采取措施限制相关方在生成式AI技术应用过程中的风险。 2023年随着生成式AI发展,为规制应用可能诱发的相关风险,7月13日,网信办等六部门联合正式发布了《生成式人工智能服务管理暂行办法》(以下简称“《办法》”),该办法于2023年8月15日正式生效。
与此前的征求意见稿相比,《办法》有较大的思路调整,坚持目标导向和问题导向,单设了“技术发展与治理”章节,同时也新增了不少有力措施来鼓励生成式AI技术发展。比如推动生成式AI基础设施和公共训练数据资源平台建设,促进基础技术的自主创新。并明确了训练数据处理活动和数据标注等要求。
在发展方面,《生成式AI发展与监管白皮书①:新一轮人工智能革命下 中国如何讲述发展故事》中提到,《办法》中提出了多项促进产业发展的举措,而各地此前也有规则发布。
在治理方面,《办法》对生成式人工智能服务提供者提出了多项要求:应当依法开展预训练、优化训练等训练数据处理活动,使用具有合法来源的数据和基础模型;涉及知识产权的,不得侵害他人依法享有的知识产权;涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性。此外,明确了数据标注的相关要求。
不难看出,我国监管部门对于生成式AI应用风险的治理框架采用目标与问题导向相结合的风险治理框架,换言之,就是坚持发展与治理“双轮驱动”的前进方向。《办法》期望在促进生成式AI健康发展的同时,又能够确保生成式AI的规范应用。
技术应当是中立的。通过规制能够更好地促进其良性发展,为其保驾护航。
我国的风险治理框架既不同于美国基本没有限制的风险监管模式,也不同于欧盟多重限制的风险监管模式,其介于二者之间,对于实现风险监管与鼓励科技创新的平衡更具优势。
三、行至何方:建构特色风险治理框架
从我国的治理思路不难看出,针对生成式AI的治理,其根本目的在于保证商业化应用的安全,促进行业健康发展。
近期,创业者服务平台GoDaddy对全美1003家小型企业的调查数据显示,ChatGPT以70%的应用率成为美国小型企业应用最多的生成式AI产品;38%的受访者,在过去几个月里尝试过生成式AI;营销、内容创作、商业建议是企业应用生成式AI最多的3个用例;75%受访者非常满意生成式AI在业务中的表现。
对比之下,国内大模型远没有达到可商用化的程度,或是未能深度切入具体应用场景。目前大模型落地主要以价值增强和效率提升为主,而商业模式层面的落地仍在探索中。
未来,生成式AI商业化应用将需要更高质量的训练数据,面向更多用户和利益相关方,投入更复杂的场景应用。这些因素都会放大生成式AI产品在商业化中各种风险,企业在生成式AI的商业化之路面临更多挑战。
完善的风险治理框架无论从监管者视角还是投资者视角都是关注的重点。OpenAI等知名人工智能企业企业受到监管关注不难发现,一家可持续发展的AI企业必须具备良好的风险治理水平、高效的风险管理能力以及持续的合规风险治理更新和改善能力。要有效利用生成式AI技术,企业首先要解决好风险治理框架的问题。
在本白皮书第三部介绍了美国的AI风险管理框架的实践以及欧盟人工智能法案提出的一些关于AI风险治理可供参考的建议,但是生成式AI商业化应用的开发者仍需要根据自身情况设计一套适合自身的生成式AI商业化应用风险治理框架。
风险控制是治理框架的核心目标导向。技术、商业模式、政策环境等不断变化,风险可能会成为当下最好的治理抓手。白皮书团队认为,为此可以考虑通过如下四个模块来构建、形成开发者针对生成式AI商业应用风险的治理框架。
其一是风险识别模块。生成式AI应用的风险识别是风险治理的起点,正确识别风险来自何方(如知识产权、算法、数据安全以及个人信息等)是解决问题的第一步。其二是风险度量模块。典型的风险衡量方法需要开发者将测量或估计的影响和影响可能性相乘或定性组合为风险评分(风险≈影响 x 可能性)。对风险不切实际的期望可能会导致企业不当分配资源,造成风险分类效率低下或不切实际,或者浪费稀缺资源。其三则是应对策略,开发者可以针对已识别的生成式AI商业化应用相关治理模块,包括协议安排、内部政策、技术性限制、数据治理、动态测试及评估、透明度实践等。最后则是控制措施依据风险应对策略,确定的具体风险控制节点,需要开发者内部具体落实的措施。
此外,白皮书团队还建议可以建构生成式AI应用风险事件库。AI风险事件数据库通过整理和分析生成式AI商业化应用的开发和部署在现实商业领域中造成的或可能造成不良后果或者损害的情况,形成相应数据库。与航空和计算机安全领域的类似数据库一样,生成式AI应用风险事件数据库旨在从经验中学习,以便相关开发者能够预防或减轻不良后果。
陆钇潼 王敏 朱敏婕对白皮书撰写亦有贡献。