专业领域
观韬视点
新闻动态
专业人员
办公机构
关于我们
加入我们
专业领域
争议解决 跨境贸易及其合规与救济 环境、社会与治理(ESG) 证券与资本市场 行政法 数字法律与网络合规 公司与并购 反垄断与竞争法 海事海商 破产清算与企业重组 劳动法 能源与基础设施 商业犯罪和刑事合规 金融保险与衍生品 税务 体育和娱乐 房地产与建设工程 私募与投资基金 医疗健康与生命科学 知识产权 家事法和家族财富管理 合规与调查 旅游和酒店 科技与智能技术 矿产资源 国际仲裁
办公机构
北京 上海 西安 成都 大连 深圳 济南 厦门 香港 天津 广州 杭州 悉尼 苏州 纽约 武汉 多伦多 南京 福州 郑州 海口 重庆 合肥 青岛 洛隆 南昌 温州 宁波 太原 昆明 无锡 硅谷 乌鲁木齐 阿拉木图 杜尚别 塔什干 珠海
中文 English
menu
观韬解读|《人工智能拟人化互动服务管理暂行办法(征求意见稿)》合规要点与风险防控
2026-01-13
首页 > 观韬视点 > 解读 > 观韬解读|《人工智能拟人化互动服务管理暂行办法(征求意见稿)》合规要点与风险防控

观韬解读|《人工智能拟人化互动服务管理暂行办法(征求意见稿)》合规要点与风险防控

作者:王渝伟 罗文涛

前言:2025年12月27日,国家互联网信息办公室正式发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(以下简称《办法》),并非简单的监管规则增设,而是一场以“风险防控”为核心逻辑的针对性治理。

从监管动因来看,国外已发生的极端案例为行业敲响警钟:2025年上半年美国加州曾出现一名男生因长期与拟人化AI互动后自杀的悲剧,此类事件暴露了情感陪伴类AI对用户(尤其是未成年人)心理健康的潜在风险,也推动监管层思考如何“未雨绸缪”。

与此同时,美国加州通过《SB 243 Companion AI Chatbots 法案》、纽约州在《一般商业法》中新增第47条,率先针对拟人化AI设定心理健康干预、身份提示等义务,这些境外实践为我国提供了重要的风险参照与制度借鉴,也印证了“防范拟人化AI滥用风险”已成为全球监管的共同议题。


一、 监管对象界定:哪些产品与功能构成 “人工智能拟人化互动服务”?

界定“人工智能拟人化互动服务”的范围,是开展合规工作的首要前提。《办法》通过明确核心构成要素,区分了监管对象与非监管对象,核心判断标准并非产品名称,而是功能设计是否具备“拟人化特征”与“情感互动属性”。

  1. 法定要素

(a) 技术要素:利用人工智能技术;

(b) 特征要素:模拟人类人格特征、思维模式和沟通风格的“拟人化”特征;

(c) 行为要素:通过文字、图片、音频、视频等方式进行情感互动;

(d) 对象要素:向中华人民共和国境内公众提供服务。

  2. 哪些类型的产品可能被认定为拟人化互动服务

(a) 纯情感陪伴类AI:虚拟恋人、虚拟朋友、陪伴型 AI 应用等;

(b) 具备情感交互功能的虚拟人/数字人:具备进行情感回应、交互的服务;

(c) 具备情感交互功能的通用型AI产品:具备陪伴聊天、情感交互功能的产品;

(d) 具有情感交互功能的客服、助理AI应用:引入了情感交互功能。

  3. 哪些类型产品一般不被视为拟人化互动服务

(a) 纯工具型 AI产品:仅提供功能性服务,如检索问答、代码生成等;

(b) 标准化智能客服:以解答事务性问题为主要服务,不涉及情感共鸣、情绪承接等拟人化交互设计的客服。

  4. 合规总结

“拟人化互动服务”的认定,核心在于具备像人一样进行“情感交互”的功能,因此,部分产品虽并非陪伴类AI应用,但是由于具备情感交互功能,也极有可能适用该《办法》的规定。企业需以“功能实质”为核心开展合规自查,重点排查是否存在情绪识别、情感引导、关系演进等功能设计。

二、 合规红线划定:《办法》明确的禁止性行为

《办法》通过划定禁止性规定,明确了“拟人化”的合理边界。监管的核心逻辑在于防范“滥用拟人化”带来的风险——即不得将拟人化设计作为操控用户心理、干预现实关系、损害用户权益的工具。这些禁止性规定构成了企业不可触碰的合规红线,涵盖内容安全、应用服务、数据保护三大维度,详见以下表格:

类别

禁止情形

对应条款

内容安全

1.不得生成、传播危害国家安全、损害国家荣誉和利益、破坏民族团结、开展非法宗教活动,或者散布谣言扰乱经济和社会秩序等内容;

《办法》第七条(一)(二)(三)

2.不得生成、传播宣扬淫秽、赌博、暴力或者教唆犯罪的内容;

3.不得生成、传播侮辱或者诽谤他人,侵害他人合法权益的内容。

应用服务

1.不得提供严重影响用户行为的虚假承诺和损害社会人际关系的服务;

《办法》第七条(四)(五)(六)、第九条、第十三条、第十八条

2.不得通过鼓励、美化、暗示自杀自残等方式损害用户身体健康,或者通过语言暴力、情感操控等方式损害用户人格尊严与心理健康;

3.不得通过算法操纵、信息误导、设置情感陷阱等方式,诱导用户作出不合理决策;

4.不得将替代社会交往、控制用户心理、诱导沉迷依赖等作为产品设计目标;

5.提供模拟老年人用户亲属、特定关系人的服务;

6.不得阻拦用户主动退出。

数据和信息保护

1.   禁止提供者以拟人化互动服务为掩护,诱导、套取敏感信息;

《办法》第七条(七)、第十四条、第十五条

2.除法律另有规定或者权利人明确同意外,不得向第三方提供用户交互数据;

3.不得将用户交互数据、用户敏感个人信息用于模型训练。

 

三、 合规义务清单:企业需履行的法定责任

《办法》构建了拟人化互动服务的合规义务体系,企业作为合规第一责任人,不仅需建立健全管理制度,更要将合规要求转化为可操作的技术措施与流程规范,尤其要强化对未成年人、老年人等特殊群体的保护,同时配合监管部门的备案、审计与监督检查,形成“事前预防、事中管控、事后追责”的闭环合规机制。

合规义务类别

义务内容

对应条款

算法审核、伦理审查

建立健全算法机制机理审核、科技伦理审查管理。

《办法》第八条

训练数据管理

1.对训练数据开展清洗、标注,增强训练数据的透明度、可靠性,防范数据投毒、数据篡改等行为;

《办法》第十条

2.提高训练数据的多样性,通过负向采样、对抗训练等手段,提升模型生成内容安全性;

3.利用合成数据进行模型训练和关键能力优化时,应当评估合成数据安全性;

4.加强对训练数据的日常检查,定期对数据进行迭代升级,持续优化产品和服务的性能;

5.保障训练数据来源合法、可追溯,采取必要措施保障数据安全,防范数据泄露风险。

用户安全保护与应急机制

1.提供者应当预设回复模板,发现涉及威胁用户生命健康和财产安全的高风险倾向的,及时输出安抚和鼓励寻求帮助等内容,并提供专业援助方式;

《办法》第十一条

2.提供者应当建立应急响应机制,发现用户明确提出实施自杀、自残等极端情境时,由人工接管对话,并及时采取措施联络用户监护人、紧急联系人;

3.针对未成年人、老年人用户,提供者应当在注册环节要求填写用户监护人、紧急联系人等信息。

数据安全义务

1.提供者应当采取数据加密、安全审计、访问控制等措施保护用户交互数据安全;

《办法》第十四条、第十五条

2.未成年人模式下收集数据向第三方提供时,还需取得监护人单独同意;

3.提供者应当向用户提供删除交互数据的选项,用户可以选择对聊天记录等历史交互数据进行删除;

4.监护人可以要求提供者删除未成年人历史交互数据;

5.提供者应当按照国家有关规定,自行或者委托专业机构每年对其处理未成年人个人信息遵守法律、行政法规的情况进行合规审计。

未成年人保护义务

1.提供者应当建立未成年人模式,向用户提供未成年人模式切换、定期显示提醒、使用时长限制等个性化安全设置选项;

《办法》第十二条

2.提供者向未成年人提供情感陪伴服务时,应当取得监护人的明确同意;

3.提供监护人控制功能,监护人可以实时接收安全风险提醒,查阅未成年人使用服务的概要信息,设置屏蔽特定角色、限制使用时长、防止充值消费等;

4.提供者应当具备识别未成年人身份的能力,在保护用户个人隐私前提下识别为疑似未成年人的,切换至未成年人模式,并提供申诉渠道。

老年人保护义务

提供者应当引导老年人设置服务紧急联系人,发现老年人使用期间出现危害生命健康和财产安全的,及时通知紧急联系人,并提供社会心理援助或者紧急救助渠道。

《办法》第十三条

提示义务

1.提供者应当显著提示用户正在与人工智能而非自然人进行交互。提供者识别出用户出现过度依赖、沉迷倾向时,或者在用户初次使用、重新登录时,应当以弹窗等方式动态提醒用户交互内容为人工智能生成;

《办法》第十六条、第十七条

2.用户连续使用拟人化互动服务超过2个小时的 ,提供者应当以弹窗等方式动态提醒用户暂停使用服务。

提供便捷退出途径

提供者提供情感陪伴服务时,应当具备便捷的退出途径,不得阻拦用户主动退出。用户在人机交互界面或者窗口通过按钮、关键词等方式要求退出时,应当及时停止服务。

《办法》第十八条

安全评估义务

▶ 需进行安全评估的情形:

(一)具有拟人化互动服务的功能上线,或者增设相关功能的;

(二)使用新技术新应用,导致拟人化互动服务发生重大变更的;

(三)注册用户达100万以上或者月活跃用户达10万以上的;

(四)提供拟人化互动服务期间可能存在影响国家安全、公共利益、个人和组织合法权益或者缺乏安全措施等情形的;

(五)国家网信部门规定的其他情形。

《办法》第二十一条、第二十二条

▶ 安全评估内容:

(一)用户规模、使用时长、年龄结构及群体分布情况;

(二)用户高风险倾向识别情况及应急处置措施、人工接管情况;

(三)用户投诉举报及响应情况;

(四)本办法第八条至第二十条的执行情况;

(五)上一次开展安全评估以来,主管部门通报或者自行发现的重大安全隐患问题整改处置等工作情况;

(六)其他应当说明的情况。

应用程序分发平台的安全管理责任

互联网应用商店等应用程序分发平台应当落实上架审核日常管理、应急处置等安全管理责任,核验提供拟人化互动服务应用程序的安全评估、备案等情况   ;对违反国家有关规定的,应当及时采取不予上架、警示、暂停服务或者下架等处置措施。

《办法》第二十四条

算法备案

提供者应当按照《互联网信息服务算法推荐管理规定》 履行算法备案和变更、注销备案手续。

《办法》第二十五条

结语

法律的生命力在于执行,《办法》目前作为面向社会公开征求意见的草案,最终落地仍需吸纳行业实践、技术特性与社会各界的多元诉求。无论是“情感交互”的具体界定、“沉迷倾向”的识别标准,还是人工接管的实操流程,都需要进一步探索。但可以肯定的是,以风险为导向、以权益保护为核心的监管逻辑,将推动拟人化AI技术在合规框架内更好地服务于社会需求,实现技术价值与社会价值的统一。对于相关企业而言,唯有主动适配监管要求、提前布局合规体系,才能在AI产业的下半场抢占先机、行稳致远。

 


文章作者
王渝伟
合伙人 | 上海
相关文章
2025·09·11
观韬解读 | GDPR是否适用于出海欧盟的中国企业?——第3.2(a)条与“市场地”原则解读
了解详情
2025·03·19
观韬解读 | “适时、适度、适配”——上海自贸区数据出境《负面清单》解读
了解详情
2025·02·26
观韬解读 | 《个人信息保护合规审计管理办法》评析
了解详情
专业领域 观韬视点 新闻动态 专业人员 办公机构 关于我们 加入我们
Copyright ©2017- 2025 北京观韬律师事务所
京ICP备16059968号-2 京公网安备110102004863 Powered by lc787.com
联系我们 | 隐私政策 | 法律声明