数字虚拟人新规来袭,5大法律红线一次讲透

2026年4月3日,国家网信办公开征求《数字虚拟人信息服务管理办法(征求意见稿)》(以下简称《征求意见稿》)意见,意见反馈截止时间为2026年5月6日。需明确的是,该文件目前仍为征求意见稿,尚未正式生效,但已清晰释放监管信号:数字虚拟人不再是“法外之地”,而是必须纳入全链条责任监管的高风险应用场景,其核心治理逻辑是“可识别、可解释、可追责”。

一、新规背景:数字虚拟人从“技术工具”到“合规必管”的转折

当AI分身模拟你熟悉的主播接起客服电话,当数字人“老板”24小时在线直播带货,当拟人化AI陪伴诱导用户持续付费——这些场景早已跳出“技术新奇”的范畴,交织着人格权保护、个人信息安全、未成年人权益、平台责任等多重法律命题。

2026年4月3日,国家网信办公开征求《数字虚拟人信息服务管理办法(征求意见稿)》(以下简称《征求意见稿》)意见,意见反馈截止时间为2026年5月6日。需明确的是,该文件目前仍为征求意见稿,尚未正式生效,但已清晰释放监管信号:数字虚拟人不再是“法外之地”,而是必须纳入全链条责任监管的高风险应用场景,其核心治理逻辑是“可识别、可解释、可追责”。

不同于以往行业聚焦“降本增效”“替代真人”的讨论,本次《征求意见稿》直指核心痛点:当数字虚拟人大规模渗透至日常生活,侵权、误导、欺诈等风险如何防控?责任如何划分?权益如何保障?这既是监管关注的重点,也是行业、平台与普通用户必须直面的问题。

二、受影响主体:三类群体首当其冲,风险近在眼前

数字虚拟人已快速渗透至直播带货、广告营销、在线客服、教育培训、情感陪伴等多元场景,其风险传导具有明确的指向性,以下三类群体将最早受到影响:

(一)内容行业与MCN机构

此类主体是数字虚拟人应用最广泛的群体,无论是数字人直播、切片分发,还是数字人代播,均需直接面对仿脸仿声授权边界、显著标识设置、投诉处置等核心合规问题,也是侵权风险最高发的群体——近期多起AI短剧擅自使用明星肖像、声音生成内容的侵权事件,均与MCN、内容机构的合规意识缺失相关。

(二)平台与技术服务商

短视频、直播、电商、社交等传播平台,以及提供建模、驱动、生成、分发能力的技术服务商,将无法再以“工具中立”为由规避责任。《征求意见稿》明确将其纳入治理框架,要求其履行审核、监管、留存日志等义务,此前部分平台因AI短剧审核不完善导致侵权事件频发的问题,将迎来针对性规范。

(三)普通用户

涵盖三类具体人群:一是作为消费者,可能因数字人误导产生消费欺诈;二是作为被模仿对象,人脸、声音可能被擅自复刻用于数字人建模,却未被知晓;三是未成年人,易被拟人化AI陪伴诱导产生依赖、过度消费,其身心健康面临潜在风险。

三、核心风险拆解:五类红线不可碰,法律依据与案例明确

结合《征求意见稿》具体条款、《个人信息保护法》等相关法律规定,以及近期典型侵权案例,数字虚拟人应用的五大核心风险的法律边界已清晰划定,每一类风险均有明确的法律依据和现实警示。

(一)红线一:未经授权仿真人脸、声音、形象,涉嫌人格权侵权

《征求意见稿》第八条明确规定:“未经特定自然人同意,不得提供足以识别特定自然人身份的数字虚拟人服务,包括但不限于使用他人具有一定社会知名度的笔名、艺名、网名等,或使用与特定自然人高度相似的肖像或者声音等”。

这一规定的核心的是“可识别性”,而非“百分百复刻”——只要数字虚拟人的面部特征、声音、表达风格等组合,足以让公众联想到特定自然人,即构成侵权,而非仅局限于“完全复制”。司法实践中,肖像权、声音权侵权的认定标准也正是“可识别性”,而非技术手段本身。

典型案例:2026年4月,多家网络平台出现未经授权使用易烊千玺肖像、声音生成的AI短剧,其中《午夜公车:她捉诡超凶的!》《骗我投个好胎?行,你们别后悔》等作品热度极高,其角色形象、声音与易烊千玺高度相似,引发网友误认,易烊千玺工作室已委托律师维权,要求相关主体下线侵权内容并承担责任。此前,演员孙俪也曾发声打假未经授权的AI带货视频,此类事件均属于未经授权仿真人脸、声音的典型侵权行为。

法律风险:此类行为不仅侵犯自然人的肖像权、声音权,若用于带货、荐股、诈骗等场景,还可能构成消费欺诈、诈骗等违法犯罪行为,侵权主体需承担民事赔偿、行政处罚,情节严重的将追究刑事责任。中国广电联合会演员委员会已明确声明,即便标注“非商用”“个人二创”,未经授权的AI撞脸、仿声等内容,仍需承担全部侵权责任。

(二)红线二:不设置显著标识,故意混淆数字人与真人

《征求意见稿》第十三条明确要求:“自数字虚拟人服务开始,数字虚拟人服务提供者、服务使用者及提供网络信息内容传播服务的服务提供者应当在数字虚拟人展示区域全程持续显示含有‘数字人’字样的显著提示标识,并符合国家人工智能生成合成内容标识有关规定”。

这一义务看似形式化,实则是防范误导风险的核心——数字虚拟人的最大危险,不在于“虚假”,而在于“虚假却不告知”。在直播场景中,观众若误将数字人当作真人,会对其推荐的产品、作出的承诺产生更高信任度,进而增加消费误导风险;在客服、情感陪伴场景中,用户的信任预期、情绪依赖会因“误认”大幅提升,易引发纠纷。

核心意义:显著标识的核心作用是保障用户的知情权,让用户明确区分“数字人”与“真人”,进而理性判断、规避风险,这也是监管“可识别”治理逻辑的直接体现。

(三)红线三:忽视未成年人保护,违规提供高风险服务

《征求意见稿》第十条明确禁止:“诱导未成年人沉迷数字虚拟人服务;不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系,诱导过度消费、诱导信教等的数字虚拟人服务,以及含有可能引发或者诱导未成年人模仿不安全行为、实施违反社会公德行为、产生极端情绪、养成不良嗜好等可能影响未成年人身心健康信息的数字虚拟人服务”。

监管逻辑:数字虚拟人的拟人化交互特性,使其极易让未成年人产生陪伴感、依赖感,甚至形成情感绑定。相较于传统内容,拟人化AI对未成年人的情绪操控、付费诱导能力更强,若不加以规范,可能影响未成年人的身心健康和消费观念。

实践警示:部分面向青少年的“AI陪伴”产品,通过拟人化话术制造情感依赖,诱导未成年人持续付费,此类行为已被《征求意见稿》明确禁止。这也意味着,青少年向产品的运营方,不能再将数字虚拟人视为“简单的交互界面”,而需将其作为高风险设计进行专项管控。

(四)红线四:违规处理人脸、声纹等敏感个人信息

结合《征求意见稿》第七条与《个人信息保护法》第二十八条、第二十九条、第三十一条规定:人脸、声纹属于敏感个人信息,使用此类信息用于数字虚拟人建模、形象生成等活动,应当取得自然人的单独同意,并以显著方式、清晰易懂的语言,告知处理目的、必要性及对个人权益的影响;涉及不满十四周岁未成年人的,需取得监护人的单独同意,且自然人撤回同意后,需删除相关信息、注销数字虚拟人(法律另有规定的除外)。

关键误区:部分企业仍沿用传统授权思维,认为“拍摄授权”“笼统的合作同意”即可覆盖数字虚拟人建模、训练、商业化传播等全流程,这一认知存在严重合规风险。数字虚拟人所使用的人脸、声纹信息,可被持续训练、复用、迁移,属于“可重复激活的身份资产”,一旦泄露或滥用,后果不可逆,远超普通个人信息的风险等级。

受影响群体:最先面临风险的并非大型科技公司,而是急于落地项目、沿用旧合同模板、忽视授权细节的MCN机构、中小品牌方和技术团队。

(五)红线五:平台、服务商以“工具中立”规避责任

《征求意见稿》明确将数字虚拟人服务提供者、使用者、网络传播平台均纳入治理框架,要求其履行真实身份管理、内容安全审核、投诉举报处置、日志留存等义务,特定情形下还需履行算法备案和安全评估义务。

法律边界:“技术中立”不等于“责任豁免”。司法实践中,最高人民法院发布的典型案例已明确,若技术服务商、平台对侵权内容具有明知或应知的主观状态,仍提供技术支持、传播渠道,需承担侵权责任——如上海易某网络科技有限公司开发的“某颜”小程序,提供AI换脸技术,擅自使用他人拍摄的短视频素材,被认定侵犯著作权,即便以“技术中立”抗辩,仍需承担赔偿责任。

具体要求:平台不能以“内容由用户发布”为由规避审核责任;技术服务商不能以“仅提供技术能力”为由拒绝管控;MCN、品牌方不能以“代运营”“供应商负责”为由切割责任,只要在数字虚拟人产业链中获取收益,就需承担相应的注意义务。

四、不同主体的合规行动建议

(一)普通用户:三大原则规避个人权益受损

看标识:凡是高度拟真、未全程显示“数字人”标识的内容,尤其是涉及交易、转账、荐股、情绪安抚、私聊导流的场景,需提高警惕,避免因误认产生损失。

辨身份:声音、面部相似不等于本人,尤其是客服、直播、私下交易等场景,切勿因“拟真度高”降低防备心,必要时通过官方渠道核实身份。

守权限:面对要求上传人脸、采集声音、制作“专属AI分身”的产品,务必确认信息处理目的、使用期限、是否用于训练,明确同意撤回机制和信息删除路径,切勿随意授权。若发现自身人脸、声音被擅自使用,应第一时间截图、录屏固定证据,向平台投诉,必要时提起诉讼维权。

(二)企业主体(MCN、品牌方、AI公司、平台):四大合规动作补短板

梳理授权链条:全面盘点现有数字人项目,区分真人驱动、AI生成、仿声仿脸、纯虚构四种类型,逐项检查授权文件,确认授权范围覆盖建模、训练、商业化投放、跨场景传播、同意撤回等全流程,杜绝“笼统授权”“事后补授权”。

规范显著标识:将“数字人”显著标识设置为默认配置,贯穿数字人服务全程,尤其是直播、客服、营销等高频场景,避免因标识不明显、不持续引发合规风险。

强化未成年人保护:对面向青少年的产品进行专项分级,禁止提供虚拟亲属、虚拟伴侣等服务,防范诱导过度消费、传播不良内容的风险,制定专门的未成年人服务规则。

完善应急机制:建立投诉、申诉、内容删除、账号下线、日志留存机制,落实数据安全保护责任,定期开展高风险场景合规评估,确保出现侵权、纠纷时,可快速溯源、处置,留存相关证据。同时,平台需建立AI内容授权核验机制,全面排查下架存量侵权作品,从严管控新增违规内容。

五、总结:新规重构行业逻辑,合规是唯一出路

本次《征求意见稿》的核心意义,不在于“限制技术发展”,而在于“规范行业秩序”——它将数字虚拟人从“单纯的技术工具”,重新定义为“需要承担高强度责任的数字身份技术”,彻底打破“技术越新、责任越轻”的误区。

数字虚拟人的应用不会因新规征求意见而停滞,直播、客服、教育、陪伴等场景的渗透还将持续深化,但行业的核心命题已从“能不能做”,转变为“凭什么做”“如何合规做”。无论是企业、平台,还是普通用户,都需清醒认识到:数字虚拟人的技术红利,必须建立在合规的基础上,未经授权的仿脸仿声、模糊标识的误导、忽视未成年人保护的行为,终将面临法律追责。

企业合规速查清单(立即可执行)

  • 盘点现有数字人项目,明确区分真人驱动、AI生成、仿声仿脸、纯虚构形象,建立项目台账。
  • 逐项核查授权文件,确认授权覆盖建模、训练、商业使用、跨场景传播、同意撤回全流程。
  • 为数字人直播、客服、营销内容,补全全程持续的“数字人”显著标识。
  • 针对人脸、声纹等敏感个人信息,按《个人信息保护法》及《征求意见稿》要求,重做告知、单独同意流程,未成年人相关信息需取得监护人同意。
  • 对直播、电商、客服、情感陪伴等高风险场景,开展专项合规评估,排查侵权、误导风险。
  • 建立投诉、申诉、删除、下线、日志留存机制,落实数据安全保护责任,完成必要的算法备案。
  • 数字虚拟人不是“法外之地”,技术的创新发展,必须与法律红线、社会责任同行。唯有先补齐合规短板,才能在行业发展中站稳脚跟,实现长期可持续发展。


    【免责说明】本文仅用于数字虚拟人相关新规的普法宣传,旨在帮助读者了解新规核心要点及相关法律风险,不构成任何正式法律意见。若您有具体法律问题,建议咨询专业律师获取针对性解答。同时需特别说明,本文所解读的《数字虚拟人信息服务管理办法(征求意见稿)》仍处于公开征求意见阶段,尚未正式生效,最终出台的正式版本可能会结合意见反馈进行调整,相关主体请以国家网信办最终发布的正式文件为准。