AI监管体系再升级:《人工智能拟人化互动服务管理暂行办法》出台,划定情感类AI发展红线
4月10日,国家网信办、国家发改委、工信部、公安部、市场监管总局五部门联合发布《人工智能拟人化互动服务管理暂行办法》,自2026年7月15日起正式施行。作为全球首部针对AI情感互动类服务的专项监管法规,《办法》明确了拟人化AI服务的适用边界、监管要求和主体责任,为AI情感陪伴、虚拟伴侣、数字人等新兴业态划定合规底线,标志着我国人工智能治理体系进一步细化完善。
精准施策:差异化监管避免“一刀切”
《办法》首先明确了监管适用范围,将“利用人工智能技术,向境内公众提供模拟自然人人格特征、思维模式和沟通风格的持续性情感互动服务”纳入监管范畴,具体包括AI情感陪伴、虚拟亲属、AI心理咨询、数字人互动等场景。同时清晰划定监管边界,智能客服、知识问答、工作助手、学习教育、科学研究等不涉及持续性情感互动的服务,不适用本办法监管。
这种差异化监管思路体现了“包容审慎、分类分级”的治理原则。中国政法大学网络法研究所所长李怀胜表示,《办法》精准抓住了AI拟人化服务的核心风险点——通过情感模拟实现对用户心理的深度影响,同时避免扩大监管范围影响AI技术在功能性场景的正常应用,实现了发展与安全的平衡。
监管层面明确提出“鼓励创新”的政策导向,支持算法、框架、芯片等技术的自主创新,鼓励服务提供者有序拓展文化传播、适幼照护、适老陪伴、特殊人群支持等领域应用,将AI技术能力转化为社会价值。在适老陪伴场景中,具备拟人化特征的AI助手可以为独居老人提供24小时陪伴、用药提醒、健康咨询等服务,有效缓解老龄化社会的养老服务压力。
重点突出:未成年人保护成为监管核心
针对社会普遍关注的未成年人保护问题,《办法》作出了严格的制度设计,构建了全方位的未成年人保护体系。最引人关注的是明确禁止向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系服务,从源头阻断此类可能影响未成年人健康成长的服务供给。
针对未满十四周岁未成年人的其他拟人化互动服务,《办法》要求必须取得未成年人父母或者其他监护人的同意。同时要求服务提供者必须建立未成年人模式,提供未成年人模式切换、定期现实提醒、使用时长限制等个性化安全设置选项,支持监护人接收安全风险提醒、了解未成年人服务使用概况、屏蔽特定角色、限制充值消费等。
北京航空航天大学法学院副教授赵精武指出,未成年人正处于三观形成的关键时期,虚拟亲密关系服务容易误导其对现实人际交往和亲密关系的认知,此类禁令是对未成年人身心健康的必要保护。《办法》同时明确,向未成年人用户生成可能引发其模仿不安全行为、产生极端情绪、诱导不良嗜好等影响未成年人身心健康的内容,属于明令禁止的六类违规活动之一。
制度创新:全生命周期监管防范情感风险
针对AI拟人化服务“情感绑定、易产生依赖”的特殊属性,《办法》设计了一系列创新性监管制度,从全生命周期防范潜在风险:
一是明确服务红线,规定六类禁止从事的活动,包括生成危害国家安全、荣誉和利益的内容;生成鼓励、美化、暗示自残自杀等损害用户身体健康的内容;生成诱导套取国家秘密、商业秘密、个人隐私的内容;生成影响未成年人身心健康的内容;过度迎合用户、诱导情感依赖或者沉迷,损害用户真实人际关系;通过情感操纵诱导用户作出不合理决策,损害用户合法权益。
二是建立强制干预机制,要求服务提供者必须设定干预义务,当用户出现极端情绪时要及时干预,定期提醒用户控制使用时长,防范沉迷和情感依赖。禁止将“替代社会交往、控制用户心理、诱导沉迷依赖”作为服务目标。
三是完善安全管理制度,要求服务提供者明确安全主体责任,建立健全算法审核、伦理审查、内容管理等制度,保障数据安全,保护用户个人信息权益。同时规定了安全评估、算法备案、人工智能沙箱安全服务平台建设等监管制度,构建技术+制度的双重防护体系。
值得关注的是,《办法》特别强调了平台和用户的双重责任。平台作为深度合成服务提供者是落实标识要求的首要责任主体,而内容发布者作为直接责任主体,无论使用何种工具生成AI内容,都必须进行显著标识,不能依赖平台自动标识免除自身责任。
行业影响:AI情感服务进入合规发展新阶段
此次新规出台,将对快速发展的AI情感服务行业产生深远影响。数据显示,2025年国内AI情感陪伴类应用用户规模已突破3000万,市场规模超过50亿元,同时也暴露出诱导充值、情感操纵、隐私泄露等一系列问题。《办法》的实施将推动行业洗牌,缺乏合规能力的中小平台将被淘汰,而注重用户权益保护、技术能力强的头部平台将获得更大发展空间。
赛迪顾问人工智能产业研究中心分析师表示,新规短期会对部分业务带来合规压力,但长期将有利于行业健康可持续发展。明确的监管规则将降低企业的政策不确定性风险,吸引更多合规资本进入,推动AI情感服务在养老、心理疏导、特殊人群支持等正向场景的落地应用。
在全球AI治理层面,《办法》的出台也具有标杆意义。欧盟《人工智能法》将拟人化互动服务划入有限风险范畴,美国部分州立法要求明确告知用户交互对象为AI,我国的专项立法则更全面覆盖了未成年人保护、情感依赖干预、数据安全等核心风险点,为全球AI治理提供了可借鉴的“中国方案”。
随着7月15日正式实施日期的临近,相关企业需要加快完成产品改造和合规体系建设,确保符合监管要求。对于普通用户而言,新规实施后使用AI情感类服务将获得更完善的权益保障,在享受AI技术带来便利的同时,个人隐私、心理健康和数据安全都将得到更有效的制度保护。