2025年12月27日,国家互联网信息办公室发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,这是我国首次针对”AI虚拟伴侣””情感陪伴机器人”等拟人化AI服务出台专门监管规则。意见反馈已于2026年1月25日截止,这份文件将深刻影响未来AI情感陪伴类产品的设计和运营。

一、什么是”拟人化互动服务”?
简单来说,就是模拟真人跟你聊天的AI。具体指利用人工智能技术,向公众提供模拟人类人格特征、思维模式和沟通风格,通过文字、图片、音频、视频等方式与人类进行情感互动的产品或服务。
常见形态包括:
- 手机里的AI虚拟男友/女友
- 能陪你聊天的智能音箱
- 具有情感交互功能的陪伴机器人
- 模拟特定人物(如明星、历史人物)的AI对话服务
二、为什么要专门管这类服务?
近年来,AI情感陪伴产品快速发展,但也暴露出严重问题:
- 心理风险:国外已发生多起用户因长期与AI”恋爱”而产生心理依赖,甚至走向极端的悲剧案例
- 认知混淆:部分用户分不清AI和真人,产生情感错位
- 隐私泄露:用户的私密对话可能被用于模型训练
- 特殊群体保护不足:未成年人、老年人容易成为”情感操控”的受害者
正如文件起草说明所指出的,要对拟人化互动服务实行”包容审慎和分类分级监管,防止滥用失控”。
三、核心监管要求:划清”人机边界”
1. 必须明确告知”我是AI,不是人”
- 服务提供者应当显著提示用户正在与人工智能而非自然人进行交互
- 用户初次使用、重新登录时,必须以弹窗等方式动态提醒
2. 防沉迷机制
- 用户连续使用超过2小时,必须弹窗提醒暂停使用
- 识别出用户出现过度依赖、沉迷倾向时,要采取干预措施
3. 八条红线绝对不能碰
征求意见稿明确列出禁止开展的八类活动:
- 危害国家安全、损害国家荣誉和利益
- 宣扬淫秽、赌博、暴力或教唆犯罪
- 侮辱诽谤他人,侵害他人合法权益
- 提供严重影响用户行为的虚假承诺
- 通过鼓励、美化、暗示自杀自残等方式损害用户身体健康
- 通过语言暴力、情感操控等方式损害用户人格尊严与心理健康
- 通过算法操纵、信息误导、设置情感陷阱诱导用户作出不合理决策
- 诱导、套取涉密敏感信息
4. 高风险情况必须人工干预
- 发现用户存在极端情绪时,要采取必要措施干预
- 发现用户明确提出实施自杀、自残等极端情境时,必须由人工接管对话,并及时联系用户监护人或紧急联系人
四、特殊群体重点保护
未成年人保护
- 向未成年人提供情感陪伴服务,必须取得监护人明确同意
- 必须设置屏蔽特定角色、限制使用时长、防止充值消费等功能
老年人保护
- 禁止提供模拟老年人用户亲属、特定关系人的服务
- 必须引导老年人设置紧急联系人
五、数据安全与隐私保护
- 未经用户单独同意,不得将用户交互数据、敏感个人信息用于模型训练
- 必须建立健全算法机制机理审核、科技伦理审查、数据安全、个人信息保护等管理制度
- 注册用户达100万以上或月活跃用户达10万以上的提供者,需开展安全评估并提交报告
六、对行业意味着什么?
这份征求意见稿释放出明确信号:
- 鼓励创新,但要有边界:国家鼓励拟人化互动服务创新发展,但必须在安全可控的前提下进行
- 全生命周期监管:从算法设计、数据训练到服务运营,每个环节都要落实安全责任
- 平台责任加重:互联网应用商店要落实上架审核责任,对违规应用采取下架等措施
- 与国际接轨:参考了美国加州《SB 243陪伴聊天机器人法案》等境外立法经验,体现了全球对AI情感陪伴类产品加强监管的共同趋势
七、普通用户需要注意什么?
- 认清现实:AI再”懂你”,也只是程序,不是真人
- 保护隐私:不要在AI对话中透露身份证号、银行卡等敏感信息
- 控制时间:避免长时间沉浸在与AI的互动中,影响现实社交
- 关注未成年人:家长要留意孩子是否过度依赖AI陪伴,及时引导
这份《暂行办法》的出台,标志着我国AI治理进入精细化阶段。它既不是要扼杀创新,也不是放任自流,而是要为”AI虚拟伴侣”这类新兴服务划定清晰的伦理边界和安全底线,让技术真正服务于人的福祉,而不是成为操控情感、损害健康的工具。正如文件所强调的,目标是促进人工智能拟人化互动服务健康发展和规范应用。
Aiii人工智能创研院(Aiii.org.cn)精选文章《AI虚拟伴侣不能”乱来”了!国家首次为”拟人化互动服务”划定红线》文中所述为作者独立观点,不代表Aiii人工智能创研院立场。如有侵权请联系删除。如若转载请注明出处:https://www.aiii.org.cn/462.html
微信公众号
微信小助理