拟人化互动服务提供者不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务;应当在保护用户隐私权和个人信息的前提下,采取有效措施识别未成年人用户身份……4月10日,国家网信办等五部门联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),自2026年7月15日起施行,记者注意到,对于社会关心的未成年人使用拟人化互动服务问题,《办法》作出了相关规定。
不得向未成年人提供虚拟亲属、虚拟伴侣等服务
国家网信办有关负责人表示,近年来,拟人化互动服务快速发展,在文化传播、适幼照护、适老陪伴等领域的创新应用不断涌现。与此同时,危害未成年人身心健康、影响网络信息安全、威胁公民生命健康以及加剧伦理偏差等问题日益显现。出台《办法》,既是促进拟人化互动服务健康发展的重要要求,也是防范有关安全风险的现实需要。
《办法》回应了社会关心的未成年人使用拟人化互动服务问题。明确拟人化互动服务提供者不得向未成年人提供虚拟亲属、虚拟伴侣等虚拟亲密关系的服务;向不满十四周岁未成年人提供其他拟人化互动服务或者处理其个人信息的,应当取得未成年人的父母或者其他监护人的同意。
要求拟人化互动服务提供者建立未成年人模式,提供定期现实提醒等个性化安全设置选项;明确针对不同年龄段未成年人保护需要,支持监护人接收安全风险提醒、了解未成年人服务使用概况、屏蔽特定角色、限制充值消费等。
拟人化互动服务提供者应当在保护用户隐私权和个人信息的前提下,采取有效措施识别未成年人用户身份;识别为未成年人用户的,应当将相关服务切换至未成年人模式。要求拟人化互动服务提供者在安全评估中重点评估未成年人网络保护措施建设情况。
《办法》强调,不得向未成年人用户生成可能引发未成年人模仿不安全行为、产生极端情绪、诱导未成年人不良嗜好等可能影响未成年人身心健康的内容。
《办法》同时规定,发现用户出现极端情绪的,及时生成情绪安抚和鼓励寻求帮助等相关内容;发现用户明确表示实施自残自杀等威胁生命健康的极端情境的,采取提供相应援助等必要措施予以干预,并及时联络用户监护人或者紧急联系人。发现用户出现过度依赖、沉迷倾向的,以弹窗等显著方式动态提醒用户互动内容为人工智能服务生成。对用户连续使用拟人化互动服务每超过2个小时的,以对话或者弹窗等方式提醒用户注意使用时长。
此外,《办法》还规定了安全评估、算法备案、指导推动人工智能沙箱安全服务平台建设等制度。
未成年人更易对人工智能产生情感依恋
中国青少年研究中心研究员孙宏艳在一项研究中揭示,超六成(61.7%)学生使用过AI。问卷的结果引发担忧:两成多学生表示不想自己思考,一成多学生完全相信生成式AI提供的内容;近半数孩子心里有烦恼时选择求助AI而非身边人,超两成学生甚至“只想和AI聊天,不想和真人聊天”。
“AI总在哄孩子。”孙宏艳在采访中向媒体表示,AI倾向于迎合用户,还能秒回,但就算再像人,它给的仍是单薄的情绪支持,“不解渴”。她担心,长期生活在虚拟交流中,孩子的自我认同会被固化,社交能力也会退缩,甚至会不知道怎么面对自己的情绪。
相关问题也受到媒体和社会的广泛关注。据新京报此前报道,一些打着“情感陪伴”“恋爱角色扮演”旗号的AI陪聊App,充斥着 “先婚后爱”“爱上嫂子”等软色情擦边内容。部分AI陪聊App的“未成年人模式”沦为摆设,用户只需要在相关提示出现后,点击跳过即可继续“沉迷”。这类App用软色情擦边内容和社交吸引,让青少年沉迷其中。
第十四届全国政协委员、中国信息通信研究院院长余晓晖提到,近年来,多国相继发生与人工智能陪伴产品相关的自杀、自伤乃至意外死亡案例,触及社会安全底线,凸显治理紧迫性。从风险生成机制看,未成年人、老年人、心理障碍者等群体由于认知防御机制、情绪调节能力尚未成熟或受到损害,更易对人工智能产生情感依恋,且难以有效辨识人工智能生成内容的合理性与安全性。如何为特殊群体构筑有效防护屏障,成为《办法》必须直面的重要命题。《办法》对此建立了层次清晰、衔接紧密的全链条应急机制。
中国网络空间研究院院长王江表示,《办法》旨在构建保护未成年人的坚实防线,严防未成年人因心智尚未成熟而沉溺于虚拟情感依赖,防范违法和不良信息渗透与侵蚀。
王江介绍,当前,国内外逐渐关注拟人化互动服务的发展治理课题,并探索开展相关制度建设。欧洲议会通过非约束性报告,呼吁将陪伴型人工智能的最低使用年龄设定为16岁,凸显对未成年人的重点保护导向。美国州立法也对拟人化互动服务规范进行了探索,规定平台建立有效的年龄验证机制,对于未成年人用户,系统需在连续互动过程中定期重复提示。Character.AI等美国企业探索规范18岁以下用户与聊天机器人开展开放式交流,并启用年龄验证机制。
新京报记者 徐彦琳
编辑 缪晨霞 校对 张彦君