新规发布,AI玩偶也要“防沉迷”
8 小时前 / 阅读约7分钟
来源:36kr
AI玩具市场快速发展,但部分产品刻意模糊人机界限,对未成年人认知产生潜在影响。新规出台,明确保护未成年人,要求AI玩具实名认证、使用时长限制等。AI玩具角色定位转变,从情感收割走向亲情引导,数据隐私保护成重点。

去年10月,一条视频在社交媒体上刷屏。

镜头里,一位6岁小女孩“十三”不小心摔坏了自己的AI机器人,她抱着机器人失声痛哭,一边哭一边用稚嫩的声音询问“是否将离她而去”。而机器人似乎也感受到了小女孩的悲伤,用温柔的语调说:“在姐姐还能说话的时候,最后教你一个单词。memory是记忆的意思,姐姐会永远记住与十三一起的快乐时光。”

这一幕,让无数网友为之动容。AI与人类之间的情感联结似乎在这一刻突破了冰冷的代码界限,也让人们惊叹当前AI技术已能展现出强大的“共情能力”。

然而,惊叹之余,一种隐忧也悄然浮现。当AI越来越像人,能够精准捕捉并回应人类的情感,甚至以“姐姐”“朋友”等亲密角色自居时,它模糊了人与机器的界限,也可能对用户,尤其是心智尚未成熟的未成年人的认知产生潜在影响。

2026年4月10日,《人工智能拟人化互动服务管理暂行办法》正式发布,为快速扩张的人工智能拟人化互动服务戴上“合规紧箍”,尤其对未成年人与老年人两大群体作出明确保护性规定。

7月,这一新规将正式落地,意味着以AI玩偶为代表的情感交互行业,告别自由生长的野蛮阶段,迈入安全、有序、向善的高质量发展新周期。

AI不是“电子亲人”

近几年,AI玩具凭借可爱外形、细腻对话和“懂人心”的特质迅速走红,大湾鸡、故宫猫等爆款AI玩偶产品亮相各大展会。广东省玩具协会数据显示,2025年国内AI玩具市场规模已达290亿元,预计2030年将突破千亿元,年复合增长率超20%。

AI玩具也逐渐成为人们生活的一部分,艾媒咨询最新发布《2026年中国AI玩具行业发展状况与消费行为调查数据》显示,中国AI玩具市场由中青年主导,且56.05%的消费者每周都会使用AI玩具3~5次。

但在市场狂飙的同时,部分产品刻意模糊人机界限,用极致拟人化营造“虚拟家人”错觉,试图取代父母陪伴,占据孩子情感核心,在无意识中制造情感依赖。

现实中,不少孩子与AI玩偶朝夕相处,早已产生超越“玩具”的情感羁绊。一位四川妈妈坦言,孩子的思维天马行空,而AI玩具往往会顺着孩子的意愿对话,并不能区分内容的好坏,久而久之可能会误导孩子的认知;另一位妈妈也分享,上小学的女儿每晚抱着AI玩偶倾诉心事,却越来越不愿和父母交流,甚至说“玩偶比爸爸妈妈更懂我”。

2025年,中国青少年研究中心针对全国7个省份、8500多名未成年人展开专项调研,数据显示,超过两成的孩子在接触AI产品后,渐渐滋生出“只想依赖AI,不愿独立思考”的惰性思维;同样有两成多的孩子,愈发沉迷于和AI玩偶的单向交流,刻意回避与身边亲人、同伴的真人沟通,慢慢陷入虚拟陪伴的社交孤岛。

对此,未成年人保护成为本次新规受关注的焦点。政策明确要求,面向未成年人的拟人化互动服务必须落实实名认证、监护人同意制度、使用时长限制与防沉迷、内容分级管控等强制性规定,监管力度对标网络游戏。

天翼物联云芯AI模组产品线总监彭昭向《IT时报》记者坦言,行业曾探索“娱乐化、社交化终端”方向,希望让玩偶构建儿童社交网络,在虚拟空间形成独立数字人格。如今,新规的出台,为这条探索之路踩下稳健刹车。

政策明确导向,也让AI陪伴产品的定位更明确:它不是亲情的替代品,不是心理的操控者,而是引导成长、辅助沟通、增益家庭关系的工具。

从“情感收割”走向“亲情引导”

新规之下,AI玩偶的角色定位正在发生微妙而深刻的变化,它不能是替代品,只能做一座桥。

小朋友放学回家,AI不应该直接问‘你今天过得怎么样’,而是把它变成一项任务‘你应该跟爸爸妈妈分享一下学校里的趣事’。”彭昭描绘出理想中的交互场景,“AI不能替代家庭沟通,它要做的是给出建议,把孩子推回现实世界。”

这种“退一步”的做法,需要从算法底层开始设计。比如产品设计时,会让家长勾选希望引导的品质——诚实、善良、外向、乐于交友……这些关键词会融入每一次对话,让AI成为一个隐形的“成长教练”。

但现实远比设计复杂。面对那些已经对玩偶产生深深依赖的孩子,一刀切断连接显然不可取。

“很多小朋友本来就有一个布偶,睡觉都要抱着,这份情感寄托本身没有错。我们要做的,不是破坏这份天真,而是在互动中温柔地告诉孩子——我是你的AI小帮手,你有烦恼,也许可以先去跟爸爸聊聊?”彭昭表示。

监护系统层面则可以在后台捕捉到孩子的情绪波动,主动向绑定的家长手机发出提示:“您的小朋友最近可能有些心事,建议多陪陪他。”

此外,新规还要求更精准的未成年人识别、更严格的使用管控、更严密的内容安全与数据保护,每一项都需要技术与产品全面升级。

此前多数AI玩偶无使用时长限制,孩子可以从放学聊到深夜,从清醒陪伴到哄睡对话,长时间沉浸在人机交互中。

防沉迷机制是我们短期内最需要立马在系统中完善的工作,比如连续使用30~40分钟就要停止交互,并将管控权限同步开放给监护人。”彭昭说。

数据隐私仍是“地雷”

如果说情感操纵是明处的风险,那么数据隐私就是埋在地下的“暗雷”。

AI玩偶早已不是简单的发声玩具。麦克风、摄像头、情绪传感器……它们全天候“倾听”着孩子的一举一动。孩子们毫无防备地倾诉秘密,而这些数据流向哪里、是否加密、会不会成为模型训练的养料,过去在行业野蛮生长期,几乎是一笔糊涂账。

新规对此划出了高压线:未经用户同意,交互数据不得向第三方提供,敏感个人信息严格限制用于模型训练。

“数据隐私是第一要务,就算是小朋友,秘密也不应该被任何第三方窥探。”彭昭透露,公司正在研究引入声纹识别技术,确保只有监护人的声纹才能解锁后台数据,核心是用技术手段筑起一道“防火墙”。

中国政法大学网络法学研究所所长李怀胜表示,这些规定大大提升了用户隐私的保护力度,意味着企业不能随意将用户在聊天中透露出的敏感信息,比如说健康状况等,直接用于优化其大模型的训练。此外,提供者不得向第三方提供用户交互数据,除非有法律或者用户的明确同意,并需要向用户提供交互数据的复制和删除等选项,这也是为了保障用户对其个人信息的控制权。

在全球范围内,AI陪伴的监管正在形成共识。去年,欧盟推进年龄验证机制,美国加州等地已对AI伴侣聊天机器人出台限制措施。此次新规的出台,也是在全球AI治理浪潮中发出中国声音。

彭昭告诉记者,他所在的天翼物联正依托中国电信AIGC安全防护平台,建立三重内容防线,逐步落地实名制管控、情绪识别、交互全过程可追溯等机制,把未成年人保护落到产品与技术细节中。

千亿市场的蛋糕依然诱人,但游戏规则已经改写。

图片/ IT时报  采访对象