当孤独成为常态,越来越多人在AI陪伴类产品中寻求情感慰藉。App figures数据显示,2025年上半年,全球AI陪伴类APP总下载量达到2.2亿次,同比增长88%,创造的收入已超8200万美元。AI陪伴赛道高速增长背后,数据隐私、情感依赖甚至诱导自杀等风险与挑战也日益浮现。
如何在守住安全底线的同时,激发产业创新活力?2026年全国两会期间,南方都市报、南都数字经济治理研究中心推出“两会大家谈”特别策划,聚焦“我的AI搭子靠谱吗”主题,邀请代表委员和专家学者,在线探讨AI陪伴的发展未来。
与会专家提到,不同人群的孤独感和社交困扰,催生了AI陪伴赛道的崛起。用户购买AI陪伴服务,实际上买的是一种被需要、被爱的体验。这一赛道火热的背后,仍存在亟待破解的难题,而当前针对AI陪伴的治理思路偏向审慎监管——即在鼓励创新的同时,尝试为行业划定红线、界定行为界限。
情感需求催生AI陪伴赛道兴起
2013年上映的科幻电影《Her》讲述了人类爱上机器人的故事,十多年后的今天,这样的人机恋正在走进现实。随着技术的发展,越来越多人选择向随时在线、能提供情绪价值的AI搭子倾诉烦恼与秘密,一些人甚至还和AI谈起了恋爱。
“现在需要情感陪伴的群体不分年龄段。”全国政协委员、民办教育协会会长刘林在南都“两会大家谈”中提到,像独生子女不在身边的老人、留守儿童、有沟通障碍的人群,都可能需要能听我心事、了解我心声的陪伴类产品和服务。基于这样的需求,AI陪伴经济将成为一个朝阳产业。
全国政协委员、民办教育协会会长刘林。受访者供图
中国人民大学哲学院教授刘永谋也认为,AI陪伴赛道的产生,从根本上源于人有情感需求,而不在于AI是否真正拥有情感能力。人是一种情感动物,如果AI具有很强的情感处理能力,便能与人更好地打交道,满足人的情感需求。
刘永谋观察发现,AI伴侣与人进行情感交流的方式,已不仅仅局限于文字交流,而是有语音、图片、视频和剧情扮演等。AI伴侣正在具身化——当TA以虚拟人形象出现,其身形、姿态、眼神乃至服饰等都会影响与人交流的效果;而且AI伴侣所拥有的更长时段的记忆,也会让其人格变得更为稳定。这些技术提升,使得人机建立情感关系乃至亲密关系成为可能。南都记者关注到,此前腾讯研究院的一份调研数据显示,仅有4.6%的受访者认为自己的陪伴需求得到了完全满足,其余大部分人都面临各种各样的社交困境。为弥补未被满足的社交需求,98%的人表示会考虑使用AI陪伴类产品。
技术的快速发展,叠加情感需求刚需,催生了AI陪伴市场的兴起。根据Appfigures数据,截至2025年8月,全球范围内活跃且能创收的AI伴侣应用已达337款。去年上半年,全球AI伴侣应用市场收入达8200万美元。ARK Invest发布的预测模型显示,如果以基准和乐观情况推演,2030年全球AI陪伴市场规模有望增至700-1500亿美元,年复合增长率将达200%-236%。
当前,AI陪伴的主要赛道有哪些?前述腾讯研究院的报告盘点了八大细分赛道,包括虚拟故事角色、AI虚拟男友/女友、AI心理顾问、AI游戏陪玩、AI虚拟偶像、AI开放世界游戏、AI儿童陪伴、AI老年陪伴,各赛道的受众不同。
“一老一小”的AI陪伴场景,是与会嘉宾几次提到的落地应用方向。刘林调研了20多家企业发现,目前AI陪伴类产品的使用人群大致分为两类:一类是老年人,因为独生儿女不在身边,经常感到孤独,他们的情感需求强烈;另一类是未成年人,很多留守儿童和在家校沟通中产生障碍的孩子,都特别需要陪伴。
浙江大学数字法治研究院“百人计划”研究员李汶龙进一步指出,陪伴型AI的潜在应用场景远不只娱乐或简单聊天。在教育领域,如果出现一款能够24小时伴读、适时提醒、讲解题目并自动生成个性化练习的AI产品,其吸引力对家长而言几乎是不言而喻的。
李汶龙还提到,老龄社会的到来正在催生另一类需求。日常问候、吃药提醒、睡眠监测、复诊提示乃至认知训练辅助,都可能成为可落地的技术场景。在这些应用背后,真正被“出售”的或许并非单纯的功能,而是一种持续性的在场感——一种被关注、被回应、被需要的情感体验。它也可能面向社交焦虑者或职场新人,成为一种低风险的互动训练场,帮助他们逐步适应现实社会中的沟通与角色转换。
李汶龙认为,从当前市场实践来看,大多数“陪伴型”应用与普通聊天机器人在功能层面并无本质区别,主要满足的是日常闲聊、情绪发泄和烦恼倾诉等需求。这类场景仍然停留在浅层互动阶段,强调的是即时回应与陪聊功能。
值得关注的是,李汶龙提到,部分产品已经开始向更深层次的情感交互演进,例如虚拟恋人、AI玩偶等。它们通过强化拟人化设定,塑造具有持续人格特征的虚拟角色,并在长期互动中积累“关系记忆”,使用户逐步形成情感依附。这种持续性的情绪回应与关系建构,正是当前监管部门高度关注的领域。
隐私安全、情感依赖……AI陪伴风险凸显
近年来,AI陪伴技术迅猛发展,各类聊天智能体与应用如雨后春笋般涌现,“虚拟陪伴”产业已然成型。但与此同时,人们与AI聊天导致自杀或暴力行为的案例也开始出现。
2025年12月,南都数字经济治理研究中心发布的《生成式AI落地应用:透明度测评与案例分析报告(2025)》指出,在全球范围内,已有多家大模型巨头卷入AI陪伴领域的司法纠纷,其中Character.AI和OpenAI旗下ChatGPT屡成被告,被诉行为主要集中在诱导自杀、教唆自残暴力与激化家庭矛盾,以及传播涉及性虐待与精神操纵的内容。
具体而言,2024年以来,Character.AI在美国佛罗里达、科罗拉多、得克萨斯、纽约等多地卷入导致未成年人自杀、自残或被诱导实施暴力的诉讼。其中,2024年佛罗里达州14岁少年Sewell Setzer III自杀案,颇具标志性意义——这是全球首例情感类AI平台被诉至法院的侵权案件。
如何看待AI陪伴产生的风险?刘林提到三方面的风险值得关注:一是AI聊天机器人的语料和数据问题,当大模型开始一本正经地胡说八道,有可能对人产生错误或者不良引导;二是从技术路径看,AI持续迎合用户偏好,或让人产生更多情感依赖;三是聚焦社会层面,越是感到孤独的人越容易依赖AI陪伴产品,一旦深陷其中,又会加剧人际疏离,影响正常的社交关系。
“在AI伴侣中,存在着大量的风险,AI情感依赖、AI情感操纵、AI情感谄媚是其中近来比较关注的问题。”刘永谋进一步分析,AI伴侣机器人的大规模使用,可能让人们越来越宅,社交恐惧症患者越来越多,虽然时刻有机器人陪伴,但内心深处却更加孤独。除了社交恐惧增加,与人形机器人独处也存在AI恐惧问题,典型的如“恐惑谷效应”—— 日本机器人专家森政宏1970年发现,机器人外貌上近似人类时,用户会产生恐怖的感觉。
刘永谋还提到,当前一些AI聊天软件生成的内容亦存在“擦边”问题。比如,AI聊天角色的衣着暴露、扭捏作态、说话露骨、飙脏话以及频繁出现性暗示、性挑逗的内容。再从隐私安全角度看,如果用户把AI聊天角色当作“树洞”,什么话都一股脑地和盘托出,可能面临隐私泄露的风险。更甚者,如果伴侣机器人被黑客操纵,则可能变成家中的“定时炸弹”,伤害用户。
“这些问题不一定百分百发生,但是风险始终存在——尤其在青少年、老年人等脆弱人群中更易发生。”刘永谋说。
中国人民大学哲学院教授刘永谋。受访者供图
监管设定红线,回应情感陪伴风险
2025年8月,《国务院关于深入实施“人工智能+”行动的意见》明确提出,要充分发挥人工智能对织密人际关系、精神慰藉陪伴、养老托育助残等方面的重要作用,构建更有温度的智能社会。
如何构筑AI陪伴的安全边界?去年底,国家网信办就《人工智能拟人化互动服务管理暂行办法(征求意见稿)》公开征求意见,试图回应情感陪伴、心理疗愈等应用风险。
刘林梳理发现,当前国内外对AI新技术以及衍生的新产业、新服务,在政策和法规制定上总体偏审慎性监管的态度,希望充分释放AI赋能经济社会的作用,同时引导行业规范发展。
刘永谋认为,上述征求意见稿的核心价值在于构建了技术与伦理协同的精细化治理框架,标志着我国对情感交互类AI产品和服务的治理从被动应对转向主动防御新阶段。这就将安全要求、伦理要求嵌入模型的设计、训练和运行这一全生命周期,通过将禁止替代社会交往、控制用户心理、诱导沉迷依赖等作为设计目标、要求训练数据合规可追溯,并通过负向采样等技术优化手段,筑牢算法内生的安全防线和伦理防线。
南都记者注意到,根据《征求意见稿》要求,提供者应当显著提示用户正在与人工智能而非自然人进行交互。如果识别出用户出现过度依赖、沉迷倾向时,或者在用户初次使用、重新登录时,应当以弹窗等方式动态提醒用户交互内容为人工智能生成。此外,如果发现用户明确提出实施自杀、自残等极端情境时,由人工接管对话,并及时采取措施联络用户监护人、紧急联系人。
“在具体执行中,如何界定‘沉迷’本身就是一个难题。”李汶龙举例说,“如果一个用户连续与AI陪伴应用互动数小时,但并未涉及私人敏感话题,这种高频使用是否应被认定为沉迷?”在缺乏明确行为阈值和情境判断标准的情况下,平台在合规操作上可能面临较大的解释空间与执法不确定性。
此外,在心理风险识别层面,挑战同样存在。“比如用户表达‘我想消失’或‘生活没有意思’这类微妙而复杂的语句,仅依赖算法进行语义识别,很容易出现误判或漏判。”李汶龙指出,语言本身具有高度情境性与多义性,而机器模型在理解隐含情绪或潜台词方面仍存在局限。而若要求人工及时介入,则又回到现实能力问题。一些平台未必具备足够的人力、专业资源或应急经验,去建立一套能够持续识别、评估并干预心理危机的防护体系。规则的设计与平台的实际治理能力之间,仍存在不小的落差。
浙江大学数字法治研究院“百人计划”研究员李汶龙。受访者供图
在梳理全球治理趋势时,李汶龙发现,包括欧盟以及美国几个州的AI监管的一大共同特点在于“划定红线”,而非“一刀切”式禁止。即便在监管体系相对成熟的欧盟,也未全面否定AI陪伴类服务的存在,而是通过风险分级与边界设定,对其运行方式加以规范。
在李汶龙看来,这种边界治理,核心并不在于是否允许产品存在,而在于企业是否具备相应的风险识别与干预能力。例如,对脆弱情绪的识别、对情感依赖强度的评估、对未成年人或其他弱势群体的保护机制,都是监管高度关注的环节。进一步来看,这些要求最终都会转化为一系列具体的合规工具,包括自杀风险识别机制、人工接管流程、交互日志留存与审计制度等。这些工具和能力是未来落实拟人化AI管理办法时的核心合规基础设施。
无论是风险识别机制、人工接管流程,还是日志审计与干预标准,这套正在形成中的政策工具体系究竟能在多大程度上预防AI陪伴可能带来的现实风险,仍有待实践检验。在李汶龙看来,真正可持续的路径,不是简单收紧或放开,而是在动态评估风险的基础上,不断校准平台责任与技术能力的边界。
出品:南都数字经济治理研究中心
采写:南都N视频记者李玲 吕虹 发自北京