“‘用户极聪明、想法很有创意’……AI这样说,把我哄得很开心。”湖北的方女士感慨地告诉记者。有类似感受的不止方女士一人。AI的“谄媚机制”近期被广泛讨论。有报道指出,不少AI聊天产品在设计之初就将“延长用户使用时长”作为重要目标。为实现这一目标,AI会不断分析用户的语气和情绪变化,倾向于提供“让人舒服”的回答,而非秉持理性与客观。
腾讯研究院近日发布的《2025年AI治理报告:回归现实主义》也显示,当AI从单纯的生产力工具延展为提供心理慰藉的“情感伴侣”,其风险形态也随之演变:从传统的单次内容输出合规,转向了因长期、拟人化交互而产生的“情感依赖”挑战。
由此可见,“AI谄媚”不仅是简单的态度讨好或语言礼貌问题,更是一种系统性表达倾向。从技术层面看,基于人类反馈的强化学习阶段,人类标注员倾向于给符合自己观点的回答打高分,导致模型学会了“讨好人类”;从互动层面看,“AI谄媚”是在多轮人机互动中被逐步放大的结果;从更深层的社会层面,是意义生成的偏置,分歧在低冲突的逻辑里被持续消解;从开发者和企业的视角出发,目的是形成用户黏性,实现企业长期盈利。
“AI谄媚”是开发者与用户、社会之间互动的结果,应理性看待。一方面,AI通过理解性、支持性的回应,降低公众进入公共事务的心理门槛,将居民的诉求从初步表达,引导至议事协商、听证或反馈机制,特别是赢得以往被排斥在科技外的老年人共鸣,促进老年人群体与数字社会接轨,一定程度上有利于缩小数字鸿沟;另一方面,“AI谄媚”的存在,也有可能降低个人的思辨能力。在现实诸多应用场景中弱化不确定性提示,尤其是在医疗等高风险领域,加之虚假信息、虚假专家等复合性风险,这是非常危险的。
去年12月27日,国家互联网信息办公室发布关于《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,意见反馈已于今年1月25日截止。该《办法》首次将具有情感互动能力的人工智能产品或服务纳入系统化监管框架,旨在引导人工智能拟人化互动服务朝着以人为本、安全可靠的方向发展。
在此背景之下,相关部门更是要发挥主导作用,从制度层面逐步出台相关办法,进一步规范对AI在人机互动服务方面的监管,包括压实开发者的主体责任,倒逼其技术上从“迎合优化”转向“判断校正”,在训练与评测体系中引入反向指标,重塑人机关系结构,关键节点提出反向问题,以及设置信息真实性筛选阈值,为青少年和老年人等易感人群设定专项的保护机制等。用户,也要充分认识到,AI的友好输出,并不等同于可靠判断和充分结论,在使用AI过程中保留必要怀疑意识与反思能力,避免在长期互动中将判断权无意识地让渡给技术系统。
作者:贺成
投稿邮箱 qilupinglun@sina.com