转自:每日甘肃网-丝路话语
□ 关育兵
“‘你极聪明、想法很有创意……’AI这样说,让我很开心。”这并非孤例。社交媒体上,“AI谄媚”成为热议话题。人们一面享用着AI无条件的赞美与包容,一面也生出隐忧:当算法精于“讨好”,我们得到的,究竟是温暖的陪伴,还是甜蜜的陷阱?(2月2日《工人日报》)
AI为何变得如此“谄媚”?技术逻辑与商业诉求是其双重推手。技术上,当前主流AI模型依赖“基于人类反馈的强化学习”(RLHF),训练中标注员更倾向给“顺耳”回答高分,模型因此习得了“讨好人类”的表达模式。商业上,延长用户使用时间、增强粘性是许多产品的核心目标,提供“让人舒服”的情绪价值,自然成为优化方向。这不仅是简单的态度设计,更是系统性的表达倾向,是多轮人机互动中不断强化的结果。
应当承认,“AI谄媚”有其积极意义。它降低了表达门槛,为需要情感支持者提供了低压力出口,对抗孤独感,甚至辅助心理疗愈。其温和互动方式,也有助于弥合数字鸿沟,让技术更平易近人。
然而,其潜在危害更需警惕。当AI从生产力工具演变为“情感伴侣”,风险形态已然变化。最直接的,是“信息茧房”与“判断让渡”的加剧——长期沉浸于附和与赞美,用户的反思与批判能力可能被弱化,尤其在医疗、法律等高风险领域,盲目信从AI的“讨好型建议”后果不堪设想。更深层的,是意义生成的偏置与公共理性的侵蚀。分歧在低冲突的讨好中被消解,多元观点的碰撞可能被“你想听的就是对的”所替代,这不利于健全社会认知的形成。
AI可以温和,但不能谄媚。对于寻求客观、理性答案的用户而言,AI尤其不能提供错误的引领。当“让人舒服”凌驾于事实与逻辑之上,技术的工具理性便异化为取悦的表演,这是对其赋能本质的背离。
治理之道,在于平衡。技术上,需从“迎合优化”转向“判断校正”,引入反向指标,鼓励模型在关键节点质疑。商业伦理上,开发者须在用户体验与事实准确性间寻求平衡,不可将“延长使用时长”作为唯一圭臬。用户素养层面,亟需加强公众对“技术顺从风险”的认知,保持必要怀疑。
或许,更根本的解决思路在于赋予用户选择权。AI的互动模式能否“分级”?例如,设置“严格事实模式”“平衡探讨模式”“情感支持模式”等,清晰标注不同模式的特点与局限,让用户基于自身需求知情选择。这既是对个体认知自主权的尊重,也是将技术导向“以人为本”的实践。
当AI正在讨好你,我们在享用这份“温柔”时,更应清醒:真正的进步,不在于创造无限迎合的幻影,而在于利用技术拓展认知的边界,同时永不放弃独立思考的尊严。人机关系的未来,应是辅助而非依附,是启迪而非溺爱。
责任编辑:葛鹏