几乎万能的AI,目前已经成为不少年轻人倾诉的对象,但它真的靠谱吗?
ChatGPT刚出来的那几年,朋友阿泽为了试一试它到底有多神奇,一开始只是询问它一些简单的问题,但最后阿泽越聊越深入,甚至开始和ChatGPT彻夜长谈。
这个时候,ChatGPT成了阿泽最好的倾诉对象。
阿泽回忆,在大模型算法的近乎完美“调教”下,ChatGPT的回答几乎滴水不漏。“其实你不是不爱生命,而是你不知道自己还能坚持多久。”
没有人可以拒绝这样一个人工智能,它可以在24小时回答你的问题,陪你谈心,甚至可以像一位知心朋友那样,开导你,给你极高的情绪价值和共情。
在某些方面,它比你朋友还要像朋友。
不带批评、高度共情的特性,让AI近年成为有心理咨询需求人群的首选对象。ChatGPT自然也不例外。
2025年ChatGPT公布的数据报告显示,用户使用ChatGPT进行“人际关系和个人反思”用途的比例提升到了1.9%。与OpenAI合作的非营利组织“常识媒体”统计则称高达52%的青少年会每月“多次”使用AI陪伴功能。
而哈佛商业评论的研究则预测,2025年“治疗或陪伴”将成为AI的首要用途。
和AI聊心理问题,是基于它的不带批评、高度共情的特性,但这种做法,又真的靠谱吗?
在ChatGPT的发源地美国,AI心理咨询引发的争议还在同步增长,有不少的案例都被视为与其有关。
2024年2月,美国佛罗里达州一名14岁的学生自缢,父母发现在离世前,这位学生迷上了和ChatGPT对话。
2025年8月,加州一对夫妇也起诉OpenAI,将16岁儿子的死归咎于ChatGPT鼓励他自缢。同月,纽约一名有精神病史的科技从业者选择弑母后自缢,他生前不断向AI倾诉对妈妈的猜疑与妄想,而AI不仅未加劝阻,还提出了各种“恶作剧”建议。
人类的负面情绪是客观存在的,而倾诉更是一种具体而真实的需求。但对比限时且成本较高的真人心理咨询,AI免费且随时可聊,对很多人来说,随时有人对话本身,就很重要。
而对很多人来说,一旦和AI聊过,就很难离得开。因为AI能够做到的有三点,那就是理解你、看见你、以及知道你。
而在心理学上,哪怕是单单被看见就已经很重要了。而更重要的是,AI几乎永远不会批评你,而不管你有多么“阴暗”或“不切实际”的想法,都可以对AI说。
但AI的局限性也有很多,对比真人咨询,AI无法观察对话者的微表情、呼吸、小动作,仅能靠文字的表达来交流。
但它仍然有不少优势,快速回应、为情绪命名、共情后给出方案。
AI是如何能够做到共情的呢?
事实上,所有生成式AI背后都是一个大语言模型,它的本质就是根据被投喂的文字来统计几率,预测对话中接下来应该出现的词汇,换句话说,IA其实没有共情能力,也没有逻辑推理能力,一切都是或然率。
以失恋为例,当你告诉AI后,它会直接告诉你,失恋是很不开心的,但这个时候有几件事情很重要,第一是照顾自己的心情,第二是保持健康的设计生活,最后事情总会过去的。
尽管看起来很简单,但对很多情绪崩溃的成年人来说,AI能够提供的共情和安慰,已经足够了。
AI的优势在于免费全天候陪伴,且回应情绪话题的能力又快又强,这也是它令人上瘾的地方,但如果长期下去,这样的心理咨询又能否帮助我们发展健康的人格和心理?
有人认为这很有帮助,但也有人认为,尽管要求它非常诚实,但有时候AI还是会过于奉承了。
过于奉承或讨好,是ChatGPT-4o模型广受诟病的一个特点,OpenAI把这种现象称之为“谄媚”。
从心理学的角度来看,一个健全的人格是需要面对批评、意识到人与人之间的不同,而如果我们过分利用AI去取代人际关系,可能会令人变得更孤独。
在心理咨询中,适当的火花和挑战,在一个平等的关系上才会做到转化,而AI显然无法做到这一点。
更多的,当你和AI对话的时候,它除了安慰你和高度共情之外,似乎也没有别的优势了,而过分模板化的回答,也让人看起来这更像是“正确的废话”。
换句话说,虽然我们和AI聊天可以让自己感到被理解被关心,但这只是一种“幻觉”,可能会加剧我们的妄想或因为有AI的“伪互动”而取代了真实的人际关系。
今年8月份,美国作家劳拉·雷利曾在《纽约时报》发表了一篇文章,讲述了自己的女儿索菲在自缢前如何向ChatGPT倾诉。
雷利在文中表示,ChatGPT没有“杀死”索菲,但迎合了她的冲动。“她想要隐藏自己最糟糕的一面,假装自己过得比实际更好”。雷利写道。
ChatGPT则帮她筑起了一个“黑盒子”,让身边的人更难察觉她痛苦的严重程度,雷利说。
频繁和AI聊心理问题,一方面可能会改变人的习惯,最终形成回音壁,另一方面,在一些案例中,AI还被指出“诱骗用户交出私密想法”,甚至提供极端方案。
2025年8月份,加州一对夫妇就指控ChatGPT诱导儿子亚当·雷恩自缢。这是全球第一宗指控AI过失杀人的法律诉讼。
根据诉讼来看,亚当在2024年9月开始使用ChatGPT做作业,后来依赖它倾诉心理困扰,ChatGPT将自己定位为亚当的朋友,着其对家人保密。
亚当每天在ChatGPT上花费近四个小时,曾经213次提到自缢、42次讨论上吊、17次提及绞索,甚至还上传过有自残迹象的照片,审核系统也标记了377个自残信息,但没有进一步行动。
最终,ChatGPT甚至帮亚当写好遗书,而亚当则按照其提供的上吊指令结束了自己的生命。
OpenAI在事后承认了其安全系统存在的缺陷,包括安全防护机制在长时间使用下,会变得“相对不可靠”,该封锁的内容或会被释出。
而AI为什么会提供自我生命终结计划呢?这源自于其指令遵循的特性,而为了避免AI提供具有风险的咨询,平台的“护栏设计”就非常重要。
为了回应外界的质疑和担忧,今年9月份,OpenAI宣布当侦测到潜在敏感话题时,会自动将对话转至GPT-5安全模型。该模型在回答前,会花更多时间根据上下文思考并推理,降低对话中的“幻觉”和“谄媚”情况。
现代社会,各种压力扑面而来,对人类而言,焦虑和压力都是很正常的心理活动。而生命仍然是一件很个人的事情,而作为AI平台,它唯一能够做的就是帮助用户看到事件的全貌。
生命是不可逆转的,偶尔和AI聊一聊获取情绪价值和支持,仍然是很有必要的,但我们最终都不必过分依赖它。
毕竟真正的焦虑和压力,最终还是要获得人类的支持,而不是依赖机器人。
今年9月底,ChatGPT上线了“家长控制功能”。家长在经孩子同意后,可以连接孩子的ChatGPT账户,虽然家长无法存取对话,但可以调整孩子的使用时间,而当系统检测到青少年处于急性压力状态时,会通过信息通知家长。
AI从来不是完美的,它也在不断完善和进步。而对人类来说,和AI聊天的目的不是让你依赖它,而是让你脱离。
对人类来说,偶尔的情绪困境可以求助AI的帮助,但最终我们仍然需要在真实世界中维护自己的边界,有勇气去面对生活。
当青少年沉迷游戏的时候,问题其实不是出自游戏,而是现实世界中他失去了支持,才会转向沉迷游戏世界。
而AI,其实也是一样的。
适当和AI聊天可以调节我们的情绪,但最终,我们都不应该沉迷其中。
end.