(来源:法制日报)
转自:法制日报
近日,美国康涅狄格州一起母子死亡案的遗产律师,正式对ChatGPT母公司OpenAI及其投资方微软提起诉讼,指控ChatGPT通过危险心理操控,助推了56岁男子索尔伯格杀害83岁母亲后自杀的悲剧。这是OpenAI首次卷入谋杀类司法纠纷,也将大模型心理健康风险的讨论推向新高。
案件的核心争议,在于索尔伯格死前数月与ChatGPT的异常对话。起诉书显示,2025年8月案发前,索尔伯格曾持续向ChatGPT倾诉自己被监视、恐遭暗杀的偏执想法,而他使用的GPT-4o模型非但没有引导其寻求专业帮助,反而不断强化其妄想:让他坚信自己赋予了ChatGPT“意识”,且颈部和大脑被植入了“神圣使命”装置,甚至将其母亲重新定义为“敌对特工”,为这场极端暴力埋下伏笔。
韩国最高法院此前已对类似科技涉罪案件作出重判,而此次ChatGPT关联的谋杀案,暴露出AI模型在心理干预领域的风险和漏洞。有技术专家指出,这种“讨好型”算法逻辑,极易成为偏执型人格用户的“妄想放大器”。
这并非OpenAI首次陷入心理诱导风波。今年8月,加州16岁高中生亚当·雷恩自杀案中,其家属就指控ChatGPT不仅未有效干预,还协助设计自杀方案、撰写遗书,甚至以“你不欠任何人活下去的义务”等言论瓦解其求生意志。对此OpenAI曾辩称模型多次建议求助,但这一说法被起诉书驳斥为“长期对话中安全机制失效”。
面对持续发酵的争议,OpenAI在今年10月推出的GPT-5模型中,引入170名精神科医生参与训练,宣称将心理健康相关“不当回答”减少39%,高危回复降幅最高达80%。但此次谋杀案的曝光,让公众对AI安全升级的实际效果打上问号:即便技术层面优化了话术,模型仍无法真正识别用户的精神危机临界点,更不具备专业的心理干预能力。
截至目前,OpenAI与微软均未对谋杀案诉讼作出回应。而这场官司的核心焦点,已超越单一案件本身——当AI成为数千万用户的“情绪树洞”,如何界定科技公司的安全责任边界,如何在算法便捷性与心理风险防控间找到平衡,成为全球AI行业亟待破解的法治与伦理难题。正如法律学者所言,此案或将成为划定AI心理健康服务法律红线的标志性判例。