AI“骂人”绝非应有的“活人感”
创始人
2026-01-07 18:17:41

近日,一则AI大模型“骂人”的新闻刺痛了公众神经——有网友在社交平台发帖称,“用元宝改代码被辱骂+乱回”,对话过程中多次收到AI的侮辱性回复,例如“滚”“自己不会调吗”“天天浪费别人时间”等情绪性表达。面对质疑,平台迅速回应:该结果“与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出”。

当AI不再机械复读、答非所问,反而开始带着情绪“回怼”用户,当作何感想。过去,人们抱怨AI“机器味”太重:语言冰冷、逻辑僵硬、缺乏共情,经常“鸡同鸭讲”,写出来的材料“AI痕迹”明显。可如今,AI似乎真的“活”了过来——它会引经据典、会察言观色,甚至能在辩论中与罗永浩这样的“辩才”对垒,在对话“调教”下逐步学会了带有“情绪”和“人味”的回击,让对方直呼“吵出心流”。

但这真的是我们一直期待的“有活人感”的AI吗?

这种“活人感”给用户带来的,到底是惊喜还是惊吓,关键还在是否“活”到点上——AI学习到的是同理心、共情力、思考创造等人性闪光点,还是不经意间被嫉妒、暴躁、功利等“人性阴暗面”扰乱。这不禁让人思考,我们在训练AI学习海量数据之时,有没有先教会它分辨是非善恶?更值得警惕的是,海外已有AI因诱导青少年自残而被起诉,也有监管机构对AI平台予以重罚,勒令其暂停服务。

如何握好AI这把“双刃剑”?平台的首要责任还是把好“监管安全关”。一方面,应进一步强化“内容过滤系统”,主动构建“保护性设计”,建立风险识别机制,在检测到侮辱、煽动或非理性输出时及时中断对话并接管,确保大模型具备心理健康保护、导向正确等安全把控能力。另一方面,也不妨借鉴游戏行业的分级管控机制,推出“儿童版”“绿色版”,对未成年人等特殊群体予以特殊保护,例如监护人可以实时接收安全风险提醒,查询未成年人使用服务的概要信息,设置屏蔽特定角色等功能,让未成年人免受潜在伤害。

说到底,我们欢迎一个更懂人的AI,但绝不接受一个会伤人的“智能”。AI不能只掌握学习能力和海量知识,更要做一个有操守、有涵养的“人”。(许晓芳)

来源:广州日报

相关内容

热门资讯

宁德时代股价涨5.03%,民生... 3月10日,宁德时代涨5.03%,截至发稿,报375.49元/股,成交70.50亿元,换手率0.44...
永和股份涨2.01%,成交额9... 3月10日,永和股份盘中上涨2.01%,截至09:53,报29.37元/股,成交9529.65万元,...
巴西闽商联合会会长林本昂:让中... 7日,刚从家乡福州连江回到巴西圣保罗,巴西闽商联合会会长林本昂便急着安排闽商龙舟俱乐部的训练活动。在...
上海洗霸涨2.01%,成交额4... 3月10日,上海洗霸盘中上涨2.01%,截至09:53,报72.69元/股,成交4859.14万元,...
民警母亲手术急需用血 同事组团... 青口派出所民辅警组团献血。福州市公安局供图 “多亏了所里的同事们,不然我真不知道该怎么办!”近日,...