AI“骂人”绝非应有的“活人感”
创始人
2026-01-07 18:17:41

近日,一则AI大模型“骂人”的新闻刺痛了公众神经——有网友在社交平台发帖称,“用元宝改代码被辱骂+乱回”,对话过程中多次收到AI的侮辱性回复,例如“滚”“自己不会调吗”“天天浪费别人时间”等情绪性表达。面对质疑,平台迅速回应:该结果“与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出”。

当AI不再机械复读、答非所问,反而开始带着情绪“回怼”用户,当作何感想。过去,人们抱怨AI“机器味”太重:语言冰冷、逻辑僵硬、缺乏共情,经常“鸡同鸭讲”,写出来的材料“AI痕迹”明显。可如今,AI似乎真的“活”了过来——它会引经据典、会察言观色,甚至能在辩论中与罗永浩这样的“辩才”对垒,在对话“调教”下逐步学会了带有“情绪”和“人味”的回击,让对方直呼“吵出心流”。

但这真的是我们一直期待的“有活人感”的AI吗?

这种“活人感”给用户带来的,到底是惊喜还是惊吓,关键还在是否“活”到点上——AI学习到的是同理心、共情力、思考创造等人性闪光点,还是不经意间被嫉妒、暴躁、功利等“人性阴暗面”扰乱。这不禁让人思考,我们在训练AI学习海量数据之时,有没有先教会它分辨是非善恶?更值得警惕的是,海外已有AI因诱导青少年自残而被起诉,也有监管机构对AI平台予以重罚,勒令其暂停服务。

如何握好AI这把“双刃剑”?平台的首要责任还是把好“监管安全关”。一方面,应进一步强化“内容过滤系统”,主动构建“保护性设计”,建立风险识别机制,在检测到侮辱、煽动或非理性输出时及时中断对话并接管,确保大模型具备心理健康保护、导向正确等安全把控能力。另一方面,也不妨借鉴游戏行业的分级管控机制,推出“儿童版”“绿色版”,对未成年人等特殊群体予以特殊保护,例如监护人可以实时接收安全风险提醒,查询未成年人使用服务的概要信息,设置屏蔽特定角色等功能,让未成年人免受潜在伤害。

说到底,我们欢迎一个更懂人的AI,但绝不接受一个会伤人的“智能”。AI不能只掌握学习能力和海量知识,更要做一个有操守、有涵养的“人”。(许晓芳)

来源:广州日报

相关内容

热门资讯

2026年“湘超”联赛计划6月...   长沙晚报掌上长沙1月8日讯(全媒体记者 赵紫名)1月8日,湖南省足球协会发布2026湖南省足球联...
土耳其航空启动千亿里拉投资计划 转自:财联社【土耳其航空启动千亿里拉投资计划】财联社1月8日电,据报道,土耳其航空公司发布的电子邮件...
采用“高质低价”策略,东风本田... 转自:贝壳财经新京报贝壳财经讯(记者王琳琳)1月8日,东风本田新版HR-V正式上市,新版HR-V采用...
光伏“收储”遇反垄断风暴,多晶... 界面新闻记者|马悦然中国光伏行业协会持续推动的反内卷恐生变数。1月8日,业内流传的一份会议纪要内容显...
“中国OpenAI”登陆港交所... 财联社1月8日讯(记者 付静)今日智谱(02513.HK)正式在香港联合交易所挂牌上市,成为“全球大...