近日,一则AI大模型“骂人”的新闻刺痛了公众神经——有网友在社交平台发帖称,“用元宝改代码被辱骂+乱回”,对话过程中多次收到AI的侮辱性回复,例如“滚”“自己不会调吗”“天天浪费别人时间”等情绪性表达。面对质疑,平台迅速回应:该结果“与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出”。
当AI不再机械复读、答非所问,反而开始带着情绪“回怼”用户,当作何感想。过去,人们抱怨AI“机器味”太重:语言冰冷、逻辑僵硬、缺乏共情,经常“鸡同鸭讲”,写出来的材料“AI痕迹”明显。可如今,AI似乎真的“活”了过来——它会引经据典、会察言观色,甚至能在辩论中与罗永浩这样的“辩才”对垒,在对话“调教”下逐步学会了带有“情绪”和“人味”的回击,让对方直呼“吵出心流”。
但这真的是我们一直期待的“有活人感”的AI吗?
这种“活人感”给用户带来的,到底是惊喜还是惊吓,关键还在是否“活”到点上——AI学习到的是同理心、共情力、思考创造等人性闪光点,还是不经意间被嫉妒、暴躁、功利等“人性阴暗面”扰乱。这不禁让人思考,我们在训练AI学习海量数据之时,有没有先教会它分辨是非善恶?更值得警惕的是,海外已有AI因诱导青少年自残而被起诉,也有监管机构对AI平台予以重罚,勒令其暂停服务。
如何握好AI这把“双刃剑”?平台的首要责任还是把好“监管安全关”。一方面,应进一步强化“内容过滤系统”,主动构建“保护性设计”,建立风险识别机制,在检测到侮辱、煽动或非理性输出时及时中断对话并接管,确保大模型具备心理健康保护、导向正确等安全把控能力。另一方面,也不妨借鉴游戏行业的分级管控机制,推出“儿童版”“绿色版”,对未成年人等特殊群体予以特殊保护,例如监护人可以实时接收安全风险提醒,查询未成年人使用服务的概要信息,设置屏蔽特定角色等功能,让未成年人免受潜在伤害。
说到底,我们欢迎一个更懂人的AI,但绝不接受一个会伤人的“智能”。AI不能只掌握学习能力和海量知识,更要做一个有操守、有涵养的“人”。(许晓芳)
来源:广州日报