参考消息网10月23日报道据法新社10月21日报道,欧洲广播联盟21日发布的大规模研究显示,当被问及时事问题时,像聊天生成预训练转换器(ChatGPT)这类人工智能(AI)助手几乎每两次回答就会出现一次错误,主要表现为出现混淆新闻与幽默评论、日期错误、捏造细节等问题。
这项测试针对全球广泛使用的四款资讯类AI助手:开放人工智能研究中心(OpenAI)的ChatGPT、微软的智能副驾驶(Copilot)、谷歌的“双子座”人工智能模型(Gemini)以及“解惑”人工智能模型(Perplexity)。
根据由欧洲广播联盟协调并基于英国广播公司前期工作的研究,总体而言,无论语言或地域如何,这些回答中有45%包含“至少一个严重问题”。五分之一的回答甚至包含“重大错误”,并伴有过时信息,乃至“虚构细节”。
欧洲广播联盟副总干事让·菲利普·德滕德尔和英国广播公司人工智能项目负责人皮特·阿彻在研究中总结指出:“人工智能助手目前仍不是获取信息的可靠途径。”(编译/刘卓)