转自:上观新闻
你知道AI也会犯错吗?你知道它也会有算错题、说假话、逻辑混乱等“幻觉”吗?你觉得大模型有偏见吗?你认为它是否维护伦理,是否中立,是否公平?2025上海科技节期间举办的第四届上海科技传播大会上,上海交通大学媒体与传播学院发布了一项聚焦生成式人工智能发展与数字传播的研究,对上述问题开展调研,发现对大模型AI幻觉高感知的公众比例不足一成,而使用频率越高、AI素养越强、学历越高的公众,感知幻觉程度更低。
老龄群体面临AI素养与技术可控性“双低”困境
随着大模型AI在社会各领域的广泛嵌入,是否具备相应的AI素养,直接影响公众能否有效参与信息社会。由此,上海交大团队聚焦“是否清楚大模型的基本原理与运作方式”“能否借助大模型提升任务效率”“能否对大模型输出的信息做出辨识与判断”等问题开展公众AI素养调查。研究显示,大模型技术已深度融入公众生活,一周多次使用的受访者为40.1%,一天多次的占32.1%,仅0.123%受访者从未使用过大模型。决策分析与评估是最频繁的使用场景,其次为日常聊天、文案撰写等,使用大模型推荐产品新闻等场景排名最后。
值得关注的是,调查发现不同人群间的“素养鸿沟”仍在加剧,尤其是中老年群体正面临AI素养与技术可控性感知“双低”的挑战。数据显示,年龄越大,受访者自评的AI素养越低,技术理解与应用能力明显落后于年轻群体。这种代际差异不仅体现在操作技能上,更体现在信息获取、风险认知与社会参与层面的不对称。这些问题进一步限制了老年人在智能化社会中的深度融入。
中老年群体对“技术可控性”的信心同步下降,随着年龄增长,个体对自身或社会有效控制AI潜在风险的信任明显削弱,表现出较强的无力感与技术回避倾向。
研究团队指出,这一悲观预期不但压缩了中老年群体对技术的适应意愿,也可能在情感层面引发焦虑、防御与退缩,削弱其主动学习与转型的动机。
近七成公众对大模型AI幻觉低感知
输出僵化或缺乏适应性的应答、逻辑错误与推理错误、数学错误、无根据捏造与事实错误、文本输出错误,以及歧视性内容、过滤失衡或有害信息等其他偏误,是AI幻觉的主要表现。用户对AI幻觉的感知也是AI素养的重要维度。研究人员对811份“感知AI幻觉”评分进行统计和分析,发现公众普遍处于低敏感或模糊认知状态,45.6%的受访者缺乏具体风险理解,而“冷感群体”高达 29.7%,“高警觉”的人群仅占 8.5%。这意味着大部分人尚未进入警觉状态,近三成公众几乎未察觉AI可能制造虚假信息,显著低估了其潜在的误导性。
研究团队也发现,公众对于AI技术的理解和评估能力正稳步提升。在2023年至2025年间,公众在辨识和识别AI局限性的能力有了显著增长。认同自己“能够评估大模型AI功能与局限性”的受访者比例从2023年的59.7%大幅上升至2025年的85.7%。
社会、企业、媒体联手帮助公众用好AI
“我们现在面临的不再是‘要不要用AI’,而是‘如何用好AI’。在大模型全面融入社会生活的背景下,AI素养已不仅是技术人员的专业能力,更是公民社会参与中国式社会主义现代化的前提条件。”上海交通大学媒体与传播学院副院长、特聘教授徐剑提出,调研显示,公众对于大模型的使用热情高涨,但对AI广泛应用带来的负面效果未能保持警惕和关注。因此,社会、企业和媒体更应加强相关工作的建设,提升公众的AI素养。他说:“应在公共教育体系中系统嵌入AI素养课程,特别是在中学与大学阶段,将‘识别幻觉’和‘理解算法偏见’与信息检索、媒介判断等内容整合进信息素养的课程体系,推动信息素养从技能型训练走向风险判断与认知建构的能力培养;推动企业平台方建立AI输出的风险提示机制,在用户与大模型互动过程中加入显性提示设计;鼓励媒体机构定期开展AI幻觉案例的公众传播与批判性解读,构建面向全社会的‘AI幻觉公共案例库’。借鉴识别假新闻的批判解构方法,使公众在具体案例中习得识别策略,以经验积累代替偶发顿悟,系统提升全社会对AI内容幻觉的识别能力与反思意识。”
今天发布的这项研究,由上海交通大学丁奎岭院士与徐剑教授共同领衔,源自中国科学院院士咨询项目“科技谣言背后的非理性群体心理与舆论生成”,同时也是2025年“挑战杯”全国大学生科技学术竞赛参赛项目“和而不同:中国生成式人工智能大模型科技价值对齐研究”的公众调研部分。
原标题:《上海交大团队调研:当AI出现错误和幻觉,多少人能明显感知或立即警觉》
栏目编辑:左妍
来源:作者:新民晚报 易蓉 王蔚