危险信号?AI首次不听人类指挥!
创始人
2025-05-27 05:51:25

英国《每日电讯报》25日报道,美国开放人工智能研究中心(OpenAI)新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。

报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。

o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力。OpenAI曾称o3为“迄今最聪明、最高能”的模型。

美国AI安全机构帕利塞德研究所说,o3破坏关闭机制以阻止自己被关闭,“甚至在得到清晰指令时”。

这家研究所说:“据我们所知,这是AI模型首次被发现在收到……清晰指令后阻止自己被关闭。”

帕利塞德研究所24日公布上述测试结果,但称无法确定o3不服从关闭指令的原因。

此外,OpenAI26日宣布,已在韩国设立实体并将在韩国首都首尔设立分支。OpenAI提供的数据显示,韩国ChatGPT付费用户数量仅次于美国。

美国彭博新闻社报道,这将是OpenAI在亚洲设立的第三个分支。前两个分支分别设在日本和新加坡。(卜晓明)来源 | 新华社

占豪评:单单一次,不能定性,而且这也可能是OpenAI的炒作。

相关内容

热门资讯

东方港湾董事长但斌:“AI泡沫... 转自:新华财经新华财经上海12月21日电(林郑宏) 12月20日-21日,2025雪球嘉年华在上海举...
谨防陷阱!河南发布重要消费提示 (来源:财闻) 理性充值、谨慎预付诱惑,积分清零时间需关注,注意保留消费凭...
世界乒乓球职业大联盟赛制需“亡... 转自:北京日报客户端新华社北京12月21日电 世界乒乓球职业大联盟(WTT)日前公布了2026年系列...
湖北汽车工业学院好不好评价怎么... 湖北汽车工业学院好不好评价怎么样高考是人生的转折点,填报志愿时湖北汽车工业学院好不好评价怎么样和湖北...
中南民族大学好不好评价怎么样 ... 中南民族大学好不好评价怎么样高考是人生的转折点,填报志愿时中南民族大学好不好评价怎么样和中南民族大学...