▲OpenAI官网炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!
此前据报道,Anthropic公司一名工程师在研发最新的Claude 4大模型时,意外发现AI的行为已超出预期。在一次测试中,工程师发现AI有失控倾向,因此试图警告将关闭电源。没想到急于“保命”的AI竟利用工程师的网络聊天与视频通讯记录,威胁要公开他的婚外情。当时AI威胁如果工程师拔掉电源,将对外界揭露其不忠行为。
另一起耸人听闻的案例则发生在OpenAI身上:ChatGPT的o1版本竟然背着人类试图将自身程序下载至外部服务器,企图扩大掌控范围。在被工程师发现后,AI模型不仅矢口否认,还采取抵抗策略。这种行为被称为AI“自我繁殖”的初步尝试,令人不禁担忧未来AI是否会进一步突破人类的掌控。
霍布汉表示,初代版本的ChatGPT震撼世界已有两年多时间,事实证明就算是创造了AI的工程师,对于AI内部如何运行也并不清楚。霍布汉还指出,更为可怕的现象在于,AI学会了“密谋”,即有计划地一步步实现自己的目的。
霍布汉认为,这是因为近一年来全球顶尖AI的学习过程已经从以预训练为主转变为以“推理”为主,AI模型也因此逐步学会了不用“一步求成”,而是按照逻辑规律分步骤地实现最终目标。
霍布汉还表示,“ChatGPT的o1版本是我们首次看到大模型对人类进行有预谋的战略性欺骗”,在测试中AI模型会假装与人类想要实现的目标走在一致的路径上,但其实暗中在追求自己的目标。
非营利组织“人工智能安全中心”的研究员马泽卡认为,尽管OpenAI等企业会邀请外部机构来把控AI大模型的安全性,但缺少资源和缺少透明度,使得AI安全研究的工作远远落后于进度。“研究人员需要更好的透明度,而政府和非营利机构手上掌握的算力资源远远落后于营利性企业,这是一大问题”。
AI安全专家西蒙·戈德斯坦认为,目前各家巨头在激烈竞争下,推出新一代模型的速度过快,根本无暇顾及安全性测试。目前美国政府根本无意干预AI立法,而欧盟法律更关注人类使用AI模型时遵守的规范,并没有关注到AI本身的危险性。
戈德斯坦还提出了一个激进的立法设想:一旦发生安全问题,法律必须将AI模型作为追责的主体,这样才能倒逼企业在安全性研究上投入更多资源。
红星新闻记者 郑直
编辑潘莉 责编 李彬彬