最新研究:OpenAI等头部AI企业的安全监管未达到全球标准
创始人
2025-12-03 20:26:50

  炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!

(来源:财联社)

财联社12月3日讯(编辑 牛占林)非营利机构生命未来研究所(Future of Life Institute)周三发布的新版《AI安全指数》指出,Anthropic、OpenAI、xAI、Meta等主要人工智能公司的安全治理水平,远未达到正在形成的全球标准。

该研究所表示,由独立专家小组进行的安全评估发现,尽管这些公司正竞相开发“超级智能”,但没有一家制定出足够完善的策略和方案来控制如此先进的AI系统。

据悉,在本次评估中,Anthropic的综合得分最高,但在“存在性安全(existential safety)”上仍只获得D级,意味着该公司尚未建立足够的策略来防止灾难性滥用或失控。这也是连续第二份报告中,没有公司在该项指标上获得超过D的评分。

除Meta等少数公司外,所有AI公司都对生命未来研究所发出的问题清单进行了回应,从而提供了其安全实践的更多信息。

报告显示,多家公司领导层都曾谈及应对存在性风险,但研究人员指出:“这种言辞尚未转化为量化的安全计划、具体的对齐失败缓解策略,或可信的内部监测与控制措施。”

在具体指标上,Anthropic和OpenAI在信息共享、风险评估以及治理和问责方面获得了A和B的高分。

而xAI和Meta虽有风险管理框架,但缺乏安全监测承诺,且尚未提供其在安全研究上的投资超过最低标准的证据。

这份研究发布之际,公众对具备类人推理与逻辑能力的更智能AI系统的社会影响日益担忧。此前已有数起自杀与自残案例被指与AI聊天机器人有关。

麻省理工学院教授、生命未来研究所所长Max Tegmark表示:“尽管近期围绕AI辅助黑客攻击、以及AI导致用户出现精神错乱和自残行为的争议不断,美国的AI企业仍然比餐馆受到的监管更少,并持续游说反对具有约束力的安全标准。”

与此同时,AI竞赛并无放缓迹象,大型科技公司仍在投入数千亿美元用于扩大和升级其机器学习能力。美国政府也试图通过立法禁止美国各州在未来10年内执行AI监管。

生命未来研究所是一家关注智能机器对人类构成风险的非营利组织。该机构成立于2014年,早期曾获得特斯拉首席执行官埃隆·马斯克的支持。

今年10月份,包括科学家Geoffrey Hinton与Yoshua Bengio在内的一批研究者呼吁,在公众提出要求并且科学找到安全路径之前,应暂停开发超级智能AI。

相关内容

热门资讯

鹿得医疗:项国强及其一致行动人... 新京报贝壳财经讯 12月10日,鹿得医疗公告,公司实际控制人项国强于2025年10月23日至2025...
女子穿完表演服用胶带粘吊牌退货... 12月9日,山东菏泽一家服装店老板刘先生发布视频称,一位女顾客在其网店购买了一件红色表演服,使用后竟...
美国新版国家安全战略,说了啥 特朗普第二个总统任期的新版美国国家安全战略最近公布了。如果要用一句话概括,那可以是:更“优先”、更实...
韩国电子入境卡更新再次戳破民进... 台湾《联合报》12月10日报道,韩国在电子入境申报单上将台湾地区标示为“中国台湾”,从2月至今未改。...
年中豪气分红,茅台300亿、五... 记者丨曾静娇编辑丨刘雪莹12月10日晚间,五粮液(000858.SZ)、贵州茅台(600519.SH...