Anthropic 提出透明度框架以保障前沿 AI 发展
创始人
2025-08-03 15:48:05
0

作者 | Daniel Dominguez

译者 | 刘雅梦

策划 | 丁晓昀

Anthropic 提出了一个新的 透明度框架,旨在解决在前沿 AI 模型开发过程中日益增长的问责需求。这一提议的重点针对正在开发强大 AI 模型的大型人工智能公司,这些公司是以计算能力、成本、评估性能和年度研发支出等因素来区分的。目标是建立一套标准,以确保安全,降低风险,并提高公众对这些先进 AI 系统的开发和部署的可见度。

框架的一个核心方面是实施安全开发框架(Secure Development Frameworks,SDFs),这将要求大型 AI 公司评估和减轻与其模型相关的潜在灾难性风险。这些风险包括化学的、生物的及放射性的危害,以及由模型自主性错位造成的伤害。该提案概述了这些框架不仅应解决风险缓解问题,还应确保负责任地处理 AI 开发流程。

该框架的一个关键要求是公开披露。根据提议的法规,AI 公司将被要求通过注册网站公开其 SDFs,提供对其安全实践的透明度。这将允许研究人员、政府和公众获取有关部署模型的重要信息,确保安全标准得到满足,并妥善管理任何风险。此外,公司还需要发布 系统卡片,提供模型测试程序、评估结果和实施的缓解措施的摘要。每当模型被修订或添加新功能时,这些文件都需要更新。

该框架还建议小型开发人员和初创公司不受这些要求的限制。相反,这些法规将适用于有潜力造成重大伤害的大规模 AI 公司,例如那些拥有大量计算能力或财务资源的公司。豁免旨在避免给小型公司带来不当负担,同时仍将监管工作集中在该领域最大的参与者身上。

此外,提议包括执行合规的具体条款。如果 AI 公司就其遵守框架的情况提供虚假或误导性陈述,将构成违法行为,确保必要时可以应用举报人保护。执法机制将允许司法部长对违规行为追究民事处罚,帮助维护系统的完整性。

社区的反应反映了对最近全球关于 AI 监管讨论的乐观、怀疑和实际关切的担忧。

AI 专家 Himanshu Kumar 在 X 上发表评论:

促进开源 AI 开发对安全创新不也是至关重要的吗?

与此同时,用户 Skeptical Observer 也发表了评论:

由谁来执行?这感觉非常以美国为中心。中国的实验室或其他范围之外的呢?举报人保护听起来不错,但没有全球覆盖,这只是权宜之计。希望他们在 AI 安全峰会上澄清这一点!

最终,提议的透明度框架旨在在确保 AI 安全 和促进持续创新之间取得平衡。虽然框架为透明度设定了最低标准,但它故意避免过于规范,允许 AI 行业随着技术的发展而不断适应。通过促进透明度,该框架寻求为 AI 开发人员建立清晰的问责制,帮助政策制定者和公众区分该领域负责任的和不负责任的做法。这可以作为进一步监管的基础,如果需要的话,提供必要的证据和见解,以确定随着人工智能模型的发展是否需要额外的监督。

相关内容

热门资讯

工业革命是怎么从英国传播到世界... 扩大19世纪期间,工业革命从英国逐渐传播到欧洲大陆甚至世界的非欧洲部分。起初,在传播方面存在着各种障...
工业革命是怎么从英国传播到世界... 扩大19世纪期间,工业革命从英国逐渐传播到欧洲大陆甚至世界的非欧洲部分。起初,在传播方面存在着各种障...
以“死”做局,女子一人饰七个角... 转自:央视网  2018年夏  辽宁沈阳的任先生与朱某相恋  两人相伴五年,生活平静  直到2023...
架起政企“连心桥” 当好企业“... 转自:云南日报我省出台一系列政策措施激发市场主体活力——架起政企“连心桥” 当好企业“娘家人”每2个...
工业革命是怎么从英国传播到世界... 扩大19世纪期间,工业革命从英国逐渐传播到欧洲大陆甚至世界的非欧洲部分。起初,在传播方面存在着各种障...