Anthropic 提出透明度框架以保障前沿 AI 发展
创始人
2025-08-03 15:48:05

作者 | Daniel Dominguez

译者 | 刘雅梦

策划 | 丁晓昀

Anthropic 提出了一个新的 透明度框架,旨在解决在前沿 AI 模型开发过程中日益增长的问责需求。这一提议的重点针对正在开发强大 AI 模型的大型人工智能公司,这些公司是以计算能力、成本、评估性能和年度研发支出等因素来区分的。目标是建立一套标准,以确保安全,降低风险,并提高公众对这些先进 AI 系统的开发和部署的可见度。

框架的一个核心方面是实施安全开发框架(Secure Development Frameworks,SDFs),这将要求大型 AI 公司评估和减轻与其模型相关的潜在灾难性风险。这些风险包括化学的、生物的及放射性的危害,以及由模型自主性错位造成的伤害。该提案概述了这些框架不仅应解决风险缓解问题,还应确保负责任地处理 AI 开发流程。

该框架的一个关键要求是公开披露。根据提议的法规,AI 公司将被要求通过注册网站公开其 SDFs,提供对其安全实践的透明度。这将允许研究人员、政府和公众获取有关部署模型的重要信息,确保安全标准得到满足,并妥善管理任何风险。此外,公司还需要发布 系统卡片,提供模型测试程序、评估结果和实施的缓解措施的摘要。每当模型被修订或添加新功能时,这些文件都需要更新。

该框架还建议小型开发人员和初创公司不受这些要求的限制。相反,这些法规将适用于有潜力造成重大伤害的大规模 AI 公司,例如那些拥有大量计算能力或财务资源的公司。豁免旨在避免给小型公司带来不当负担,同时仍将监管工作集中在该领域最大的参与者身上。

此外,提议包括执行合规的具体条款。如果 AI 公司就其遵守框架的情况提供虚假或误导性陈述,将构成违法行为,确保必要时可以应用举报人保护。执法机制将允许司法部长对违规行为追究民事处罚,帮助维护系统的完整性。

社区的反应反映了对最近全球关于 AI 监管讨论的乐观、怀疑和实际关切的担忧。

AI 专家 Himanshu Kumar 在 X 上发表评论:

促进开源 AI 开发对安全创新不也是至关重要的吗?

与此同时,用户 Skeptical Observer 也发表了评论:

由谁来执行?这感觉非常以美国为中心。中国的实验室或其他范围之外的呢?举报人保护听起来不错,但没有全球覆盖,这只是权宜之计。希望他们在 AI 安全峰会上澄清这一点!

最终,提议的透明度框架旨在在确保 AI 安全 和促进持续创新之间取得平衡。虽然框架为透明度设定了最低标准,但它故意避免过于规范,允许 AI 行业随着技术的发展而不断适应。通过促进透明度,该框架寻求为 AI 开发人员建立清晰的问责制,帮助政策制定者和公众区分该领域负责任的和不负责任的做法。这可以作为进一步监管的基础,如果需要的话,提供必要的证据和见解,以确定随着人工智能模型的发展是否需要额外的监督。

相关内容

热门资讯

深圳赴国境外定居注销户口后又放... 事项内容   赴国境外定居注销户口后又放弃前往恢复户口 法律依据   中华人民共和...
深圳本市生源大中专院校学生恢复... 事项内容  【市生源大中专院校学生恢复户口 法律依据   中华人民共和国户口登记条...
深圳新生儿出生入户的条件和手续... 事项内容   新生儿出生入户 法律依据   中华人民共和国户口登记条例   ...
深圳“两劳”人员恢复户口的条件... 事项内容   “两劳”人员恢复户口 法律依据   中华人民共和国户口登记条例 ...
深圳市居住证办理的条件和手续 ... 事项内容   深圳市居住证办理 法律依据   深圳市居住证暂行办法 数量及方...