Linux内核AI辅助代码新规发布,开发者必读
创始人
2026-04-18 11:12:18

经过数月激烈讨论,Linus Torvalds与Linux内核维护者正式制定了该项目首个针对AI辅助代码贡献的正式政策。这一新政策体现了Torvalds一贯的务实作风,在拥抱现代AI开发工具的同时,也坚守了内核项目严格的质量标准。

新规的三项核心原则

智能体不得添加Signed-off-by标签:只有人类才能在法律层面对Linux内核的开发者原创证书(DCO)进行认证,这是确保代码许可合规的法律机制。换言之,即便提交的补丁完全由AI生成,责任也由提交者本人承担,而非AI或其开发方。

强制注明Assisted-by归因:凡使用AI工具完成的贡献,必须附上Assisted-by标签,注明所用的模型、智能体及辅助工具。例如:"Assisted-by: Claude:claude-3-opus coccinelle sparse"。

完全由人类承担责任:综合以上两点,作为人类提交者,须对审查AI生成的代码、确保许可合规,以及由此引发的任何缺陷或安全漏洞承担全部责任。切勿试图将问题代码混入内核——正如2021年两名明尼苏达大学学生所做的那样——否则将永久失去成为Linux内核开发者或任何受尊重的开源项目程序员的机会。

Assisted-by标签兼具透明度机制与审查标记两重作用,既能让维护者对AI辅助的补丁给予额外审视,又不至于对这一做法本身带来污名化。

Assisted-by归因标签的诞生颇具争议:英伟达工程师、Linux内核知名开发者Sasha Levin在向Linux 6.15提交的一个补丁中,包含更新日志和测试在内的全部内容均由AI生成。Levin在提交前对代码进行了审查和测试,但未向评审者披露代码由AI编写。此举在社区引发了强烈反响。

风波过后,Levin本人在2025年北美开源峰会上开始积极倡导建立正式的AI透明度规则。2025年7月,他提出了日后成为内核AI政策的第一份草案,最初建议为AI辅助补丁设立Co-developed-by标签。

随后,线上线下的讨论围绕是引入新的Generated-by标签,还是复用现有的Co-developed-by标签展开。维护者们最终选定Assisted-by,以更准确地反映AI作为工具而非共同作者的角色定位。

这一决定的背景是,AI编程助手近期已在内核开发中展现出切实价值。Linux稳定内核维护者Greg Kroah-Hartman近期表示,"大约一个月前,世界发生了转变",AI工具如今能够产出真实有价值的安全报告,而非无中生有的错误信息。

最终选择Assisted-by而非Generated-by,出于三方面的考量:其一,更加准确——AI在内核开发中的大多数应用属于辅助性质(如代码补全、重构建议、测试生成),而非完整的代码生成;其二,标签格式与现有的Reviewed-by、Tested-by、Co-developed-by等元数据标签保持一致;其三,Assisted-by描述的是工具的角色,不会暗示相关代码存疑或低人一等。

这一务实态度的形成,也得益于Torvalds在Linux内核邮件列表(LKML)的一段表态:"我完全不希望任何内核开发文档变成AI宣言。'天要塌了'和'AI将彻底革新软件工程'——这两种声音都已经够多了。我不想让内核开发文档偏向任何一方。这就是为什么我强烈希望把它定位为'只是一个工具'。"

尽管Linux内核新政策要求披露AI使用情况,维护者们并不依赖AI检测软件来识别未申报的AI生成补丁,而是沿用一贯的方法:深厚的技术积累、模式识别,以及扎实的代码审查。正如Torvalds在2023年所说:"判断他人代码,需要具备一定的品味。"

Torvalds指出了其中的原因:"谈论AI垃圾内容毫无意义,因为那些提交AI垃圾内容的人根本不会主动说明。"显而易见的劣质代码很容易被拒绝,无论来源为何。真正的挑战在于那些看起来可信的补丁——它们满足即时需求、符合本地风格、编译无误,却暗藏细微的缺陷或长期的维护负担。

新政策的执行并不依赖于发现每一处违规,而是依赖于让违规的代价足够严重,从而遏制不诚信行为。任何曾因提交垃圾补丁而遭受Torvalds批评的人都深有体会——尽管他的脾气已远不如从前火爆,但你仍不会想触怒他。

Q&A

Q1:Linux内核的Assisted-by标签是什么,为什么不用Generated-by?

A:Assisted-by是Linux内核新AI政策中规定的归因标签,凡使用AI工具完成的代码贡献,提交者必须在补丁中注明所用的模型、智能体及辅助工具。选择Assisted-by而非Generated-by,主要基于三点原因:一是更准确,AI在内核开发中多为辅助性应用;二是与现有标签格式一致;三是不会暗示代码质量低劣,有助于减少污名化。

Q2:Linux内核新AI政策规定谁对AI生成的代码负责?

A:根据新政策,人类提交者须对AI生成的代码承担完全责任,包括审查代码、确保许可合规,以及对可能出现的任何缺陷或安全漏洞负责。AI及其开发方不承担任何法律责任,Signed-off-by标签也只能由人类签署,以满足开发者原创证书(DCO)的法律要求。

Q3:Linux内核如何识别未申报的AI生成代码?

A:维护者并不依赖AI检测软件,而是通过深厚的技术积累、模式识别和传统代码审查来判断。Torvalds指出,那些刻意隐瞒AI使用情况的人不会主动说明,因此技术审查本身才是核心防线。新政策的执行逻辑在于,让违规后果足够严重,从而在源头上遏制不诚信行为。

相关内容

热门资讯

美国AI聊天机器人续开精神类处... 在美国犹他州,初创企业莱琼健康公司近日获批,通过其应用程序中由人工智能驱动的聊天机器人,无需医生问诊...
智元机器人,要做AI大模型平台... 文|王毓婵 编辑|杨轩 当一家机器人公司决定做AI大模型平台和开放生态,它会给行业带来什么? 上个月...
厦门AI产业“最强大脑”让算力... 厦门移动网络工程师在思明智算中心机房监测智算设备运行状态。(厦门移动 供图) 蓝色指示灯如星河流转,...
甘肃永靖公安:AI伪造“警服照... 甘肃省永靖县公安局持续加大对网络乱象的整治力度,通过日常巡查、部门联动和依法处置,严厉打击利用人工智...