开源圈这次真的震动了。
就在最近,Linux内核社区围绕AI生成代码的长期争议终于落下帷幕。Linus Torvalds亲自下场,用一句话给这场争论画上句号:"讨论AI垃圾代码这件事,其实毫无意义,这完全就是在犯蠢。"
AI可以用,但出了事你负责
新政策最核心的变化,是一个标签的调整:AI生成的代码不能再用Signed-off-by标签,必须改用Assisted-by标签。
这看起来只是个小改动,但背后的逻辑很清晰——开源世界长期依赖DCO机制,开发者提交代码时需要声明"这段代码是我有权提交的"。问题来了,像Copilot、ChatGPT这些AI,是基于海量开源代码训练的,里面可能包含了GPL等强限制许可证的内容。开发者其实没法完全证明AI生成代码的"来源合法性"。
Linus的答案是:别纠结AI靠不靠谱了,谁提交的谁负责。
换句话说,不管代码是你写的还是AI帮你写的,只要你点了提交,那出了Bug、性能问题、甚至安全漏洞,责任都在你。
开源社区真正不能忍的是什么
说起来,开源世界对AI的焦虑,表面看是"老派工程师 vs 新工具"的冲突,实际上是个法律问题。
但更让社区受不了的,是"隐瞒使用AI"这档子事。
有个典型事件就发生在Linux内核内部:NVIDIA工程师、内核维护者Sasha Levin曾提交了一段完全由大模型生成的补丁,但没有任何AI标注。这段代码虽然能跑,却引入了性能回退,还在评审阶段误导了其他维护者。
事后Linus自己也承认:因为没有标注AI,这段代码没有被充分审查。
所以问题的本质很清楚了:开源社区不怕你用AI,但非常反感你"装作是自己写的"。
社区还给那些质量参差不齐的AI代码起了个名字:AI slop。这些代码看起来结构完整、语法正确,实际上逻辑漏洞一堆,甚至夹杂大量"幻觉"内容。
现实已经发生了一些案例:cURL的维护者被大量AI生成的错误报告淹没,干脆关闭了漏洞奖励机制;Node.js、OCaml等项目里,甚至出现过上万行的AI生成补丁,维护者都快疯了。
不只是Linux,整个开源圈都在震荡
类似的冲突并不只发生在Linux。在经典游戏Doom的Mod社区中,GZDoom项目负责人被发现在使用AI生成代码后没有披露,社区质疑时他直接"摆烂":"不满意可以fork。"
结果呢?社区真就这么做了——一个名为UZDoom的新分支迅速出现,大量核心开发者直接迁移过去,原项目元气大伤。
这说明,在开源世界,透明性一旦被打破,分裂几乎是不可避免的结果。
Linux给出的答案很工程师
对比来看,Linux内核社区这次给出的答案,非常"工程师思维":
代码好不好,比是不是AI写的更重要。
你可以用AI生成代码,但如果代码有问题、如果它是"AI垃圾"、如果它把内核搞崩了——点下"提交"的那个人,要亲自向Linus负责。
在Linux的开源世界里,这大概已经是最强的约束机制了。
说到底,Linus的态度很明确:AI本质上和编辑器、编译器一样,就是个工具。真正需要监管的不是"工具",而是使用工具的"人"。
这个逻辑,你怎么看?
评论列表
Loading...