大数跨境

Kimi-Dev-72B 创开源纪录引争议,开源生态协作创新趋势渐显​

Kimi-Dev-72B 创开源纪录引争议,开源生态协作创新趋势渐显​ 元龙数字智能科技
2025-06-24
1


Kimi-Dev-72B

创开源纪录引争议

开源生态协作创新趋势渐显

在人工智能领域,开源模型的发展犹如一场激烈的竞赛,不断涌现的新成果推动着技术的边界持续拓展。近期,月之暗面发布的开源代码模型 Kimi-Dev-72B 在业界引起了广泛关注,其在软件工程任务基准测试 SWE-bench Verified 上取得的 60.4% 的成绩,不仅创下了开源模型的新纪录,超越了包括 DeepSeek 在内的多个竞争对手,也引发了一系列关于创新与开源生态的深入讨论。

基于 Qwen 的二次开发

Kimi-Dev-72B 并非从零开始构建的全新模型。根据月之暗面在 Hugging Face 上的说明,该模型明确标注了 “Base model: Qwen/Qwen2.5-72B”。官方博客也提到,是以 Qwen 2.5-72B 基础模型为起点,收集了数百万个 GitHub 问题单和 PR 提交作为中期训练数据集进行开发的。这清晰地表明,Kimi-Dev 是基于阿里巴巴 Qwen 团队的 72B 参数模型进行二次开发的产物。

从技术创新的角度来看,虽然 Kimi-Dev-72B 借助了 Qwen 的基础架构,但月之暗面在训练方法上展现出了独特的创新之处。其采用的大规模强化学习技术,让模型在 Docker 环境中自主修复真实代码仓库的问题,只有当完整测试套件通过时才能获得奖励。这种训练方式确保了模型生成的代码不仅在语法上正确,而且更符合实际开发场景中的标准和需求,是在特定领域对模型优化的一种有效尝试。

优异性能与开源协议

在软件工程任务基准测试 SWE-bench Verified 上,Kimi-Dev-72B 展现出了卓越的性能。该基准测试专门用于评估模型解决真实 GitHub issues 的能力,在这一测试中,Kimi-Dev-72B 取得的 60.4% 的成绩相较于前一名开源模型约 50% 的成绩,实现了显著的提升。这一成绩的取得,证明了 Kimi-Dev-72B 在代码相关任务处理上的强大能力,也使得它在开源代码模型领域崭露头角。

在许可证方面,Kimi-Dev-72B 的 LICENSE.md 文件显示其采用 MIT 协议发布。然而,月之暗面也在文档中明确说明:“Kimi-Dev-72B is built with Qwen-2.5-72B. Qwen-2.5-72B is licensed under the Qwen LICENSE AGREEMENT, Copyright (c) Alibaba Cloud. All Rights Reserved. Subject to the Qwen LICENSE AGREEMENT, Kimi-Dev-72B is under MIT license”。这意味着 Kimi-Dev-72B 需要遵守 Qwen-2.5-72B 的原始许可限制,同时将自己通过强化学习获得的微调权重等创新工作以 MIT 协议开源,这种 “delta 权重” 发布的方式在开源社区中并不罕见,它既尊重了基础模型的版权,又为自身的创新成果找到了合适的开源途径。

争议起源与许可协议解读

这场围绕 Kimi-Dev-72B 的争议,起源于社区对 “月之暗面是否获得了使用 Qwen-2.5-72B 的特殊许可” 的质疑。Qwen 的许可协议体系较为复杂,较小的模型采用 Apache 2.0 协议,而 72B 这个旗舰模型采用的是《通义千问许可协议》(Qwen LICENSE AGREEMENT)。这份协议规定,当产品的月活跃用户(MAU)超过 1 亿时,需要向阿里申请商业授权。考虑到 Kimi 作为热门 AI 助手的用户规模,以及可能将 Kimi-Dev-72B 引入其产品的情况,这个限制条款自然引起了广泛关注。

面对社区的询问,Qwen 团队负责人林俊旸在 X 平台上最初回复称 “no we did not give them the permission”(不,我们没有给他们授权),这一回复瞬间引发了激烈的讨论。然而,仅仅一个多小时后,林俊旸发布了第二条推文,改变了事件的走向:“nvm this is our legacy issue. for qwen3, all are under apache 2.0 now.”(没事了,这是我们的历史遗留问题。对于 qwen3,现在所有模型都采用 apache 2.0 协议了)。

深入分析 Qwen2.5 系列的许可策略可以发现,其采用的分级许可体系是造成这一 “历史遗留问题” 的根源。在 Qwen2.5 系列中,大部分模型(包括 0.5 B、1.5 B、7 B、14 B、32 B、VL、Omni 等)采用 Apache 2.0 协议,该协议具有商业友好、无限制使用、社区驱动等特点,全球开发者、研究机构和企业均可免费下载并商用,允许商业使用与二次开发,用户可以修改代码并以其他协议重新发布,极大地促进了技术的普及和社区的活跃。而 3B 和 72B 模型采用的《通义千问许可协议》则包含商业限制条款,这在一定程度上是为了保护阿里在核心模型上的商业利益。但随着时间的推移,这种分级许可策略逐渐显现出对生态发展的阻碍。于是,在 2025 年 4 月底发布的 Qwen3 系列中,所有模型都采用了更加开放的 Apache 2.0 协议,这一转变体现了 Qwen 团队构建更加开放和活跃的 AI 生态系统的决心。

开源协作与行业新范式

从更宏观的行业视角来看,Kimi-Dev-72B 引发的这场争议实际上反映了当前 AI 创业的现实困境与机遇。根据 MosaicML 的数据,训练一个达到 GPT-3 质量的 30B 参数模型需要约 45 万美元,而更大规模的 70B 参数级别模型,成本更是高达数百万美元。对于许多希望在 AI 领域有所建树的机构而言,如此高昂的训练成本无疑是一道难以跨越的门槛,除了巨额的资金投入,还需要配备顶尖的 AI 研究和工程团队,并且要时刻关注技术发展动态,应对未来模型训练成本可能进一步攀升的风险。

在这样的背景下,月之暗面选择 Qwen-2.5-72B 作为基座模型具有其合理性。多项评测显示,Qwen2.5 系列在代码、数学、多语言等多个方面都达到了业界领先水平。站在这样坚实的基座之上,月之暗面能够将有限的资源集中投入到自身的核心优势 —— 强化学习训练方法上,从而实现差异化的创新发展。NebulaGraph GenAI 负责人 Wey Gu 对硅星人表示:“我认为他们(Kimi)的开放权重、透明地分享 paper 的工作对社区是非常有益处的”,同时也指出,Kimi-Dev 分发 MIT 协议的 delta 权重文件在合规性上没有问题,“不过模型的消费者是绕不过 base model 的 Qwen license 的”。

尽管 Kimi-Dev 在 SWE-bench 上取得了令人瞩目的成绩,但在实际应用中,它仍然存在一些需要改进的地方。部分开发者在测试中发现,模型生成的代码有时需要经过调试才能正常运行,对于复杂需求的理解也不够完整和深入。这表明,即使依托强大的基础模型,要开发出真正优秀、能够满足各种实际场景需求的垂直应用,仍然需要大量的后续创新和优化工作。

这场关于 Kimi-Dev-72B 的 “套壳” 争议,最终成为了行业发展的一个缩影。它揭示了开源策略正在从限制性许可向完全开放转变的趋势,这是赢得开发者生态、推动技术广泛应用和创新的必然选择。同时,基于优秀基础模型的 “二次创新” 模式正在兴起,对于企业和开发者而言,关键在于找准自身的差异化价值,在开源生态中找到合适的定位。大厂与创业公司之间不再是简单的竞争关系,而是逐渐形成了一种新的协作模式,共同推动 AI 技术的发展和应用。随着越来越多的开源模型采用 Apache 2.0 协议,类似的许可争议有望逐渐减少,而像 Kimi-Dev 这样基于开源模型进行专项优化的案例或许会越来越多,这无疑是开源 AI 生态繁荣发展的积极信号。在未来,我们有理由期待在更加开放和协作的开源环境下,AI 技术能够取得更多突破性的进展,为各个行业带来更多的创新应用和价值。


/END/



【声明】内容源于网络
0
0
元龙数字智能科技
永做第一 使命第一 向善第一
内容 901
粉丝 0
元龙数字智能科技 永做第一 使命第一 向善第一
总阅读246
粉丝0
内容901