AI Coding 演化进行时
过去三年,AI 编码已从“补一句代码”发展为“承包一次变更”。作为最早实现产品市场契合(PMF)的技术方向之一,AI Coding 正进入下半场。它究竟是通用人工智能(AGI)的子集,还是独立演进的新路径?本文梳理其发展脉络与技术趋势。
三年演进:范式落地 → 开源上位 → 执行力为王
2023:范式落地,“可执行代理”初现
2023年标志着AI编码协作模式被主流平台确立——GitHub Copilot 与 ChatGPT 推动了“人写—AI辅”的日常化。与此同时,开源社区开始探索“不仅能说,还要能做”的新形态,两大趋势显现:
- IDE/多端一体化:Continue 通过开源扩展和 CLI 支持,在 VS Code、JetBrains 和终端间打通对话、补全、结构化编辑与 Agent 工作流,初步实现建议到动作的转化。
- 本地可执行:Open-Interpreter 实现模型在本机运行脚本的闭环,用户可通过命令行直接与AI交互并执行代码。
这些项目虽未达到产业级代理标准,但为后续 Code Agent 的爆发奠定了基础,推动行业从“能聊代码”迈向“能动手执行”。
2024:Coding Agent 上位,生态百花齐放
2024年,Coding Agent 成为主流,形成两大核心趋势:
可执行代理正式交付真实项目
OpenHands(原 OpenDevin)定位为“面向软件开发的 AI 代理平台”,支持从任务规划、工具调用、代码修改、测试执行到生成 PR 的全流程闭环。项目更名也标志着其从演示走向工程化与标准化评测。
许可式自动化成为共识
Cline 将代理集成进 VS Code,每一步操作均需用户授权,涵盖读写仓库、开启终端、启动浏览器等,兼顾自动化效率与安全可控,契合团队对可观测性的需求。
与此同时,云端原型工作台兴起。StackBlitz 的 bolt.new 基于 WebContainers 技术,将“Prompt→运行→部署/分享”流程极简化,成为前端与全栈开发者高频使用的快速原型入口,并迅速聚集开源社群。
2024年的关键词是“可执行代理 + 许可式自动化”——前者让提示转化为实际动作,后者为执行加上安全护栏,共同推动“写—测—改—提 PR”流程真正跑通,也为2025年的形态之争铺路。
2025:形态之争加速,CLI 成主战场
2025年,AI Coding 的竞争焦点从“补全准确率”转向“能否稳妥完成一次完整变更”。在此背景下,CLI 形态脱颖而出,因其天然贴近脚手架、测试与 CI/CD 流程,易于将“读库→计划→修改→验证→提交PR”的闭环压缩至开发者熟悉的命令行环境中。
Claude Code 定义了“终端即中枢”的新范式,作为 Agentic Coding 的 CLI 工具,提供完整的工作流示例,支持代理在命令行中完成从 Issue 到 PR 的全流程操作,极大提升了执行效率。
开源 CLI 项目进一步强化“可用性”与“可治理性”结合:
- Gemini CLI 采用 Apache-2.0 开源协议,内置插件化架构,并将 GitHub Actions 作为一等公民,支持通过 @gemini-cli 触发任务或编排进团队流程,赋予代理天然的可观测性与回归能力,推动其在组织内快速扩散。
- SST 的 Opencode 强调本地可控与多模型自由切换,支持 Anthropic、OpenAI、Google 及本地模型,在 TUI 界面中流畅切换,坚持100%开源与供应商无锁定,满足开发者对成本控制与长期落地的需求。
- OpenAI Codex 推出双轨设计:本地 Codex CLI 注重轻量、脚本化与本地执行;云端 Codex Web / IDE 集成则强化并行处理与上下文理解。该架构使可执行代理成为一个可扩展底座,既顺应 CLI 热潮,也为系统级协同预留空间。
当前热门项目的共性在于:谁能把执行闭环做得更顺畅、更可插拔,谁就更容易被团队采纳。CLI 成为主战场,正是因其融合了“可组合”(脚本/管道)、“可治理”(权限/审计/观测)与“可迁移”(对接现有工具链)三大优势。而开源项目凭借高适配性,既能接入 IDE 与 Web 工作台(如 bolt.new),也能下沉至 CI/CD 底层执行,成为理想的“标准拼装件”。
未来竞争将聚焦三大维度:上下文理解与工具生态(是否深度理解代码资产)、推理稳定性(复杂改动能否一次性成功)、开放性与成本(是否支持规模化部署)。
市场数据印证这一趋势。据 The Business Research Company 报告,全球 AI 编程工具市场规模预计将从 2024 年的 62.1 亿美元增长至 2029 年的 182 亿美元,复合年增长率达 24.0%,反映出渗透率提升、客单价上涨及组织级复用的叠加效应。
数据脉动:新老项目并存,生态换挡加速
对比今年5月的大模型开源开发 Landscape 图谱可见,“两端拉长”趋势明显:Cline、Continue、OpenHands 等“长红”项目持续领先,Gemini CLI、opencode、goose、marimo、openai/codex、avante.nvim 等“新面孔”快速上升。
这一格局背后体现三大规律:
- 协议优先、接口开放 的项目扩散更快(如 MCP/MCP 生态、Actions 一等公民);
- 本地可控 + 多模型支持 提升开发者粘性(如 opencode、Avante.nvim + Ollama);
- 从原型到交付的链路缩短(如 bolt.new、Codex Web),显著降低“从想法到产物”的门槛。
近两年热门项目的出圈逻辑可归纳为:
- 降低黑箱风险:优先本地执行,审批与追踪成为默认能力;
- 协议驱动、生态可插拔:MCP/ACP/ACI 等标准解耦“工具—代理—宿主”,大幅降低接入成本;
- 开发体验闭环:从建议到自动打补丁、测试、PR、回滚与审计,交付路径更短;
- “Vibe Coding”推动代码平权:自然语言操控仓库与脚手架,让更多角色参与原型与运维,生产环境仍强调人工审阅与回归测试。
为何2025偏爱CLI?是偶然还是趋势?
以 Gemini CLI 为例,该项目是 Google 开源的命令行智能代理,目标是“从提示直达模型执行”,将代码生成、修改、测试与协作嵌入开发者熟悉的终端环境。采用 Apache-2.0 协议,并提供官方 GitHub Action(run-gemini-cli),支持通过 Issue/PR 触发任务或响应 @gemini-cli 命令,使其既是个人工具,也是团队协作节点。
其快速普及的关键在于:
- 协作原生:通过 GitHub Action 成为仓库一等公民,支持自动分拣 Issue、生成测试、修复漏洞等;企业可通过 Google Cloud WIF 实现安全集成,减少密钥暴露风险。
- 上下文与容量优势:与 Gemini Code Assist、MCP 生态协同,主打大上下文与高频免费额度,降低团队尝试门槛。
- 从 CLI 到 CI 的无缝衔接:本地验证后几乎无需改造即可编排进 GitHub Actions,实现回归与可观测性,这对规模化推广至关重要。
因此,Gemini CLI 更适合需要“默认协作”的组织,而非仅用于本地辅助编码。不过,相比 IDE 中的细粒度编辑反馈,CLI/CI 在可视化方面较弱,可与 Cline、Continue 等 IDE 代理配合使用。
综上,CLI 的崛起并非替代 IDE 或 Web 工作台,而是承担团队自动化落地的“承力面”。三者各司其职:IDE 主攻个人效率与所见即所得编辑,Web 工作台专注快速原型与分享,CLI 则聚焦团队级自动化执行,形成互补而非零和博弈。
从应用到模型:“模型吞噬应用”的回响
应用层的演进始终受制于模型能力的突破。例如 Qwen3-Coder 已支持文件读写、目录列举等工具调用,可直接修改代码文件。
头部大模型在代码榜单中表现强劲。根据 HumanEval、SWE-Bench verified、LiveCode-Bench 等权威测评,OpenAI 的 O3、Anthropic 的 Claude、Google 的 Gemini 稳居前三。OpenAI 在推出 O3 后,相继发布 DeepResearch 与增强版 O3Search,冲击 Perplexity 核心场景;Claude Code 随 Claude 3.7 与 Claude 4 发布,虽非 IDE 形态,却引发大量开发者迁移。
当模型具备“理解整个仓库 + 稳定执行变更”的能力时,仅做 API 包装的工具将难以为继。真正的护城河正转向协议设计、流程优化与数据积累,而非简单调用不同模型。这种“降维打击”已导致众多缺乏底层构建的开源项目昙花一现,最终归于沉寂。
技术剖面:AI Coding 的五层堆栈
为避免陷入“功能比拼”的短期视角,需建立统一的技术坐标系。AI Coding 快速迭代背景下,唯有分层拆解才能应对模型侧的“降维打击”,实现灵活替换而非推倒重来。我们将其划分为五层堆栈:
- 接口形态(IDE/CLI/Web):决定人机交互边界与团队集成方式,代表项目包括 Cline(IDE)、Gemini CLI(CLI)、bolt.new(Web)。
- 执行内核(Agent Runtime):负责任务规划、工具编排、沙箱隔离、并行执行与断点恢复。
- 上下文织层(Context Fabric):基于仓库、Issue、Wiki 的 RAG、语义索引及 AST/CFG 级代码分析。
- 标准与协议(MCP、ACP、ACI 等):实现工具与代理的可插拔与可观测性。
- 模型与路由:支持多模型、本地部署与级联仲裁,平衡质量、成本与时延。
分层视角下,项目差异清晰显现:OpenHands 强在执行内核与 ACI 协议;opencode 胜在 CLI/TUI 接口与多模型路由;Gemini CLI 将协作流程通过 GitHub Action 作为北向接口输出;Codex 则通过本地+云端双轨打通上下文与执行链路。
进入下半场,竞争核心回归三大要素:推理稳定性(复杂改动成功率)、工具与上下文生态(对代码资产的理解深度)、开放性与成本(企业级落地可行性)。开源社区将继续作为新技术扩散最快的一层,而 CLI 与 IDE 插件因集成敏捷性更强,将成为新模型与工具的首选载体。
未来架构将趋于底层收敛:统一执行内核与协议层由开源主导,负责计划、工具调用、代码读写、运行观测与回退;上层维持 IDE、CLI、Web 多形态并存,分别服务于个人效率、团队自动化与原型演示场景。
结语
AI Coding 的拐点不在于“模型更聪明”,而在于“让聪明的模型可靠地完成一次真实变更”。当可执行代理与许可式自动化成为默认配置,IDE、CLI、Web 三种形态被整合进同一执行引擎,人机协作便从“能交互”进化为“能交付”。
下一阶段的竞争,将在执行闭环完整性、上下文理解深度与开放生态广度中展开,最终塑造下一代软件开发范式。
本文出自《大模型开源开发生态全景与趋势》洞察报告之 AI Coding 篇,作者董超(蚂蚁开源)。

