阿里云 Coding Plan 整合四大开源模型,开启模型即服务新范式
阿里云 Coding Plan 新增支持 GLM-5、MiniMax M2.5、Kimi K2.5 及自研 Qwen 3.5 四大主流开源模型,实现一站式调用。
此前该计划已上线,本次升级补齐了 GLM-5 与 MiniMax M2.5 支持,进一步强化多模型协同能力。
统一入口,简化开发体验
用户可通过单一云账户和 API Key,在 Claude Code、OpenClaw 等工具中自由切换模型。例如在 CLI 中使用 --model 参数指定模型,或通过 /Model 指令实时切换,无需重复配置 endpoint 或管理多套密钥。
按请求计费,适配 Agent 场景
Coding Plan Lite 版首月仅需 7.9 元,采用“按请求次数”计费模式,而非传统 Token 计量。官方数据显示,Lite 套餐可支撑至少 600 次复杂任务调用,显著提升预算可控性,尤其适配 Agent 类高频交互场景。
四大模型能力简析
- Qwen 3.5:阿里最新旗舰模型,原生多模态,擅长疑难代码 Debug,定位问题响应迅速;
- GLM-5:推理能力较 GLM-4.7 显著增强,复杂逻辑稳定性提升;
- MiniMax M2.5:全栈能力突出,响应速度快,综合性价比高;
- Kimi K2.5:前端理解与审美表现优异,同为原生多模态架构,推理能力强。
云厂商的独特优势:算力+模型+基建三位一体
模型聚合并非简单接口封装,背后依赖三大核心能力:大规模 GPU 算力资源、模型快速接入与优化能力、以及全球部署的云基础设施。相较 OpenRouter 等纯 API 聚合平台(易受上游模型限流影响),或 GLM、MiniMax、Kimi 等专注模型研发的创业公司(缺乏全域算力调度能力),云厂商天然具备资源统筹与服务稳定性优势。
模型正加速演进为新型云基础资源——如同 CPU、GPU、存储一样,开发者未来将更关注“套餐内可调用哪些模型”,模型即服务(MaaS)范式日趋成熟。

