继DeepSeek-V3.2-Exp为期数月的公测与技术验证后,DeepSeek今日再次引爆开源模型社区,DeepSeek-V3.2正式版模型全面上线。目前,华为云ModelArts平台已适配DeepSeek-V3.2正式版算力模式部署,该模型API Token服务(MaaS)也即将上线。
DeepSeek-V3.2正式版不仅继承了Exp版本在推理能力上的惊艳表现,更在稳定性、并发吞吐量及长上下文召回精度上进行了针对性优化。此外,它也是首个将思考融入工具使用的模型,支持思考模式与非思考模式的工具调用,显著提升了复杂任务的处理能力。
DeepSeek-V3.2的主要特性包括:
强化智能体能力:该模型是首个支持在思维链过程中动态调用工具的模型,实现边思考边执行的能力,从而提升处理复杂任务的泛化性。
高性能:DeepSeek-V3.2的目标是平衡推理能力与输出长度,使其更适合日常使用,例如问答场景和通用Agent任务场景。在公开的推理类Benchmark测试中,DeepSeek-V3.2达到了GPT-5的水平,仅略低于Gemini-3.0-Pro。
基于华为云CloudMatrix384超节点部署DeepSeek-V3.2模型,主要价值体现在:
MoE模型亲和优化:DeepSeek-V3.2模型采用MoE架构,运行涉及大量的专家并行计算和高速数据通信。CloudMatrix384超节点架构具备业界领先的高速互联带宽,能够有效降低推理延迟。
长文本处理优势:DeepSeek-V3.2引入了稀疏注意力机制,结合CloudMatrix的大EP并行方案部署,通过在稀疏Attention结构上叠加实现上下文并行策略,兼顾模型时延和吞吐性能。
模型量化技术:针对DeepSeek-V3.2采用Int8/4的旋转量化方案,并结合离线非相干预处理、迭代搜索和灵活平滑量化的方法,在主流评测集上,提升量化模型精度1%~10%,实现模型精度与FP8格式对齐。
华为云ModelArts推理平台已支持DeepSeek、Qwen、Kimi、GLM等业界主流开源大模型,通过华为云并适配昇腾算力加速特性,同时基于CloudMatrix384超节点进行深度适配与优化,提供“加速套件+最佳实践”模型推理服务,更好地为用户提供开源模型商业化服务。
华为云始终将技术创新作为核心驱动力,持续围绕高性能、稳定可靠的算力服务,降低企业使用AI的技术门槛,推动AI技术在各行各业的广泛应用。
诚邀您即刻体验DeepSeek-V3.2模型的能力。
通过浏览器直接访问
华为云官网首页-产品-人工智能-AI开发平台ModelArts控制台,购买或使用Lite Server或Cluster轻量算力资源,并进行模型部署。
或者访问以下地址:
https://console.huaweicloud.com/modelarts/?locale=zh-cn®ion=cn-southwest-2#/dashboard
👇点击【阅读原文】跳转链接,即刻开始体验。


