
对此新服务,有国内用户表示,“这是目前为数不多的稳定、高速、满血版的 DeepSeek R1 API”;在海外也收获了包括顶级风投机构A16Z创始人Marc Andreessen等人士的高度关注。

以下是使用指引:

SiliconCloud 上线的这两款模型主要包括五大特点:
1. 基于华为云昇腾云服务,硅基流动首发推出了 DeepSeek x 硅基流动 x 华为云的 R1 & V3 模型推理服务。
2. 通过双方联合创新,在自研推理加速引擎加持下,硅基流动团队基于华为云昇腾云服务部署的 DeepSeek 模型可获得持平全球高端 GPU 部署模型的效果。
3. 提供稳定的生产级 DeepSeek-R1 & V3 推理服务。让开发者能够在大规模生产环境中稳定运行,并满足业务商用部署需求。华为云昇腾云服务可提供澎湃、弹性、充足的算力。
4. 零部署门槛。让开发者更加专注于应用开发,开发应用时可直接调用 SiliconCloud API,带来更轻松易用的使用体验。
5. 与 DeepSeek 官方优惠期价格保持一致,SiliconCloud 上的 DeepSeek-V3 的优惠期价格(截止 2 月 8 日 24:00)为 ¥1 / M tokens(输入)& ¥2 / M tokens (输出),DeepSeek-R1 的价格为 ¥4 / M tokens(输入)& ¥16 / M tokens (输出)。

在线体验地址:
DeepSeek-R1:r1.siliconflow.cn
DeepSeek-V3:v3.siliconflow.cn
-
API 文档:docs.siliconflow.cn/api-reference


如果你想直接在客户端应用里体验 DeepSeek-R1 & V3 模型,可在本地安装以下产品,接入 SiliconCloud 的 API 后(可自定义添加这两款模型),即可体验 DeepSeek-R1 & V3。
大模型客户端应用:ChatBox、Cherry Studio、OneAPI、LobeChat、NextChat
代码生成应用:Cursor、Windsurf、Cline
大模型应用开发平台:Dify
AI 知识库:Obsidian AI、FastGPT
-
翻译插件:沉浸式翻译、欧路词典
作为一站式大模型云服务平台,SiliconCloud 致力于为开发者提供极速响应、价格亲民、品类齐全、体验丝滑的模型 API。
除了 DeepSeek-R1、DeepSeek-V3,SiliconCloud 已上架包括 Janus-Pro-7B、CosyVoice2、QVQ-72B-Preview、DeepSeek-VL2、DeepSeek-V2.5-1210、Llama-3.3-70B-Instruct、HunyuanVideo、fish-speech-1.5、Qwen2.5-7B/14B/32B/72B、FLUX.1、InternLM2.5-20B-Chat、BCE、BGE、SenseVoice-Small、GLM-4-9B-Chat 在内的数十种开源大语言模型、图片/视频生成模型、语音模型、代码/数学模型以及向量与重排序模型。平台支持开发者自由对比、组合各种模态的大模型,为你的生成式 AI 应用选择最佳实践。

其中,Qwen2.5(7B)、Llama3.1(8B)等 20+ 大模型 API 免费使用,让开发者与产品经理无需担心研发阶段和大规模推广所带来的算力成本,实现“Token 自由”。



