大数跨境
0
0

Dify 上线 GMl Cloud 插件!构建深度研究工作流只需 5 步!

Dify 上线 GMl Cloud 插件!构建深度研究工作流只需 5 步! GMI Cloud
2025-11-14
0
导读:快来试试 Dify 的 GMI Cloud 插件吧


NEWS

摘要

GMI Cloud 插件正式无缝集成到 Dify!提供高性能的多系列模型,MinimaxDeepSeekGPT OSSQwenKeling等,支持市场研究、模型评估、文献综述等任务处理。大家只需获取 GMI Cloud API 密钥,在 Dify 安装配置插件,即可借助模板构建深度研究工作流程。本文为步骤的详细教程。


01

概述


GMI Cloud 是一个强大的云原生 GPU 基础设施平台,专为高性能 AI 推理服务设计。适配 Dify 的 GMI Cloud 插件可让你将 GMI Cloud 的功能无缝集成到 Dify 工作流程中。以下是插件的主要功能:


  • OpenAI 兼容的 API:支持通过标准 OpenAI 客户端库和工具实现无缝集成。


  • 多个模型系列:获取丰富的模型资源,包括 DeepSeek、Llama、Qwen、OpenAI OSS 和 GLM 模型。


  • 高性能:针对快速推理和低延迟优化,非常适合需大量计算能力的研究任务。


  • 流媒体支持:支持实时流式传输,实现流畅聊天交互。


  • 工具调用:支持函数调用,可将外部工具集成到工作流程中。


  • 自定义模型支持:轻松部署和使用你自己的微调模型。


  • 灵活的端点:可为企业级部署配置自定义 API 端点。



配置插件后,你可以访问和使用插件附带的一系列预设模型。目前包含以下类别:


  • DeepSeek:

    • deepseek-ai/DeepSeek-V3-0324

    • deepseek-ai/DeepSeek-V3.1


  • OpenAI OSS:

    • openai/gpt-oss-120b


  • Meta-Llama:

    • meta-llama/Llama-4-Scout-17B-16E-Instruct


  • Qwen:

    • Qwen/Qwen3-32B-FP8

    • Qwen/Qwen3-Next-80B-A3B-Instruct

    • Qwen/Qwen3-235B-A22B-Thinking-2507-FP8

    • Qwen/Qwen3-Coder-480B-A35B-Instruct-FP8


  • 智谱(ZAI):

    • zai-org/GLM-4.6


这些模型具备多种功能,可用于执行自然语言处理、文本生成、代码生成等任务。


通过以下链接可以获取该插件的最新文档(复制到浏览器中打开):

https://marketplace.dify.ai/plugins/langgenius/gmicloud


02

分步指南


第 1 步:从 GMI Cloud 获取 API 密钥


若你尚未准备好 API 密钥,请先前往 GMI Cloud 控制台创建:


  1. 登录 GMI Cloud 控制台,进入 API 密钥管理页面。


  2. 点击「创建 API 密钥」,为其设置易记名称,然后选择 “范围” 为 “推理”。


  3. 请妥善保存你的 API 密钥,关闭弹出窗口后将无法再次查看。



第 2 步:在 Dify 中安装插件


接下来操作 Dify:前往 Dify 插件市场(路径:Plugins - Dify https://cloud.dify.ai/plugins?category=discover),搜索并安装 GMI Cloud 插件。



第 3 步:在 Dify 中配置插件


现在为 Dify 中的插件完成配置:


  1. 打开 Dify,进入设置→模型提供程序。


  2. 在可用提供商列表中找到 GMI Cloud,点击「设置」。


  3. 在 API 密钥字段中输入你的密钥,这是唯一必填项。


  4. (可选)若你的组织使用自定义端点,可输入 API 端点 URL;否则插件默认值为:https://api.gmi-serving.com/v1


  5. 点击「保存」激活插件。


Dify 将通过调用 /v1/models 端点验证你的凭据,确保所有设置无误。



若配置成功,你将看到绿灯提示。此时即可开始构建工作流程!



第 4 步:在 Dify 中构建深度研究工作流程


进入首页,点击「从模板创建」:



本次将使用 Dify 官方提供的 DeepResearch 模板。



在插件安装页面,请务必勾选两个工具:Tavily 和 JSON Process。无需启用另外两个模型提供程序插件,我们将使用 GMI Cloud 的模型端点。



复杂的图表看似很多,但无需困扰,我们只需关注两个节点:LLM 节点和推理模型节点——用 GMI Cloud 的模型端点替换它们。



对于 LLM 节点:将 gpt-4o 替换为 GLM-4.6(这是一款性能出色的通用 LLM 模型,擅长各类通用任务。了解更多信息可访问 zai-org/GLM-4.6 · Hugging Face  https://huggingface.co/zai-org/GLM-4.6)。



对于推理模型节点:将其替换为 Qwen/Qwen3-235B-A22B-Thinking-2507-FP8(该模型在多项推理基准测试中表现优异。了解更多信息可访问 Qwen/Qwen3-235B-A22B-Thinking-2507-FP8 · Hugging Face 

https://huggingface.co/Qwen/Qwen3-235B-A22B-Thinking-2507-FP8)。



完成以上设置后,点击右上角的「发布」按钮,工作流即可运行!


第 5 步:开始试用!


现在让我们进入工作流应用程序。设置一个可选的深度参数——这就是这个工作流被称为深度研究的原因,能够根据指定的深度,会进行多轮迭代搜索。例如,我们把它设为2


以下是示例提示词:

Which industries are showing the strongest early signals of disruption from generative AI?



需要注意的是,由于深度研究可能需要多轮推理,完整答案可能需要一两分钟才能生成。总之,你最终将获得一份撰写规范、来源明确的分析报告。



03

结论


在 Dify 中通过 GMI 插件构建深度研究工作流程,能够充分利用 GMI Cloud Inference Engine中的 AI 模型和尖端云基础设施。无论你是进行市场研究、模型评估还是文献综述的撰写,它都将是你最可靠的伙伴,全力助力你的生产流程。


现在就去安装 GMI Cloud 插件,完成 API Key 配置,就可以立刻开始构建你的深度研究工作流程啦!如有任何问题,可随时通过邮箱联系我们: support@gmicloud.ai 


关于 GMI Cloud

由 Google X 的 AI 专家与硅谷精英共同参与创立的 GMI Cloud 是一家领先的 AI Native Cloud 服务商,是全球六大 Reference Platform NVIDIA Cloud Partner 之一,拥有遍布全球的数据中心,为企业 AI 应用提供最新、最优的 GPU 云服务,为全球新创公司、研究机构和大型企业提供稳定安全、高效经济的 AI 云服务解决方案。


GMI Cloud 凭借高稳定性的技术架构、强大的GPU供应链以及令人瞩目的 GPU 产品阵容(如能够精准平衡 AI 成本与效率的 H200、具有卓越性能的 B200 以及未来所有全新上线的高性能芯片),确保企业客户在高度数据安全与计算效能的基础上,高效低本地完成 AI 落地。此外,通过自研“Cluster Engine”、“Inference Engine”两大平台,完成从算力原子化供给到业务级智算服务的全栈跃迁,全力构建下一代智能算力基座。


作为推动通用人工智能(AGI)未来发展的重要力量,GMI Cloud 持续在 AI 基础设施领域引领创新。选择 GMI Cloud,您不仅是选择了先进的 GPU 云服务,更是选择了一个全方位的 AI 基础设施合作伙伴。


如果您想要了解有关 GMI Cloud 的信息

请关注我们并建立联系


【声明】内容源于网络
0
0
GMI Cloud
全球智算,就选GMI Cloud
内容 96
粉丝 0
GMI Cloud 全球智算,就选GMI Cloud
总阅读51
粉丝0
内容96