大数跨境
0
0

60分钟用一个API搞定「热梗表情包生成器」 | 博主体验GMI Cloud Inference Engine系列

60分钟用一个API搞定「热梗表情包生成器」 | 博主体验GMI Cloud Inference Engine系列 GMI Cloud
2025-11-07
2
导读:Inference Engine 体验案例


NEWS

摘要

下文为 ID 为“机智流”的博主用 GMI Cloud Inference Engine 新上线的 MiniMax M2 模型生成"热梗表情包生成器"的实录,全文为博主自撰原文。


上周我们发布了实测 MiniMax M2 的文章,和一起 AI Coding 的小伙伴交流后发现,最常被问题到的两类问题——一个是“我想开发某个类型的应用,用哪个模型效果更好?”;再就是“我需要调用不同种类的多个模型,每个模型都要适配和管理 API,有没有效率高一点的方法?”。


今天我们就用最近做的 AI 小应用为例,和大家分享下 0 代码开发 AI 应用的过程,做到一个 API 搞定所有模型(All Model in ONE API)。


正好最近“高雅人士”表情包火了,咱来开发一个“热梗表情包生成器”,做个个人专属“高雅人士”。效果如下(表情包进群自取):



Part 1


准备工作



1、需求梳理


这次要做的是一个“热梗表情包生成器”。主要利用文生图或者图生图大模型能力,快速将热梗做成 meme 表情包,或者仿制爆火的表情包。



2、开发工具


MiniMax M2接入Claude Code


因为上次评测后,我个人和同事的后续反馈很好,这次依然延续 Claude Code 和 MiniMax M2 作为开发工具(其实是懒得写新工具的使用测评~),采用 Vibe Coding 的方式,具体怎么实现参考《实测 MiniMax M2 》。



3、模型准备


1 方案选择


为了方便模型选型和模型的测试调试,采用的是 MaaS API 方案调用应用会使用到的各类模型。


MaaS(Model as a Service,模型即服务):指通过云端 API 提供模型能力的服务模式。


这次开发的 MaaS 平台选用的是 GMI Cloud[1] ,之前的项目用过他们的推理引擎(GMI Cloud Inference Engine),开发和后期运行的感觉都还不错。他们最近上线了 MiniMax 家的全套模型,正好满足这个AI应用的需求。


GMI Cloud 现在支持的 LLM,包含 MinMax、GLM、Deepseek、Qwen、Kimi、LAMA 系列各款模型


2 API 准备


GMI Cloud 的使用流程很简单,注册后点击右上角 “Redeem Voucher”,在弹出窗口中输入兑换码就可以看到充值到账了。


GMI Cloud兑换


填写兑换码兑换额度


然后右上角点击“API Keys”进入API的管理界面:


API管理界面


我的习惯是一个 AI 应用一个专属的 API Key,方便我管理和统计用量。这里看到我有两个 Key,“Code”是我使用 GLM4.6、K2、Qwen3 来 Coding 的,用一个 Key 避免了在几个模型官网和多个 Key 之间来回切换的麻烦。


“Video”这个 Key 就是这回“热梗表情包生成器”要用到的 API Key 了。记录下来,准备工作就完成了。


GMI Cloud最近上新模型,划到最后进群有优惠券可以领!


Part 2


(无聊的)开发


开发过程真的很无聊……



1、需求确认


还是先使用 CC 的 Plan 模式,提示词如下:


我想要制作一个网页应用“热梗表情包生成器”,能够根据输入的网络热梗(可带参考图),利用视频生成模型生成可下载的gif表情包,需求如下:1. 输入支持文字,或文字+图片两种模式2. 利用LLM对输入的文字提示词进行拓展3. 先对视频生成模型生成的视频进行预览,用户满意后,点击进行gif生成再生成后下载 LLM选用 MiniMax M2,API参考文档 xxxxx视频生成模型选用Minimax-Hailuo-2.3,API使用文档参考 xxxx

这里我选用的 MiniMax M2 作为扩词模型。值得一提的是,GMI Cloud 目前和 MiniMax 官方有联动活动,现在有不少免费用量。


GMI Cloud 模型广场


选用海螺 2.3 生视频则是因为,在 GMI Cloud 中每一个模型都有广场可以快速的测试模型效果和调整参数,在用相同的提示词比较了 n 多个模型后,海螺 2.3 是现有视频模型中性价比最高的。



GMI Cloud 支持的视频生成模型,包含 MinMax 家的海螺、可灵、Veo 和 Sora 等热门模型。


这里说一下,前面提示词中 XXX 的部分就是把 GMI Cloud 模型的使用文档复制粘贴进去,因为是同一平台提供的服务,多数 MaaS 平台会统一 API 接口(GMI Cloud 现在支持的是 OpenAI 格式的接口),一个文档就可以搞定众多模型的调用!


在 CC Plan 模式下经过几轮对话后,确定了应用的功能和开发计划:


经过几轮“沟通”后的开发计划



2、第一阶段开发


开始执行计划后我就去吃饭了……CC+MiniMax M2 根据 Todos 自己开始了开发工作。


根据 TODOs 开发,包含测试


吃完饭回来后测试遇到了几个 bug,继续对话粘贴错误代码和我需要的改进,完成第一阶段后的反馈如下:


第一阶段反馈


把准备工作中准备好的 API Key 复制到环境文件中,就可以开始使用测试了。提示词:


热梗“高贵的优雅”,一只且手拿红酒杯独自慢舞。



第一阶段测试


手动测试结果,前端显示操作,APIN 能够正常调用模型,各项设计功能也符合预期。可能是 GMI Cloud 底层搭载的是 H100/H200,视频的生成速度也比预期的要快的多。


视频生成效果预览



3、第二阶段开发


然后进入第二阶段开发。我个人的习惯通常在每个 AI 应用开发中用二阶开发模式,第一阶段是实现基础的设计功能,后端能运行,前端能看得过眼,就是达到“能用”的标准。


根据使用体验进行第二轮调试


第二阶段是根据第一阶段的表现和暴露的问题,进行流程的改进和必要功能的的添加。


注意!阶段≠对话轮数。很多功能和 bug 是需要多轮对话才能修复和实现的。


第二轮调试后结果


这是第二轮的调试后的结果,增加了直接视频生成 gif 的功能,同时完善了提示词扩展的多模型选择功能。


同一 API 可选用多 LLM 模型

同一 API 支持多视频生成模型


最终生成视频和 gif 的效果预览:



Part 3


结语


在实际的使用中,三个场景需要频繁调用/切换不同模型:


产品验证过程:通常需要开发人员或者客户针对同一功能和流程用不同的模型测试哪个效果更贴近真实需求。


需要多种类大模型的应用:和这次的热梗生成 meme 一样,真实的落地场景通常需要不同大模型(文本 LLM、语音生成、图像生成、视频生成)之间形成完善的工作流。


用户要求:要求支持不同厂家不同型号的模型,原因未知~


传统的做法是,每使用一个模型,就到它的官网去拿一个 API,查看一遍使用文档,然后针对不同模型开发接口,分别配置 API……


GMI Cloud 作为 MaaS 平台解决了模型选择和 API 调用复杂繁琐的问题,同时配合它简洁明了的操作文档和良好的配置体验(上周刚更新了 UI),让我可以轻松实现 All Model in ONE API 。


我可以在平台提供的模型广场测试不同的模型的效果,完成产品和概念验证;然后使用一个 API、一套接口调用多个模型,不仅是单纯的的文本 LLM,还可以方便的在语音生成、图像生成、视频生成等多种类大模型间切换。


除了模型本身的选型和调用更方便快捷之外,通过单一平台调用模型还能保证性能和传输的稳定性,避免不同厂家规格不一致和网络问题,也更容实现根据用量和功能后端切换模型的功能,节省开支。


GMI Cloud 支持的生图模型


最后说一下这个应用的真实落地拓展——加入语音和图片生成能力,制作一个海外电商商品自动推广视频和广告制作神器,有兴趣的同学自己尝试一下。


GMI Cloud 支持的语音生成模型


最后欢迎加入“AI Coding 交流群”,群内分享交流 AI Coding 的经验和问题,之后的活动也会在群里第一时间推送!


扫码加入 AI Coding 交流群


参考资料

[1] GMI Cloud: https://console.gmicloud.ai/?tab=maas


-- 完 --


关于 GMI Cloud

由 Google X 的 AI 专家与硅谷精英共同参与创立的 GMI Cloud 是一家领先的 AI Native Cloud 服务商,是全球六大 Reference Platform NVIDIA Cloud Partner 之一,拥有遍布全球的数据中心,为企业 AI 应用提供最新、最优的 GPU 云服务,为全球新创公司、研究机构和大型企业提供稳定安全、高效经济的 AI 云服务解决方案。


GMI Cloud 凭借高稳定性的技术架构、强大的GPU供应链以及令人瞩目的 GPU 产品阵容(如能够精准平衡 AI 成本与效率的 H200、具有卓越性能的 GB200、GB300 以及未来所有全新上线的高性能芯片),确保企业客户在高度数据安全与计算效能的基础上,高效低本地完成 AI 落地。此外,通过自研“Cluster Engine”、“Inference Engine”两大平台,完成从算力原子化供给到业务级智算服务的全栈跃迁,全力构建下一代智能算力基座。


作为推动通用人工智能(AGI)未来发展的重要力量,GMI Cloud 持续在 AI 基础设施领域引领创新。选择 GMI Cloud,您不仅是选择了先进的 GPU 云服务,更是选择了一个全方位的 AI 基础设施合作伙伴。


如果您想要了解有关 GMI Cloud 的信息

请关注我们并建立联系


【声明】内容源于网络
0
0
GMI Cloud
全球智算,就选GMI Cloud
内容 96
粉丝 0
GMI Cloud 全球智算,就选GMI Cloud
总阅读42
粉丝0
内容96