昨天晚上在技术群里看到有人分享Heroku的AI推理服务,好奇心驱使下我花了整个晚上来测试这个新玩意。结果嘛...一言难尽 😮💨
初见印象还挺不错,毕竟是老牌PaaS平台推出的AI服务,而且GitHub学生包直接送了$312的赠金(按$13每月计算,能用24个月)。表面上看起来性价比很高,支持的模型也不少,包括最新的claude-4-sonnet。
实际上手后问题就来了。接口确实是魔改的OpenAI格式,POST请求发到https://us.inference.heroku.com/v1/chat/completions,参数结构也差不多,但关键是缺少了/v1/models端点。这个看似小问题直接导致了兼容性灾难——Roocode识别不了服务,Cherry Studio也连不上,基本上主流的第三方客户端都用不了。
费用机制让人有点担心,虽然有赠金,但一旦用超就会自动从信用卡扣款,这种"危险"的计费方式确实需要小心。昨晚我特意熬到凌晨查看计费详情,想确认赠金究竟能不能用于AI推理计费,毕竟官方文档写得模棱两可。
部署过程倒是相对简单,主要通过Heroku CLI操作。先申请GitHub学生包,然后注册Heroku账号绑定信用卡,安装CLI工具,创建App,挂载AI插件,最后获取推理端点。整个流程走下来大概半小时,技术门槛不算高。
模型选择方面目前支持几个主流版本:claude-4-sonnet(上下文65536 tokens,最大输出8192 tokens,支持扩展思维)、claude-3-7-sonnet(上下文131072 tokens)、还有最新的claude-3-5-sonnet-latest和claude-3-5-haiku。不过所有模型都限制在美国区域部署。
测试结果显示API本身工作正常,用Postman或者Heroku CLI调用都没问题,响应速度也可以接受。但这些都是直接HTTP请求,真正的痛点在于第三方客户端的兼容性。
技术细节上看,/v1/models端点应该是主要症结。大多数AI客户端在初始化时会先请求这个端点来获取可用模型列表,但Heroku的实现中压根没有这个接口。客户端拿不到模型信息自然就无法正常工作。
另一个问题是认证机制,虽然用的是Bearer Token方式,但具体的验证逻辑可能和标准OpenAI API有细微差别。一些客户端可能在处理认证头或者错误响应时出现问题。
尝试了几种解决方案:修改客户端配置、使用代理转换、甚至考虑写个中间层来做适配,但都没找到完美的解决方案 🤔
从成本角度来说,如果兼容性问题能解决,这确实是个不错的选择。GitHub学生包的赠金足够用很长时间,而且Heroku的基础设施稳定性还是有保障的。
目前的建议是暂时作为备用方案,主要还是通过Postman或者自己写脚本来调用。期待后续版本能完善兼容性,或者社区能出现相关的适配工具。

