近日,微软宣布:其开源大模型系列gpt-oss已在Azure AI Foundry国际版全面部署,并发布针对Azure NV A10与NC H100两种主流GPU机型的性能测评数据。作为OpenAI技术生态的重要延伸,该系列模型在推理效率、长文本处理及边缘部署能力上实现显著突破,为企业客户提供了更灵活的AI基础设施选择。
双模型架构覆盖全场景需求
本次发布的gpt-oss系列包含两款核心模型:1200亿参数的gpt-oss-120b与200亿参数的gpt-oss-20b。
gpt-oss-120b:在核心推理基准测试中表现媲美OpenAI o4-mini,且可在单块80GB显存的NC H100机型上高效运行;
gpt-oss-20b:接近o3-mini的性能,突破性地实现在16GB内存边缘设备上的部署能力,为本地推理、端侧AI及低成本快速迭代场景提供全新解决方案。
MXFP4量化与Sink Token机制
微软Azure团队重点优化了模型量化与注意力机制:
MXFP4混合精度压缩:通过动态缩放与指数尾数编码技术,在保持小数值精度的同时,将大值截断误差控制在可接受范围,实现模型体积与推理效率的平衡。
Sink Token长文本加速:该机制通过在输入序列首部插入全局锚点Token,结合FlashAttention-3内核优化,在超长文本(≥32ktokens)场景下将首token生成时间(TTFT)降低60%,吞吐量提升2.3倍。测试显示,搭载H100 GPU的Azure NC机型在运行gpt-oss-20b时,可实现45-55 tokens/s的持续推理速度,TTFT控制在1秒以内。
Azure平台适配性突破
针对不同GPU架构,微软提供定制化部署方案:
H100高端机型:通过vLLM框架与FA3内核深度集成,gpt-oss-120b在2000并发请求测试中达到32.9 req/s的吞吐量,单卡生成速率达4215 tokens/s,TTFT中位数仅3.36秒。
A10性价比机型:采用Ollama框架与MXFP4量化技术,gpt-oss-20b在单卡A10上实现45-55 tokens/s的稳定输出,内存占用降低70%,支持中小企业低成本部署。
行业应用与生态共建
微软强调,gpt-oss系列已通过Azure AI Foundry实现一键部署,并集成到Power Platform、Dynamics 365等企业服务中。在医疗领域,该模型在HealthBench基准测试中超越GPT-4o等专有模型;在代码生成场景,可快速生成完整Python程序(如终端Tetris游戏),展现了强大的多模态能力。
企业客户可即刻通过Azure AI Foundry体验gpt-oss系列模型。
为什么选择Azure OpenAI服务?
微软Azure OpenAI服务可以合规、稳定地提供企业用户使用ChatGPT模型。出于合规角度,国内企业可以选择微软的Azure OpenAI服务来使用接口,并具有以下优势:
效果一致:与OpenAI官方接口效果相同,无需担心性能差异。
国内IP调用:直接使用国内IP,连接更稳定,响应速度更快。
合规发票:符合国内法规,可直接开具专用发票。
灵活计费:按Token使用量计费,用多少付多少,成本可控。
技术支持:微软认证技术团队提供专业支持,解决技术难题。
企业优惠:现在签约,享受企业专属折扣。
作为微软的合作伙伴,领驭科技为企业提供绿色申请通道!企业现在就可以申请 OpenAI o1、GPT-4o 、GPT-4o mini!
↓马上申请免费试用↓
作为微软中国南区核心合作伙伴及HKCSP 1T首批授权云服务商之一,领驭科技正积极整合Azure OpenAI的强大功能,包括先进的自然语言处理、分析和推理能力,到其产品和行业解决方案中。
Azure OpenAI服务通过其大规模生成式AI模型,支持企业客户根据特定需求和场景,开发创新应用,涵盖辅助写作、代码编写、多媒体内容生成以及数据分析等多个领域,为互联网、游戏、金融、零售、医药等行业以及自动驾驶和智能制造等前沿技术领域带来深远影响。
联系我们
深圳市瀚鹏人工智能科技有限公司
电话:0755 8654 3872
电邮:marketing@leinwin.com
网址:www.hanpong.com
地址:深圳市宝安区海秀路2028号鹏鼎时代大厦A座1702室

