洞剑 | ChatGPT 开源的两个模型,比肩o4-mini/GPT-3.5
推荐标签
AGI
Slogan
AI First AI Native AI inside
限制AI能力的,不是AI,而是你的认知
座右铭
经常庆功,就会成功。 --《繁花》
内容
OpenAI在8月5日发布了两个新的开放权重(open-weight)模型:gpt-oss-120b 和 gpt-oss-20b。性能比肩o4-mini/GPT-3.5,和DeepSeek R1相比有很强的竞争关系。
gpt‑oss‑120b:约 1170 亿参数的较大模型,相当于 OpenAI 自身的 o4‑mini,在推理任务上表现接近,并且可在单张 80 GB GPU 上运行 Hugging FaceOpenAIIT ProWindows CentralWIREDCinco Días。
gpt‑oss‑20b:约 210 亿参数的较小版本,相当于 o3‑mini,可在具备 16 GB 内存的设备(包括部分 PC 或手机)上本地运行 Hugging FaceOpenAIWindows CentralThe Times of IndiaIT Pro。
两款模型均采用 Mixture-of-Experts(MoE)架构,结合 4-bit 量化(MXFP4) 技术,实现高效推理和低资源消耗 Hugging FaceIT ProCinco Días。它们以 Apache 2.0 许可证 发布,支持商业和非商业用途 Cinco DíasIT ProThe Times of India,并可在 Hugging Face、Azure、AWS、Ollama、vLLM 等多个平台使用和部署。
新模型与DeepSeek的对比
开源模型带来的直接竞争压力
新的开放权重(open-weight)模型:gpt-oss-120b 和 gpt-oss-20b,尽管它们并非完全开源,但其开放的权重允许开发者和企业下载并在自己的服务器上运行、修改和微调这些模型。
这对于AI应用软件公司来说是一个巨大的挑战:
技术门槛降低: 开发者和小型企业不再需要投入巨大的资源从头开始训练自己的大模型。他们可以利用OpenAI发布的这些高性能模型,直接构建自己的AI应用,这大大降低了进入市场的门槛。
性能和成本优势: gpt-oss-120b被声称在核心推理基准测试中与OpenAI的 o4-mini 模型性能接近,但可以高效地在单个80GB GPU上运行。而更小的 gpt-oss-20b甚至可以在带有16GB内存的消费级笔记本电脑上运行。这意味着开发者可以用更低的成本,获得接近甚至超越许多大陆本土模型的性能。
市场份额被蚕食: 随着越来越多的开发者和企业转向使用OpenAI的开放模型,那些依赖于自有模型的大陆本土AI应用软件公司将面临严峻的市场竞争,其市场份额和商业价值可能会受到挤压。
与GPT-5发布的叠加效应
而,紧随其后的GPT-5发布和这两个开放模型的发布几乎同时发生。这两件事结合在一起,对大陆AI市场产生了更强的冲击波。
GPT-5作为OpenAI最先进的闭源模型,代表了AI技术的最新前沿,这让市场对本土AI公司在技术创新上的差距感到担忧。而两个开放模型的发布,则是在应用层面直接给企业带来了强大的竞争。
市场情绪和信心影响
股票市场往往是情绪和预期的放大器。OpenAI的这一系列动作,向市场传递了一个明确的信号:
技术领导地位的巩固: OpenAI不仅在尖端技术上遥遥领先(通过GPT-5),还在通过开放模型的方式渗透到更广泛的开发者和应用市场。这进一步巩固了其全球AI领导者的地位。
本土AI板块的估值重估: 面对如此强大的外部竞争,投资者会重新评估本土AI应用软件公司的价值。投资者可能会认为,这些公司的技术护城河并不牢固,未来的盈利能力和增长前景可能不如预期,从而导致股价下跌。
社区与生态整合
OpenAI 表示 GPT-OSS 未来将作为 “开发者原型构建、边缘部署、模型微调” 的基础模型系列。
微软 Azure、NVIDIA RTX AI PC、Ollama、LangChain 等已集成。
社区已经开始出现基于 gpt‑oss 微调的版本(如 chat‑oss、code‑oss、med‑oss)
模型下载地址
Hugging Face 地址:
gpt-oss-20b
gpt-oss-120b
提供 FP16 / INT8 / 4-bit QLoRA / GGUF 等多个格式
GPT‑OSS 适用场景
剑识:


