大数跨境
0
0

刚刚,AI企业IPO最速纪录刷新!MiniMax的技术野心,价值超800亿港元

刚刚,AI企业IPO最速纪录刷新!MiniMax的技术野心,价值超800亿港元 AI前线
2026-01-09
5
导读:“大模型六小龙”里,竟已有两家在连续两天内IPO
作者 | 木子

MiniMax 挂牌上市:中国大模型公司首个 ToC 收入反超 ToB 的 IPO 案例

1月9日,上海希宇科技(MiniMax)正式于港交所挂牌上市,股票代码00100。作为由商汤前高管闫俊杰于2022年创立的AI企业,MiniMax从成立到IPO仅用时4年,成为全球从创立到上市速度最快的大模型公司之一。

招股书显示,截至2025年9月30日:

  • 累计个人用户:超2亿
  • 覆盖国家和地区:200+
  • AI原生产品MAU:约2760万
  • 企业与开发者客户:超10万家

本次IPO发行约2540万股H股,开盘价235.4港元;截至上午10:30,股价涨幅超60%,市值达820亿港元(约合人民币738亿元)。

据富途证券数据,公开发售部分超额认购达1209倍,保证金认购总额逾2533亿港元。

技术驱动的AGI路径:从MoE到Lightning Attention

MiniMax明确以技术为第一驱动力。其研发支出持续攀升:2022年为1060万美元,2023年升至7000万美元,2024年达1.89亿美元;2024年及2025年9月30日前九个月的研发开支分别为1.387亿和1.803亿美元,主要用于云服务及模型训练。

在技术路线上,MiniMax展现出鲜明差异化策略:

  • 2024年初推出中国首个混合专家系统(MoE)大模型abab6,早于DeepSeek R1约一年;
  • 自研Lightning Attention(线性注意力),在每8层模型中仅保留1层传统Attention,其余改用线性计算,显著降低长上下文推理的算力消耗;
  • 将MoE与Lightning Attention融合,使模型在百万级token上下文下仍保持高效推理能力;
  • 2025年12月发布旗舰级Coding & Agent模型M2.1,在Multi-SWE-bench多语言软件工程测试中以约10B激活参数取得49.4%准确率,超越Claude Sonnet 4.5等国际竞品,刷新SOTA纪录。

M2.1的核心突破在于补足后端工程能力短板,首次将模型边界延伸至系统架构、底层逻辑与跨模块协作层面,强调工程一致性与可验证性。

产品与商业化:ToC先行,全球化布局

围绕自研大模型,MiniMax已构建包括MiniMax Agent、海螺AI、MiniMax语音、星野及开放平台在内的AI原生产品矩阵。

海外市场进展显著:产品覆盖200多个国家和地区,触达超2.12亿个人用户,服务超13万家海外企业与开发者(含API调用、订阅等)。按2024年模型相关收入计,MiniMax为全球第四大pure-play大模型技术公司、第十大大模型公司,拥有文本、视觉、音频、视频全模态能力。

其技术演进节奏清晰:完成从abab6/6.5(MoE探索)、MiniMax-01(基础模型开源)到MiniMax-M1(高级推理优化)及M2.1(Coding & Agent)的连续迭代。MiniMax-01系列总参数达数千亿量级,单token实际激活参数仅数十亿,原生支持百万级上下文窗口。

年轻团队与资深资本:技术信仰与长期支持并存

截至2025年9月底,MiniMax员工385人,平均年龄29岁,研发人员占比近74%,董事会平均年龄32岁。

核心团队来自商汤科技、全球顶尖高校及科研机构,创始人闫俊杰为东南大学本科、中科院自动化所博士、清华博士后,曾任商汤副总裁兼研究院副院长;联合创始人杨斌具加拿大博士学位及Uber ATG工程经验;周彧聪为商汤早期算法骨干。团队在NLP、语音、视觉、生成模型等领域拥有多项全球发明专利

投资方阵容涵盖阿里、腾讯、红杉中国、高瓴、IDG、云启、米哈游等早期产业与风投;IPO前夕,阿布扎比投资局、Mirae Asset、Aspex、易方达等长线机构接续加注。阿里对MiniMax的持股比例甚至高于其在智谱的持仓。

挑战与下一赛段:直面全球AICoding竞争

尽管ToC收入已反超ToB,MiniMax尚未实现整体盈利。其核心挑战在于:如何在全球AICoding市场与Anthropic的Claude Codex正面竞逐。

Claude Codex强调工程约束下的可控性与稳定性,上线半年即实现近10亿美元年化营收。MiniMax未选择复刻该路径,而是坚持“效率驱动”——通过Lightning Attention + MoE组合,解决真实软件世界所需的长上下文支撑与工程复杂度承载问题。

长上下文对Coding模型而言不是加分项,而是入场券。M2.1在Multi-SWE-bench的表现,实质是对Claude Codex主战场的回应:不局限于单点代码生成,而聚焦跨语言、跨模块、带验证的端到端软件工程任务。

未来比拼的关键,将不仅是Benchmark分数,更是Agent是否可控、错误是否可解释,以及能否真正嵌入CI/CD流程。上市并非终点,而是技术马拉松进入更高强度赛段的起点。

【声明】内容源于网络
0
0
AI前线
面向AI爱好者、开发者和科学家,提供大模型最新资讯、AI技术分享干货、一线业界实践案例,助你全面拥抱AIGC。
内容 8042
粉丝 0
AI前线 面向AI爱好者、开发者和科学家,提供大模型最新资讯、AI技术分享干货、一线业界实践案例,助你全面拥抱AIGC。
总阅读61.1k
粉丝0
内容8.0k