大数跨境
0
0

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2

「北京版幻方」冷不丁开源SOTA代码大模型!一张3090就能跑,40B参数掀翻Opus-4.5和GPT-5.2 量子位
2026-01-02
7
导读:又一家中国量化公司的模型杀疯了
衡宇 发自 凹非寺
量子位 | 公众号 QbitAI

中国新模型IQuest-Coder-V1系列引发全球关注,在SWE-Bench Verified榜单中,40B参数版本以81.4%准确率超越Claude Opus-4.5和GPT-5.2(外界普遍推测二者参数规模达千亿至万亿级)。

该模型已开源至GitHub与“抱抱脸”平台,由九坤投资旗下独立研究平台至知创新研究院研发 [2]

其能力已在多个复杂前端工程任务中验证,例如:

  • 逼真太阳系模拟网页:支持多视角切换、暂停、缩放、公转速度调节,并可点击行星查看名称与简介 [3]
  • 粒子-文本动画:将文字转为数百粒子点阵,具备交互式物理排斥与缓动视觉效果 [4]
  • 实时像素沙盒游戏:支持沙子、水、石头、酸液等元素涂画与自然流动 [5]
  • HTML5太空射击游戏:含复古霓虹风格、WASD移动、双炮塔模式、粒子爆炸反馈及Boss战系统 [6]
  • 基于鸟群算法的150+智能体群体模拟:支持实时调节分离/对齐/凝聚权重、视觉半径、最大速度及鼠标捕食者交互 [7]

IQuest-Coder-V1系列

IQuest-Coder-V1是专注代码生成、理解与软件工程任务的模型家族,覆盖7B、14B、40B三种参数规模,每种均提供Instruct(强指令跟随与工程部署)与Thinking(强化复杂推理与多步拆解)两个版本 [8]

其中40B版本额外推出Loop变体,通过共享参数的循环Transformer设计,在仅增加约5%训练成本前提下,实现接近数百亿参数MoE模型的性能,同时显著降低HBM与KV Cache开销、提升吞吐量 [9]

架构设计强调“工程友好”与“长上下文可用性”,核心特性包括: [10]

  • 分组查询注意力(GQA),降低长上下文推理的显存与计算压力;
  • 原生支持128K上下文长度,可直接处理完整代码仓库与跨文件依赖;
  • 词表容量76800 token,更贴合真实代码中标识符、路径名与符号组合分布;
  • Loop变体采用两次迭代间参数共享的循环Transformer,摒弃token shifting等不稳定inference trick,聚焦推理稳定性 [11]

与众不同的“代码流多阶段训练”策略

IQuest-Coder-V1采用Code-Flow Multi-Stage Training方法,区别于传统静态代码片段训练,强调从代码演化过程学习 [12]

训练分三阶段: [13]

  • 预训练阶段:融合通用语料与大规模代码数据,并通过高质量代码annealing强化基础表征;
  • 中期训练阶段:引入reasoning、agent trajectory与长上下文代码,按32K与128K两尺度渐进扩展;
  • 后训练阶段(Post-training):明确分流为Instruct与Thinking两条路线,分别使用不同目标函数与RL方式收敛 [14]

团队构建了基于项目生命周期的triplet数据(R_old, Patch, R_new),限定选取项目40%–80%成熟期数据,使模型显式学习代码变更逻辑、提交历史与工程试错痕迹,从而建模软件逻辑的动态演变过程 [15]

在多项权威评测中表现领先: [16]

  • SWE-Bench Verified:81.4%;
  • BigCodeBench:49.9%;
  • LiveCodeBench v6:81.1%;
  • 在八个代码与Agentic相关榜单中综合排名第一 [17]

模型支持沙盒环境安全验证输出,部署门槛较低: [18]

  • 基础版与Loop版均支持单卡H20推理;
  • Int4量化版本可在单张NVIDIA RTX 3090/4090消费级GPU上运行 [19]

九坤投资公司是谁?

IQuest-Coder-V1由九坤投资(Ubiquant Holding Limited)旗下至知创新研究院研发。该公司成立于2012年,是中国最早专注量化投资与高频交易的私募机构之一,管理规模达数百亿元人民币,与幻方并列为国内量化私募头部企业 [20]

九坤总部位于北京,2025年12月开设新加坡办公室;投研与技术团队超百人,90%以上毕业于清华、北大、复旦、斯坦福等顶尖高校,博士占比超60% [21]

联合创始人王琛为清华大学数学物理学士、理论计算机博士,师从图灵奖得主姚期智院士,曾任职美国Millennium对冲基金;联合创始人姚齐聪为北京大学数学学士、金融数学硕士,主导公司投研体系与风控系统建设 [22]

公司在AI领域布局已久,建有DATA LAB与AI LAB等前沿实验室,此前已发布通用推理模型URM(ARC-AGI正确率53.8%,多次尝试成功率超85%) [23]

IQuest-Coder核心技术作者与《Scaling Laws for Code》《CodeSimpleQA》等重要论文作者高度重合;核心成员包括谷歌学术被引超1.6万的Jian Yang(曾参与Qwen 2.5/Qwen 3研发)、西南交通大学本科/四川大学硕士Zhengmao Ye(前华为与商汤科技工程师);通讯作者为九坤AI Lab首席研究员Bryan Dai [24]

【声明】内容源于网络
0
0
量子位
各类跨境出海行业相关资讯
内容 14594
粉丝 0
量子位 各类跨境出海行业相关资讯
总阅读106.2k
粉丝0
内容14.6k