论文下载:关注回复【C733】获取领取 NeruIPS 2025 论文合集
第三十九届 NeurIPS 2025 于 今日举办,首次设立双官方线下举办地,分别是圣地亚哥会议中心和墨西哥城希尔顿改革酒店,主会议环节集中在 12 月 3 日至 5 日,还设有 12 月 2 日的全天行业博览会及 12 月 8 日的行业专题活动等;本届会议由 Neural Information Processing Systems Foundation 主办,作为 AI 领域顶级会议,共收到 21575 份有效投稿,最终录用 5290 篇,录用率为 24.52%,论文聚焦深度学习、计算机视觉等多个前沿研究方向。
目前最新消息,NeurIPS 2025 已正式公布多项重磅奖项,其中最佳论文奖共授予 4 篇论文,另有 3 篇论文获最佳论文亚军,这 7 篇论文聚焦扩散模型理论、自监督强化学习、大语言模型注意力机制与推理能力、在线学习理论等多个 AI 前沿研究方向;任少卿、何恺明、Ross Girshick、孙剑于 2015 年合著的经典论文《Faster R - CNN: Towards Real-Time Object Detection with Region Proposal Networks》斩获时间检验奖,Sejnowski-Hinton 奖则由论文《Random synaptic feedback weights support error backpropagation for deep learning》获得。
接下来让我们一起来看一下相关的获奖论文吧!
最佳论文
论文1:Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond) (Best Paper)
核心问题:大语言模型(LLMs)在生成多样化、类人创意内容方面存在不足,长期暴露于相似输出可能导致人类思想同质化;现有LLM输出多样性评估方法局限于狭窄任务或单一模型采样,缺乏大规模开放域场景的系统评估方案。
核心方法:
-
1. 构建大规模数据集Infinity-Chat,包含26K真实世界开放域用户查询(无单一标准答案)和31,250条人类标注(每条示例含25个独立标注); -
2. 提出首个开放域提示词综合分类法,涵盖6个顶级类别(如创意内容生成、头脑风暴)和17个子类别; -
3. 对70余种模型开展大规模实证研究,分析LLM在开放域生成中的模式崩溃现象。
-
1. 首次系统揭示"人工蜂群思维(Artificial Hivemind)"效应,包括模型内重复生成和模型间输出同质化两大核心特征; -
2. 提供首个支持开放域LLM查询系统研究的大规模资源,填补多样性评估领域的关键空白; -
3. 发现现有SOTA模型、奖励模型和自动评判器在匹配多样化人类偏好方面存在校准偏差,为缓解AI长期安全风险提供关键理论支撑。
论文地址:https://openreview.net/forum?id=saDOrrnNTz
代码地址:https://github.com/liweijiang/artificial-hiveminds
论文2:Gated Attention for Large Language Models: Non-linearity, Sparsity, and Attention-Sink-Free (Best Paper)
核心问题:现有研究较少系统探究门控机制对softmax注意力的具体影响,LLM普遍存在注意力Sink、长上下文外推性能不足及训练稳定性欠佳等问题。
核心方法:
-
1. 提出在缩放点积注意力(SDPA)后添加头特异性sigmoid门控的轻量化修改方案; -
2. 在3.5万亿token数据集上训练15B混合专家(MoE)模型和1.7B稠密模型,对30余种门控变体进行全面对比实验; -
3. 系统分析门控位置和计算变体的影响机制,明确非线性格式和查询依赖稀疏性的核心作用。
关键优势:
-
1. 显著提升LLM性能、训练稳定性,支持更大学习率设置并优化模型缩放特性; -
2. 有效缓解大规模激活和注意力Sink问题,大幅增强长上下文外推能力; -
3. 方案实现简洁,已成功应用于Qwen3-Next模型,开源代码和模型权重支持社区快速复用与拓展研究。
论文地址:https://openreview.net/forum?id=1b7whO4SfY
代码地址:https://github.com/qiuzh20/gated_attention
论文3:1000 Layer Networks for Self-Supervised RL: Scaling Depth Can Enable New Goal-Reaching Capabilities (Best Paper)
核心问题:自监督学习在语言和视觉领域的缩放已取得突破性进展,但强化学习(RL)领域仍受限于浅层架构(2-5层),深度对RL性能的影响缺乏系统探究,难以实现能力突破。
核心方法:
-
1. 提出适用于自监督RL的深度网络架构设计,将网络深度扩展至1024层; -
2. 在无演示、无奖励的无监督目标条件设置下,采用自监督对比RL算法训练智能体; -
3. 在模拟运动和操纵任务上开展大规模实验,验证深度缩放对目标达成能力的提升效果。
-
1. 打破RL领域浅层架构的传统认知,证明深度缩放(达1024层)可显著提升RL任务性能; -
2. 不仅提高任务成功率,还能诱导智能体学习更复杂的行为模式,实现质的能力飞跃; -
3. 揭示批量大小缩放对深度网络在对比RL中的关键作用,为RL架构设计提供全新范式。
论文地址:https://openreview.net/pdf?id=s0JVsx3bx1
代码地址:https://wang-kevin3290.github.io/scaling-crl/
最佳论文亚军(Best Paper Runner-up)
论文4:Why Diffusion Models Don’t Memorize: The Role of Implicit Dynamical Regularization in Training (Best Paper)
核心问题:扩散模型在生成任务中表现卓越,但防止训练数据记忆、实现有效泛化的内在机制尚未明确,缺乏理论层面的系统性解释。
核心方法:
-
1. 通过大规模实验和理论分析,识别扩散模型训练中的两个关键时间尺度——泛化启动时间 和记忆出现时间 ; -
2. 利用高维极限下的随机特征模型,结合随机矩阵理论推导谱特性,建立泛化与记忆机制的理论解释; -
3. 在标准U-Net架构上,通过真实和合成数据集验证理论发现的普适性。
-
1. 首次量化揭示 与训练集大小线性相关、τ_m保持恒定的规律,形成可扩大的有效泛化训练窗口; -
2. 发现过参数化设置下的隐式动态正则化机制,为扩散模型的泛化能力提供基础理论支撑; -
3. 实现理论与实证的高度统一,为生成式AI的训练机制研究树立新的学术标杆。
论文地址:https://openreview.net/forum?id=BSZqpqgqM0
代码地址:https://github.com/tbonnair/Why-Diffusion-Models-Don-t-Memorize
论文5:Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model? (Best Paper Runner-Up)
核心问题:现有研究普遍认为带可验证奖励的强化学习(RLVR)能使LLM获得超越基础模型的全新推理能力,但这一核心假设缺乏跨模型、跨任务的系统验证。
核心方法:
-
1. 采用大k值下的pass@k指标,在多模型家族、多RL算法和数学/编程/视觉推理基准上,系统探测RLVR训练LLM的推理能力边界; -
2. 通过覆盖率和困惑度分析,对比RLVR模型与基础模型的推理路径分布差异; -
3. 比较RLVR与蒸馏方法对模型推理能力的影响,明确两者的本质区别。
-
1. 揭示关键发现:RLVR仅提升正确路径的采样效率(小k值下表现更优),并未引入全新推理模式,基础模型在大k值下pass@k得分更高; -
2. 发现RLVR训练会缩小LLM的推理能力边界,其推理路径仍局限于基础模型的采样分布; -
3. 指出当前RLVR算法未充分利用基础模型潜力,为后续RL范式创新(如持续缩放、多轮智能体-环境交互)提供明确方向。
论文地址:https://openreview.net/forum?id=4OsgYD7em5
代码地址:https://limit-of-rlvr.github.io/
论文6:Optimal Mistake Bounds for Transductive Online Learning (Best Paper Runner-Up)
核心问题:30年来未解决的在线学习领域开放问题——如何量化无标记数据在转导式(transductive)在线学习中的作用,明确其与标准在线学习的性能差距。
核心方法:
-
1. 基于Littlestone维度d,从理论上证明转导式在线学习的错误下界至少为Ω(√d); -
2. 构造实例验证上界匹配O(√d),显著改进此前的最佳上界结果; -
3. 提出"路径树"概念、稀疏编码假设类构建等创新证明技术,结合危险区域最小化、分裂专家策略和减半过渡算法设计高效学习器。
关键优势:
-
1. 彻底解决30年开放问题,建立转导式与标准在线学习之间的二次差距,相比此前对数级下界实现指数级突破; -
2. 明确无标记数据在转导式在线学习中的巨大理论价值,与PAC学习中无标记数据的有限作用形成鲜明对比; -
3. 证明技术兼具创新性与严谨性,为在线学习理论研究提供全新方法论。
论文地址:https://openreview.net/forum?id=EoebmBe9fG
论文7:Superposition Yields Robust Neural Scaling (Best Paper Runner-Up)
核心问题:大语言模型(LLMs)的性能随模型规模增长而提升的神经缩放定律已被广泛观察,但该定律的底层驱动机制尚未明确。
核心方法:
-
1. 提出表示叠加(representation superposition)假设——LLM可表示的特征数量超过其维度,是神经缩放的关键驱动因素; -
2. 基于Anthropic的玩具模型,通过权重衰减控制叠加程度,系统研究损失随模型规模的缩放规律; -
3. 在开源LLM上验证理论发现,对比弱叠加与强叠加场景下的缩放特性差异。
-
1. 揭示强叠加场景下,损失在广泛频率分布中均与模型维度成反比缩放,而弱叠加仅在特征频率呈幂律分布时才遵循幂律缩放; -
2. 验证开源LLM均处于强叠加状态,其损失缩放规律与Chinchilla缩放定律一致,为缩放定律提供统一解释; -
3. 为优化神经缩放性能、预测缩放定律失效条件提供关键理论依据。
论文地址:https://openreview.net/forum?id=knPz7gtjPW
代码地址:https://github.com/liuyz0/SuperpositionScaling
时间检验奖
论文8:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks(ILSVRC和COCO 2015竞赛多个赛道冠军基础)
被引用超56,700次的Faster R - CNN深刻影响了计算机视觉领域,是大量后续工作的基础,它作为首个用包含RPN和检测网络的完全可学习两阶段流水线取代selective search与手工设计候选框的方法,实现了极高精度与接近实时(5 FPS)检测的统一,让神经网络目标检测模型得以真正部署到真实世界应用中。
论文地址:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7485869
代码地址:https://github.com/shaoqingren/faster_rcnn(MATLAB)、https://github.com/rbgirshick/py - faster - rcnn(Python)
Sejnowski-Hinton 奖
在今年的NeurIPS大会上,Sejnowski - Hinton奖被授予Timothy Lillicrap、Daniel Cownden、Douglas Tweed与Colin Akerman四位学者,旨在表彰他们于2016年发表在《Random synaptic feedback weights support error backpropagation for deep learning》(论文链接:https://www.nature.com/articles/ncomms13276)的突破性研究。该研究聚焦大脑神经回路仅靠局部信息实现高效学习的理论难题,创新性地提出反馈对齐机制,打破传统反向传播对权重对称性的要求,证实多层网络即便使用非对称反馈权重也能有效学习,且学习过程中前向权重会自然与随机反馈信号对齐,进而生成具备实用性的梯度估计。这项成果影响深远,不仅在NeurIPS社区引发广泛关注,更推动整个学界开启了生物可行学习规则这一全新研究方向。
一区Top期刊 Information Sciences 惨遭除名,2025中科院最新分区揭晓!
视觉Transformer(Vision Transformer, ViT) :全面超越CNN,看懂这篇文章就没什么能难倒你了!
无论你是研究哪个方向的,都可以找到志同道合的伙伴
添加好友后将拉你进相应微信群。
📌 添加方式:
扫描下方二维码,或搜索微信号:aiqysd
📩 添加好友时请务必备注信息,格式如下:
研究方向 + 学校/公司 + 学历 + 姓名
❗非常重要:
发送好友验证时,必须填写备注信息,示例如下:
👉 目标检测 + 中科大 + 研一 + 陈奕迅
凡格式不对者,一律不予理睬
我们期待你的加入,一起交流、学习、进步!
部分资料展示👇
确保文章为个人原创,未在任何公开渠道发布。若文章已在其他平台发表或即将发表,请明确说明。
建议使用Markdown格式撰写稿件,并以附件形式发送清晰、无版权争议的配图。
【AI前沿速递】尊重作者的署名权,并为每篇被采纳的原创首发稿件提供具有市场竞争力的稿酬。稿酬将根据文章的阅读量和质量进行阶梯式结算。
您可以通过添加我们的小助理微信(aiqysd)进行快速投稿。请在添加时备注“投稿-姓名-学校-研究方向”
长按添加AI前沿速递小助理

