大数跨境
0
0

NeurIPS 2025 今日召开!Qwen获最佳论文,任少卿、何恺明Faster R-CNN 5.6万+引用摘时间检验奖!

NeurIPS 2025 今日召开!Qwen获最佳论文,任少卿、何恺明Faster R-CNN 5.6万+引用摘时间检验奖! AI前沿速递
2025-11-30
0
导读:NeurIPS 2025 双地盛典高光时刻!7篇最佳论文引领方向,Faster R-CNN 5.6万+引用摘时间检验奖实至名归!

 

论文下载:关注回复【C733获取领取 NeruIPS 2025 论文合集

第三十九届 NeurIPS 2025 于 今日举办,首次设立双官方线下举办地,分别是圣地亚哥会议中心和墨西哥城希尔顿改革酒店,主会议环节集中在 12 月 3 日至 5 日,还设有 12 月 2 日的全天行业博览会及 12 月 8 日的行业专题活动等;本届会议由 Neural Information Processing Systems Foundation 主办,作为 AI 领域顶级会议,共收到 21575 份有效投稿,最终录用 5290 篇,录用率为 24.52%,论文聚焦深度学习、计算机视觉等多个前沿研究方向。

neurips

目前最新消息,NeurIPS 2025 已正式公布多项重磅奖项,其中最佳论文奖共授予 4 篇论文,另有 3 篇论文获最佳论文亚军,这 7 篇论文聚焦扩散模型理论、自监督强化学习、大语言模型注意力机制与推理能力、在线学习理论等多个 AI 前沿研究方向;任少卿、何恺明、Ross Girshick、孙剑于 2015 年合著的经典论文《Faster R - CNN: Towards Real-Time Object Detection with Region Proposal Networks》斩获时间检验奖,Sejnowski-Hinton 奖则由论文《Random synaptic feedback weights support error backpropagation for deep learning》获得。

接下来让我们一起来看一下相关的获奖论文吧!


扫码添加小助手回复“C733
免费获取 NeruIPS 2025 论文合集


最佳论文

论文1:Artificial Hivemind: The Open-Ended Homogeneity of Language Models (and Beyond) (Best Paper)

核心问题:大语言模型(LLMs)在生成多样化、类人创意内容方面存在不足,长期暴露于相似输出可能导致人类思想同质化;现有LLM输出多样性评估方法局限于狭窄任务或单一模型采样,缺乏大规模开放域场景的系统评估方案。

核心方法

  1. 1. 构建大规模数据集Infinity-Chat,包含26K真实世界开放域用户查询(无单一标准答案)和31,250条人类标注(每条示例含25个独立标注);
  2. 2. 提出首个开放域提示词综合分类法,涵盖6个顶级类别(如创意内容生成、头脑风暴)和17个子类别;
  3. 3. 对70余种模型开展大规模实证研究,分析LLM在开放域生成中的模式崩溃现象。
关键优势

  1. 1. 首次系统揭示"人工蜂群思维(Artificial Hivemind)"效应,包括模型内重复生成和模型间输出同质化两大核心特征;
  2. 2. 提供首个支持开放域LLM查询系统研究的大规模资源,填补多样性评估领域的关键空白;
  3. 3. 发现现有SOTA模型、奖励模型和自动评判器在匹配多样化人类偏好方面存在校准偏差,为缓解AI长期安全风险提供关键理论支撑。

论文地址:https://openreview.net/forum?id=saDOrrnNTz
代码地址:https://github.com/liweijiang/artificial-hiveminds


论文2:Gated Attention for Large Language Models: Non-linearity, Sparsity, and Attention-Sink-Free (Best Paper)

核心问题:现有研究较少系统探究门控机制对softmax注意力的具体影响,LLM普遍存在注意力Sink、长上下文外推性能不足及训练稳定性欠佳等问题。

核心方法

  1. 1. 提出在缩放点积注意力(SDPA)后添加头特异性sigmoid门控的轻量化修改方案;
  2. 2. 在3.5万亿token数据集上训练15B混合专家(MoE)模型和1.7B稠密模型,对30余种门控变体进行全面对比实验;
  3. 3. 系统分析门控位置和计算变体的影响机制,明确非线性格式和查询依赖稀疏性的核心作用。

关键优势


  1. 1. 显著提升LLM性能、训练稳定性,支持更大学习率设置并优化模型缩放特性;
  2. 2. 有效缓解大规模激活和注意力Sink问题,大幅增强长上下文外推能力;
  3. 3. 方案实现简洁,已成功应用于Qwen3-Next模型,开源代码和模型权重支持社区快速复用与拓展研究。

论文地址:https://openreview.net/forum?id=1b7whO4SfY
代码地址:https://github.com/qiuzh20/gated_attention


论文3:1000 Layer Networks for Self-Supervised RL: Scaling Depth Can Enable New Goal-Reaching Capabilities (Best Paper)

核心问题:自监督学习在语言和视觉领域的缩放已取得突破性进展,但强化学习(RL)领域仍受限于浅层架构(2-5层),深度对RL性能的影响缺乏系统探究,难以实现能力突破。

核心方法

  1. 1. 提出适用于自监督RL的深度网络架构设计,将网络深度扩展至1024层;
  2. 2. 在无演示、无奖励的无监督目标条件设置下,采用自监督对比RL算法训练智能体;
  3. 3. 在模拟运动和操纵任务上开展大规模实验,验证深度缩放对目标达成能力的提升效果。
关键优势

  1. 1. 打破RL领域浅层架构的传统认知,证明深度缩放(达1024层)可显著提升RL任务性能;
  2. 2. 不仅提高任务成功率,还能诱导智能体学习更复杂的行为模式,实现质的能力飞跃;
  3. 3. 揭示批量大小缩放对深度网络在对比RL中的关键作用,为RL架构设计提供全新范式。

论文地址:https://openreview.net/pdf?id=s0JVsx3bx1
代码地址:https://wang-kevin3290.github.io/scaling-crl/


最佳论文亚军(Best Paper Runner-up)

论文4:Why Diffusion Models Don’t Memorize: The Role of Implicit Dynamical Regularization in Training (Best Paper)

核心问题:扩散模型在生成任务中表现卓越,但防止训练数据记忆、实现有效泛化的内在机制尚未明确,缺乏理论层面的系统性解释。

核心方法

  1. 1. 通过大规模实验和理论分析,识别扩散模型训练中的两个关键时间尺度——泛化启动时间 和记忆出现时间
  2. 2. 利用高维极限下的随机特征模型,结合随机矩阵理论推导谱特性,建立泛化与记忆机制的理论解释;
  3. 3. 在标准U-Net架构上,通过真实和合成数据集验证理论发现的普适性。
关键优势

  1. 1. 首次量化揭示 与训练集大小线性相关、τ_m保持恒定的规律,形成可扩大的有效泛化训练窗口;
  2. 2. 发现过参数化设置下的隐式动态正则化机制,为扩散模型的泛化能力提供基础理论支撑;
  3. 3. 实现理论与实证的高度统一,为生成式AI的训练机制研究树立新的学术标杆。

论文地址:https://openreview.net/forum?id=BSZqpqgqM0
代码地址:https://github.com/tbonnair/Why-Diffusion-Models-Don-t-Memorize


论文5:Does Reinforcement Learning Really Incentivize Reasoning Capacity in LLMs Beyond the Base Model? (Best Paper Runner-Up)

核心问题:现有研究普遍认为带可验证奖励的强化学习(RLVR)能使LLM获得超越基础模型的全新推理能力,但这一核心假设缺乏跨模型、跨任务的系统验证。

核心方法

  1. 1. 采用大k值下的pass@k指标,在多模型家族、多RL算法和数学/编程/视觉推理基准上,系统探测RLVR训练LLM的推理能力边界;
  2. 2. 通过覆盖率和困惑度分析,对比RLVR模型与基础模型的推理路径分布差异;
  3. 3. 比较RLVR与蒸馏方法对模型推理能力的影响,明确两者的本质区别。
关键优势

  1. 1. 揭示关键发现:RLVR仅提升正确路径的采样效率(小k值下表现更优),并未引入全新推理模式,基础模型在大k值下pass@k得分更高;
  2. 2. 发现RLVR训练会缩小LLM的推理能力边界,其推理路径仍局限于基础模型的采样分布;
  3. 3. 指出当前RLVR算法未充分利用基础模型潜力,为后续RL范式创新(如持续缩放、多轮智能体-环境交互)提供明确方向。

论文地址:https://openreview.net/forum?id=4OsgYD7em5
代码地址:https://limit-of-rlvr.github.io/


论文6:Optimal Mistake Bounds for Transductive Online Learning (Best Paper Runner-Up)

核心问题:30年来未解决的在线学习领域开放问题——如何量化无标记数据在转导式(transductive)在线学习中的作用,明确其与标准在线学习的性能差距。

核心方法

  1. 1. 基于Littlestone维度d,从理论上证明转导式在线学习的错误下界至少为Ω(√d);
  2. 2. 构造实例验证上界匹配O(√d),显著改进此前的最佳上界结果;
  3. 3. 提出"路径树"概念、稀疏编码假设类构建等创新证明技术,结合危险区域最小化、分裂专家策略和减半过渡算法设计高效学习器。

关键优势

  1. 1. 彻底解决30年开放问题,建立转导式与标准在线学习之间的二次差距,相比此前对数级下界实现指数级突破;
  2. 2. 明确无标记数据在转导式在线学习中的巨大理论价值,与PAC学习中无标记数据的有限作用形成鲜明对比;
  3. 3. 证明技术兼具创新性与严谨性,为在线学习理论研究提供全新方法论。

论文地址:https://openreview.net/forum?id=EoebmBe9fG


论文7:Superposition Yields Robust Neural Scaling (Best Paper Runner-Up)

核心问题:大语言模型(LLMs)的性能随模型规模增长而提升的神经缩放定律已被广泛观察,但该定律的底层驱动机制尚未明确。

核心方法

  1. 1. 提出表示叠加(representation superposition)假设——LLM可表示的特征数量超过其维度,是神经缩放的关键驱动因素;
  2. 2. 基于Anthropic的玩具模型,通过权重衰减控制叠加程度,系统研究损失随模型规模的缩放规律;
  3. 3. 在开源LLM上验证理论发现,对比弱叠加与强叠加场景下的缩放特性差异。
关键优势

  1. 1. 揭示强叠加场景下,损失在广泛频率分布中均与模型维度成反比缩放,而弱叠加仅在特征频率呈幂律分布时才遵循幂律缩放;
  2. 2. 验证开源LLM均处于强叠加状态,其损失缩放规律与Chinchilla缩放定律一致,为缩放定律提供统一解释;
  3. 3. 为优化神经缩放性能、预测缩放定律失效条件提供关键理论依据。

论文地址:https://openreview.net/forum?id=knPz7gtjPW
代码地址:https://github.com/liuyz0/SuperpositionScaling


时间检验奖

论文8:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks(ILSVRC和COCO 2015竞赛多个赛道冠军基础)


被引用超56,700次的Faster R - CNN深刻影响了计算机视觉领域,是大量后续工作的基础,它作为首个用包含RPN和检测网络的完全可学习两阶段流水线取代selective search与手工设计候选框的方法,实现了极高精度与接近实时(5 FPS)检测的统一,让神经网络目标检测模型得以真正部署到真实世界应用中。


论文地址:https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7485869
代码地址:https://github.com/shaoqingren/faster_rcnn(MATLAB)、https://github.com/rbgirshick/py - faster - rcnn(Python)


Sejnowski-Hinton 奖

在这里插入图片描述

在今年的NeurIPS大会上,Sejnowski - Hinton奖被授予Timothy Lillicrap、Daniel Cownden、Douglas Tweed与Colin Akerman四位学者,旨在表彰他们于2016年发表在《Random synaptic feedback weights support error backpropagation for deep learning》(论文链接:https://www.nature.com/articles/ncomms13276)的突破性研究。该研究聚焦大脑神经回路仅靠局部信息实现高效学习的理论难题,创新性地提出反馈对齐机制,打破传统反向传播对权重对称性的要求,证实多层网络即便使用非对称反馈权重也能有效学习,且学习过程中前向权重会自然与随机反馈信号对齐,进而生成具备实用性的梯度估计。这项成果影响深远,不仅在NeurIPS社区引发广泛关注,更推动整个学界开启了生物可行学习规则这一全新研究方向。

 





扫码添加小助手回复“C733
免费获取 NeruIPS 2025 论文合集



往期推荐
一夜醒来,Transformer和Mamba都被超越了!大模型最强架构TTT问世!

一区Top期刊 Information Sciences 惨遭除名,2025中科院最新分区揭晓!

视觉Transformer(Vision Transformer, ViT) :全面超越CNN,看懂这篇文章就没什么能难倒你了!

我愿称之无敌!特征融合最新暴力涨点方案!

超越传统:GNN和Transformer结合的创新突破!
CVPR 2024 | CRNet:一种可保留细节的图像增强与统一恢复网络
复活CNN!港大 CVPR 2025 高分论文,助力卷积神经网络效率暴涨还省显存!
深度学习可解释杀疯了!登上《Nature》正刊!屠榜双领域SOTA!
Transformer 过时了!MIT 液体神经网络 LNN 才是新趋势!
小波变换+注意力机制的结合创新,竟能实现100%分类准确率!
CVPR 2024 | 黑暗中的多目标追踪
研究因果推断最前沿,这些个创新思路不能错过



📢欢迎加入我们的学术交流群!

无论你是研究哪个方向的,都可以找到志同道合的伙伴

添加好友后将拉你进相应微信群。

📌 添加方式:

扫描下方二维码,或搜索微信号:aiqysd

📩 添加好友时请务必备注信息,格式如下:

研究方向  + 学校/公司 + 学历 + 姓名

非常重要:

发送好友验证时,必须填写备注信息,示例如下:

👉 目标检测 + 中科大 + 研一 + 陈奕迅

凡格式不对者,一律不予理睬

我们期待你的加入,一起交流、学习、进步!

部分资料展示👇




欢迎投稿

想要让高质量的内容更快地触达读者,降低他们寻找优质信息的成本吗?关键在于那些你尚未结识的人。他们可能掌握着你渴望了解的知识。【AI前沿速递】愿意成为这样的一座桥梁,连接不同领域、不同背景的学者,让他们的学术灵感相互碰撞,激发出无限可能。

【AI前沿速递】欢迎各高校实验室和个人在我们的平台上分享各类精彩内容,无论是最新的论文解读,还是对学术热点的深入分析,或是科研心得和竞赛经验的分享,我们的目标只有一个:让知识自由流动。

📝 投稿指南

  • 确保文章为个人原创,未在任何公开渠道发布。若文章已在其他平台发表或即将发表,请明确说明。

  • 建议使用Markdown格式撰写稿件,并以附件形式发送清晰、无版权争议的配图。

  • 【AI前沿速递】尊重作者的署名权,并为每篇被采纳的原创首发稿件提供具有市场竞争力的稿酬。稿酬将根据文章的阅读量和质量进行阶梯式结算。

📬 投稿方式

  • 您可以通过添加我们的小助理微信(aiqysd)进行快速投稿。请在添加时备注“投稿-姓名-学校-研究方向”


    长按添加AI前沿速递小助理




【声明】内容源于网络
0
0
AI前沿速递
AI前沿速递 聚焦人工智能最新科研成果与技术动态,专注前沿论文解读、行业资讯分享与高校招生信息推送,助力AI爱好者和从业者把握学界风向标。每日更新技术干货与深度内容,让全球优秀研究被更多人看见。关注我们,探索AI无限可能!
内容 1825
粉丝 0
AI前沿速递 AI前沿速递 聚焦人工智能最新科研成果与技术动态,专注前沿论文解读、行业资讯分享与高校招生信息推送,助力AI爱好者和从业者把握学界风向标。每日更新技术干货与深度内容,让全球优秀研究被更多人看见。关注我们,探索AI无限可能!
总阅读65
粉丝0
内容1.8k