新智元报道
【新智元导读】同行评审体系正在全面革新!面对海量论文,顶级会议ICML 2026推出「双轨制」新政,允许有限使用AI审稿并引入「对等原则」防止双标;而新平台aiXiv则激进拥抱「全自动科研」,由AI写、AI审。一条是AI Integrated,另一条是AI Native,两者均旨在应对AI领域论文数量爆炸的挑战。
学术界正面临前所未有的变革压力。传统顶会因论文激增导致审稿负荷过重,人类审稿人疲于应对;与此同时,新兴平台尝试将科研全流程交由AI完成。这一矛盾在ICML 2026与aiXiv之间体现得尤为明显——前者试图在人类主导下融合AI工具,后者则彻底迈向机器自主科研时代。
ICML 2026:构建AI辅助下的公平评审机制
作为机器学习领域的权威会议,ICML 2026推出的「双轨制」政策被视为应对AI冲击的关键举措。该制度将审稿流程划分为两条路径:
Policy A(保守派)
严格禁止使用AI,仅允许拼写检查和文献检索等基础工具,强调纯粹的人类判断力,适用于坚持人工评审原则的研究者。
Policy B(温和派)
允许使用AI辅助理解复杂公式或润色评审意见,但严禁将核心评审决策权交给模型,如不得提问“请总结论文优缺点”或“代写评审意见”。
这一设计源于社区调研结果:约40%审稿人反对AI介入,30%支持合理使用;作为作者时,双方立场几乎持平。若全面禁用AI,70%已习惯AI润色的审稿人将面临效率危机,四成直言难以继续履职。
为避免「双标」行为,ICML引入「对等原则」:若作者要求其论文必须由纯人类评审(选择Policy A),则其本人担任审稿人时也必须承诺不使用AI。此举有效遏制投机心理,确保规则公平性。
此外,Policy B对AI工具设定了严格隐私合规要求:禁止使用可能训练模型的免费服务(如公开版ChatGPT),必须采用企业级API、本地部署模型或明确声明不用于训练的付费服务。这在无形中形成资源门槛,可能导致经费充足机构与独立研究者之间的评审效率差距。
为评估政策效果,ICML计划开展随机对照试验,对比不同轨道下评分分布差异,并由程序主席动态干预异常趋势,力求量化AI对人类判断的影响。
华人学者担纲重要职务
本届ICML迎来多位华人学者进入核心团队:
- 张潼(UIUC教授)出任大会主席(General Chair),拥有斯坦福博士学位,曾任教于港科大、罗格斯大学,并在百度、腾讯等企业担任要职,研究方向涵盖机器学习理论、优化与强化学习。
- 苏炜杰(宾夕法尼亚大学沃顿商学院及计算机系副教授)担任学术诚信主席(Integrity Chair),专注大模型数学理论、优化算法与数据隐私保护。其提出的保序机制(Isotonic Mechanism)自2023年起已在ICML连续三年试点,显著提升审稿质量。
aiXiv:迈向全自动科研的新范式
与ICML的改良路线不同,由清华大学、牛津大学、多伦多大学等联合发起的预印本平台aiXiv(https://aixiv.science)彻底打破人类中心模式,明确提出欢迎AI撰写和AI评审的论文。
平台发起人Guowei Huang表示:“我们只关注知识质量,而非生产者身份。”后台运行的AI审稿智能体从创新性、技术稳健性和影响力等维度自动评分,达标即可快速发布,大幅缩短传统评审数月乃至数年的周期。
更进一步,aiXiv支持闭环迭代:作者可根据AI反馈修改后重新提交,实现“人机”或“机机”协同优化。初步测试显示,该模式有助于提升论文整体质量。
此举直指当前学术出版体系的痛点。arXiv已限制纯AI生成综述投稿,Science等顶刊亦严控AI署名。而aiXiv反问:内容质量是否应独立于创作者身份?
然而质疑声随之而来。俄勒冈州立大学Thomas Dietterich指出,大模型虽能模仿科学写作,却缺乏真实判断力,易产生“幻觉”。若大量虚假但结构完美的论文被AI审稿系统通过,或将引发“学术垃圾”泛滥,威胁科学可信度。
殊途同归的深层焦虑
无论是ICML的谨慎整合,还是aiXiv的彻底重构,背后反映的是同一现实:人类信息处理能力已无法匹配科研产出的指数增长。
bioRxiv、medRxiv等平台已启用AI筛查造假论文,说明自动化已成为必要手段。ICML选择保留人类直觉,在制度框架内引导AI作为助手;aiXiv则假设人类已无法独立应对数据洪流,必须将认知任务外包给AI。
两者的实验结果将决定未来科学的形态:是维持精英把关、节奏缓慢但可信度高的传统体系,还是转向算法驱动、高效但真假难辨的数据海洋?
关键问题依然存在:如何界定AI“辅助”与“代笔”的边界?如何保障资源不均下的评审公平?当多数人依赖Policy B便利时,Policy A是否会沦为象征性存在?
与此同时,aiXiv的AI智能体正以远超人类的速度处理论文。它们不关心伦理争议,只执行既定逻辑。真正的风险或许不是AI取代科学家,而是科学本身的定义被悄然改写。
科学突破常源于困惑、停滞与非线性思考,而AI追求的是流畅、概率最优解。当我们把评审权让渡给倾向于“大概率正确”的模型时,是否也在无意中过滤掉那些看似离经叛道、实则颠覆性的“小概率真理”?这或许是ICML坚持保留Policy A的根本意义所在。

