
ICLR 全称为国际学习表征会议(International Conference on Learning Representations),由深度学习巨头、图灵奖获得者 Yoshua Bengio 和 Yann LeCun 牵头举办。近几年一直获得学术研究者们的广泛认可,被认为是深度学习领域的顶级会议之一。
ICLR2023 将于2023年5月1日至5日在卢旺达首都基加利线下举行, 本届会议共接收近 5000 篇投稿,整体接收率为 31.8%。
AMiner 根据对 ICLR2023 的论文进行分析和关键词提取,相对于往年论文收录情况,我们发现几个有意思的事情:
1.从提交论文的主题来看,最热门的方向与往年相差不大,强化学习、深度学习、表征学习、图神经网络等仍旧是热点。 但是,Transformer论文接收率下降,语言模型论文增多;
2. 清华大学朱军教授和谷歌大脑的Dale Schuurmans两位学者发文数量并列第一;
3. 其中位于Top5%的有90篇论文,论文内容涉及Transformer、in-context learning、扩散模型等内容。
扫码或者阅读原文,查看ICLR2023收录全部论文列表。


链接:https://www.aminer.cn/conf/5ea1d518edb6e7d53c0100cb/ICLR2023
ICLR历年论文情况分析

从近五年ICLR录用论文的关键词来看,强化学习,深度学习,神经网络相关的图神经网络,深度神经网络等成为ICLR高频词。

从论文作者所在机构的国家和地区来看,美国摇摇领先,占比42.74%。
高引论文

ICLR 近五年被收录的论文中,被引用排名第一是的来自谷歌大脑团队的《An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale》。文章在模型的起源、原理上总结了谷歌大脑团队发布的ViT预训练模型,该预训练模型也推动了语义分割任务上的一些工作,如transUnet的产生。
高引学者和高引机构
根据对 ICLR 近五年论文被引数据统计,来自 UC 伯克利大学的 Sergey Levine 论文被引用数排名第一,谷歌大脑的 Sylvain Gelly 和 Mostafa Dehghani 分别排名第二和第三。由于谷歌学者的个人论文被引排名较高,所以谷歌理所当然的成为排名第一的高引机构,但是DeepMind、伯克利、斯坦福实力都不容小觑,排名紧跟其后。
ICLR 完整会议详情,可阅读原文查看。
— end —
PC端和小程序信息同步哦!
阅读原文,查看完整 ICLR2023 论文列表!


