大数跨境
0
0

一文了解 ICLR2023,强化学习、表示学习论文仍旧热门,语言模型论文热度上升

一文了解 ICLR2023,强化学习、表示学习论文仍旧热门,语言模型论文热度上升 AMiner AI
2023-02-17
1
导读:ICLR 论文数据分析,多维度了解 ICLR2023!


ICLR 全称为国际学习表征会议(International Conference on Learning Representations),由深度学习巨头、图灵奖获得者 Yoshua Bengio 和 Yann LeCun 牵头举办。近几年一直获得学术研究者们的广泛认可,被认为是深度学习领域的顶级会议之一。

ICLR2023 将于2023年5月1日至5日在卢旺达首都基加利线下举行, 本届会议共接收近 5000 篇投稿,整体接收率为 31.8%。

AMiner 根据对 ICLR2023 的论文进行分析和关键词提取,相对于往年论文收录情况,我们发现几个有意思的事情:

1.从提交论文的主题来看,最热门的方向与往年相差不大,强化学习、深度学习、表征学习、图神经网络等仍旧是热点。 但是,Transformer论文接收率下降,语言模型论文增多;

2. 清华大学朱军教授和谷歌大脑的Dale Schuurmans两位学者发文数量并列第一;

3. 其中位于Top5%的有90篇论文,论文内容涉及Transformer、in-context learning、扩散模型等内容。

扫码或者阅读原文,查看ICLR2023收录全部论文列表。

链接:https://www.aminer.cn/conf/5ea1d518edb6e7d53c0100cb/ICLR2023

ICLR历年论文情况分析

从近五年ICLR录用论文的关键词来看,强化学习,深度学习,神经网络相关的图神经网络,深度神经网络等成为ICLR高频词。

从论文作者所在机构的国家和地区来看,美国摇摇领先,占比42.74%。

高引论文

ICLR 近五年被收录的论文中,被引用排名第一是的来自谷歌大脑团队的《An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale》。文章在模型的起源、原理上总结了谷歌大脑团队发布的ViT预训练模型,该预训练模型也推动了语义分割任务上的一些工作,如transUnet的产生。

高引学者和高引机构

根据对 ICLR 近五年论文被引数据统计,来自 UC 伯克利大学的 Sergey Levine 论文被引用数排名第一,谷歌大脑的 Sylvain Gelly 和 Mostafa Dehghani 分别排名第二和第三。由于谷歌学者的个人论文被引排名较高,所以谷歌理所当然的成为排名第一的高引机构,但是DeepMind、伯克利、斯坦福实力都不容小觑,排名紧跟其后。

ICLR 完整会议详情,可阅读原文查看。

— end —

PC端和小程序信息同步哦!

阅读原文,查看完整 ICLR2023 论文列表!

【声明】内容源于网络
0
0
AMiner AI
AI帮你理解科学
内容 212
粉丝 0
AMiner AI AI帮你理解科学
总阅读0
粉丝0
内容212