极市导读
今年整体接收率为 31.8%,你的论文出现在列表中了吗? >>加入极市CV技术交流群,走在计算机视觉的最前沿
深度学习顶级学术会议 ICLR 2023 录用结果已经公布!论文接收的完整列表已经在 OpenReview 平台上公开。

ICLR 2022 完整论文列表:https://openreview.net/group?id=ICLR.cc/2023/Conference#notable-top-5-
ICLR 全称为国际学习表征会议(International Conference on Learning Representations),今年将举办的是第十一届,预计将于 5 月 1 日至 5 日在卢旺达首都基加利线下举办。
在机器学习社区中,ICLR 是较为「年轻」的学术会议,它由深度学习巨头、图灵奖获得者 Yoshua Bengio 和 Yann LeCun 牵头举办,2013 年才刚刚举办第一届。不过 ICLR 很快就获得了学术研究者们的广泛认可,被认为是深度学习的顶级会议。在 Google Scholar 的学术会议 / 杂志排名中,ICLR 目前排名第十位,要高于 NeurIPS。

在今年的接收统计中, ICLR 共接收近 5000 篇投稿,整体接收率为 31.8%,接近于去年的 32.26%。今年还有一个变化是接收论文的 tag 会有两个,一个是论文类型(oral、spotlight、poster),另一个是 presentation 的方式。

位于 top5% 论文内容涉及 Transformer、in-context learning、扩散模型等内容。
top5% 论文列表截图
论文接收列表一放出,在推特上引起了热烈讨论。
斯坦福大学计算机科学博士 Dan Fu 表示自己参与的论文中了 spotlight,他还谈到,大家都在议论 Attention is all you need,但没有人给出到底需要多少层 Attention?在这篇论文中,他们提出了一个新的生成语言模型 H3,其性能优于 GPT-Neo-2.7B,只需要 2 个 Attention 层。

KAIST AI(韩国电信公司与韩国科学技术院合作成立的 AI 研发机构)表示,他们总共有 24 篇论文被 ICLR 2023 录取,包括 9 篇 Spotlights。

除此以外,Salesforce AI Research 也有多篇论文被接收。

在本次接收名单中,马毅教授、Yann LeCun 等人合作撰写的文章《Minimalistic Unsupervised Learning with the Sparse Manifold Transform》也被接收,除此以外,马毅教授参与的另一篇关于增量学习论文也在接收列表中。


最近一段时间,生成模型发展迅速,随之而来的风险也在增加,谷歌一篇关于大型语言模型如何更好的向用户显示输出的研究也被接收:

很多网友都在推特上分享了论文被接收的喜悦,没有中的小伙伴也不要灰心,争取在接下来的顶会上有所斩获。
参考链接:https://twitter.com/search?q=ICLR%202023&src=typed_query&f=top
公众号后台回复“CNN综述”获取67页综述深度卷积神经网络架构
技术干货:损失函数技术总结及Pytorch使用示例|深度学习有哪些trick?|目标检测正负样本区分策略和平衡策略总结
实操教程:GPU多卡并行训练总结(以pytorch为例)|CUDA WarpReduce 学习笔记|卷积神经网络压缩方法总结
# 极市原创作者激励计划 #
极市平台深耕CV开发者领域近5年,拥有一大批优质CV开发者受众,覆盖微信、知乎、B站、微博等多个渠道。通过极市平台,您的文章的观点和看法能分享至更多CV开发者,既能体现文章的价值,又能让文章在视觉圈内得到更大程度上的推广,并且极市还将给予优质的作者可观的稿酬!
我们欢迎领域内的各位来进行投稿或者是宣传自己/团队的工作,让知识成为最为流通的干货!
对于优质内容开发者,极市可推荐至国内优秀出版社合作出书,同时为开发者引荐行业大牛,组织个人分享交流会,推荐名企就业机会等。
“
点击阅读原文进入CV社区
收获更多技术干货

