大数跨境
0
0

CVPR 2023 接收结果出炉!录用2360篇,接收数量上升12%(附最新论文速递)

CVPR 2023 接收结果出炉!录用2360篇,接收数量上升12%(附最新论文速递) 极市平台
2023-02-28
0
导读:​CVPR2023 结果出炉!​你的论文中了吗?
↑ 点击蓝字 关注极市平台

报道丨极市平台

极市导读

 

CVPR2023 放榜啦,接收率25.78%你的论文中了吗?>>加入极市CV技术交流群,走在计算机视觉的最前沿


就在刚刚,计算机视觉三大顶会之一CVPR2023接收结果已经公布,一共有2360论文被接收。


近年来,CVPR的论文投稿量持续增加,从 CVPR2019 的5160篇有效投稿增长到CVPR2020 年6656篇,到 CVPR2021 的7500篇,再到 CVPR2022 的8161篇。而今年又再创新高,达到了9155篇,比CVPR2022增加了12%,几乎每年都保持了10%以上的增幅。而今年有2360篇,接收率为25.78%。

今年的CVPR将在加拿大举行。今年采用单轨会议的形式,并取消了传统Oral的评选。

问题链接:https://www.zhihu.com/question/585474435

在等待 CVPRR2023 为我们带来的新技术之时,我们先对去年的 CVPR2022 进行简要的回顾。

2022 年 CVPR 共计接收了2067篇论文,官方统计了各个研究方向论文的Oral数量和Poster数量,从中可以看出计算机视觉学术研究发展的一些趋势。其中,检测类以177篇成为 CVPR2022 最热门的方向,其次为图像视频生成(157篇)、三维视觉(137篇)、底层视觉(110篇)、视觉+语言(105篇)。

那么今年的热门方向将会有哪些?大家可以预测一波~

我们也收集到了6篇最新的CVPR2023接收论文,供大家先学习讨论~

1.YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors
论文链接:https://arxiv.org/abs/2207.02696
代码链接:https://github.com/WongKinYiu/yolov7
YOLOv7 在 5 FPS 到 160 FPS 的范围内在速度和精度上都超过了所有已知的物体检测器,并且在 GPU V100 上具有 30 FPS 或更高的所有已知实时物体检测器中具有最高的精度 56.8% AP。YOLOv7-E6 目标检测器(56 FPS V100,55.9% AP)在速度上优于基于变压器的检测器 SWIN-L Cascade-Mask R-CNN(9.2 FPS A100,53.9% AP)509% 和 2%,并且基于卷积的检测器 ConvNeXt-XL Cascade-Mask R-CNN (8.6 FPS A100, 55.2% AP) 速度提高 551%,准确度提高 0.7% AP,以及 YOLOv7 优于:YOLOR、YOLOX、Scaled-YOLOv4、YOLOv5、 DETR、Deformable DETR、DINO-5scale-R50、ViT-Adapter-B 和许多其他速度和准确性的物体检测器。

2.ConQueR: Query Contrast Voxel-DETR for 3D Object Detection
论文链接:https://arxiv.org/abs/2212.07289
针对 DETR 类检测器固定数量冗余预测的问题,提出了一种简单新颖的 Query Contrast 机制以及一个 strong end to end baseline Voxel-DETR,在 waymo 3D detection task 上大幅超过了之前所有 dense prediction 的检测器。

3.MetaCLUE: Towards Comprehensive Visual Metaphors Research
论文链接:https://arxiv.org/abs/2212.09898

4.Relightable Neural Human Assets from Multi-view Gradient Illuminations

论文链接:https://arxiv.org/abs/2212.07648

人体建模和重新照明是计算机视觉和图形学中的两个基本问题,高质量的数据集可以在很大程度上促进相关研究。然而,大多数现有的人类数据集仅提供在相同光照下捕获的多视图人类图像。尽管对建模任务很有价值,但它们并不容易用于重新照明问题。为了促进这两个领域的研究,在本文中,我们提出了 UltraStage,这是一种新的 3D 人体数据集,其中包含在多视图和多照明设置下捕获的超过 2K 的高质量人体资产。


5.I2MVFormer: Large Language Model Generated Multi-View Document Supervision for Zero-Shot Image Classification

论文链接:https://arxiv.org/abs/2212.02291

在这项工作中,我们提供了一个关于使用 LLM 为zero-shot图像分类模型提供文本监督的新颖视角。LLM 提供了一些来自不同注释者的文本描述作为示例。LLM 以这些示例为条件,为每个类生成多个文本描述(称为视图)。我们提出的模型 I2MVFormer,使用这些类视图学习用于零样本图像分类的多视图语义嵌入。


6.MetaPortrait: Identity-Preserving Talking Head Generation with Fast Personalized Adaptation

论文链接:https://arxiv.org/abs/2212.08062

在这项工作中,我们提出了一个保留 ID 的说话头生成框架,它在两个方面改进了以前的方法。首先,与从稀疏流进行插值相反,我们声称密集地标对于实现精确的几何感知流场至关重要。其次,受人脸交换方法的启发,我们在合成过程中自适应地融合源身份,使网络更好地保留图像肖像的关键特征。


由于每年的 CVPR 全部论文以及相关细节公布都需要等到六月会议正式召开,因此,在这之前,为了让大家更快地获取和学习到计算机视觉前沿技术,极市会进 CVPR 相关的论文资源整理,包括最新CVPR论文解读、代码、技术直播、分方向盘点等,这些整理基本每天都会针对当天新增的论文进行更新。

此前我们便对CVPR2017~CVPR2022的论文进行了整理,所以信息都汇总在Github上,目前已经收获了10.8K star。在今年,我们也会对 CVPR2023 进行实时跟进。

历届CVPR技术资源汇总

CVPR2023论文分类汇总(部分节选,共30+类别)

Github项目地址(点击阅读原文即可跳转):
https://github.com/extreme-assistant/CVPR2023-Paper-Code-Interpretation/blob/master/CVPR2023.md

在整理论文的同时,我们也邀请了多位CVPR2022论文作者在极市进行技术直播,分享解读前沿技术。去年我们举办了 6 场CVPR相关的技术直播,带来了 70 篇CVPR2022优质论文分享。大家可以点击下列相应的标题观看直播回放。在今年,我们将会举办更多为大家带来干货的技术直播~


最后,欢迎大家在文章留言安利自己的 CVPR2023论文,小编会把留言置顶~

# 极市CVPR2023交流群已成立 #


△长按扫码进群
添加极市小助手微信(ID : cvmart4)

备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)


即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群


每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~


△点击卡片关注极市平台,获取最新CV干货

觉得有用麻烦给个在看啦~  

【声明】内容源于网络
0
0
极市平台
为计算机视觉开发者提供全流程算法开发训练平台,以及大咖技术分享、社区交流、竞赛实践等丰富的内容与服务。
内容 8155
粉丝 0
极市平台 为计算机视觉开发者提供全流程算法开发训练平台,以及大咖技术分享、社区交流、竞赛实践等丰富的内容与服务。
总阅读197
粉丝0
内容8.2k