大数跨境
0
0

CVPR 2024 Highlight|Seg-NN: 不需要训练的网络反而可大幅提升 3D 小样本分割的性能

CVPR 2024 Highlight|Seg-NN: 不需要训练的网络反而可大幅提升 3D 小样本分割的性能 极市平台
2024-04-11
0
↑ 点击蓝字 关注极市平台
编辑丨极市平台

极市导读

 

本文在非参数化网络Point-NN 的基础上,提出了用于小样本3D场景分割的模型Seg-NN而进一步提出的一种参数化的变体Seg-PN在S3DIS和ScanNet数据集上的小样本分割任务取得了SOTA性能,分别超过第二名4.19%和7.71%,同时将训练时间减少了90%。 >>加入极市CV技术交流群,走在计算机视觉的最前沿

论文:https://arxiv.org/pdf/2404.04050.pdf

代码:https://github.com/yangyangyang127/Seg-NN

1、背景和介绍

为了解决数据标注成本的问题,当前3D场景的小样本分割任务逐渐引起了关注。现有的3D小样本分割方法基本上遵循元学习的策略,训练一个3D编码器和类别原型(class prototype)生成模块。如图1(a)所示,这些算法通常需要以下三步:

(1)预训练:通过监督学习在“可见”类别上预训练。考虑到3D领域中缺乏预训练模型,这一步骤通过训练学习了一个3D编码器,例如DGCNN。

(2)Episodic训练:在“可见”类别上进行元学习形式的训练,主要微调了上一步的3D编码器和训练了一个分割头。

(3)测试:模型在“未见过”的类别上测试小样本分割的性能。

图1

然而,该流程包含两个比较大的问题:

1)在“可见”类别上预训练和微调的3D编码器,在“未见过”的类别上测试必然会性能不佳,因为可见类别和未见类别存在domain gap;

2)复杂的预训练和Episodic训练,会带来大量时间和资源开销。

为了解决这些问题,本论文在非参数化网络Point-NN 的基础上,提出了用于小样本3D场景分割的模型Seg-NN,Seg-NN是一个不需要训练的3D编码器。如图1(b)所示,Seg-NN不需要训练,但性能与一些基于训练的方法相当。这种无需训练的特性简化了小样本训练流程,资源消耗最小,并缓解了由于训练集和测试集类别不同引起的domain gap。

此外,论文基于Seg-NN进一步提出了一种参数化的变体Seg-PN。Seg-PN只需要训练一个额外的QUEST模块,以缓解由于数据集过小引起的原型偏置(prototype bias)问题,如图1(b)所示。Seg-PN在S3DIS和ScanNet数据集上的小样本分割任务取得了SOTA性能,分别超过第二名4.19%和7.71%,同时将训练时间减少了90%。

2、Seg-NN

Seg-NN继承并改进了Point-NN的非参数化编码器来对3D场景进行编码,但做了以下修改:1)将位置和颜色信息投影到共享的表征空间并聚合;2)为了减少自然3D场景中的噪声和扰动,Seg-NN只采样鲁棒的低频信号,并滤除高频噪声。提取每个点的表征后,通过相似性匹配来预测的分割mask。

初始编码:把每个点的位置和颜色信息通过三角函数形式的位置编码映射到高维表征空间,然后将两者相加,这样可以为每个点得到一个综合的表征,记为初始编码。

图2

表征操纵:图2是两个初始编码的示例,其中假设表征的维度是120。从中可以很容易地观察到,每个点的初始编码是带限信号。因此我们可以可视化一下每个点的频谱,得到了图3左边所示的频谱。从图3左边可以看到,点的表征的频率主要分布在低频和高频范围内。考虑到本文的目标是对自然3D场景进行编码,这些点通常包含噪声和扰动,而高频范围中可能存在的幅度较大的尖锐噪声可能导致表征的严重扰动。此外,此前的很多工作已经证明神经网络倾向于优先学习低频信息,这表明低频特征是鲁棒且有分辨力的。因此,Seg-NN依靠低频带来提取特征,并滤除高频以防止尖锐噪声产生干扰。那么如何提取低频特征呢?Seg-NN仿照PointNet++等模型设计了一个全连接层,只不过这个全连接层的权重矩阵不是通过学习得到的,而是通过随机采样一系列余弦波来作为权重矩阵。这一系列的余弦波的频率可以从高斯分布,均匀分布,或者拉普拉斯分布中采样,如图3右边所示。结合图3的左右两幅图,可以把点的表征的低频成分提取出来。

图3

基于相似度的分割:通过堆叠表征操纵层,我们可以最终得到每个点的表征。此后我们提取不同类别的原型表征,通过相似度匹配的方式实现测试样本的分割。

综合来看,Seg-NN不需要任何的训练,因为它是通过手工设计的特征提取层来提取特征和编码点云的。

3、Seg-PN

为了进一步提高性能,文章又继续提出了一个参数化的版本Seg-PN。Seg-PN继承了Seg-NN的非参数化3D编码器来对点云进行编码,并且只需要学习一个轻量级的分割头QUEST。为什么引入QUEST呢?因为在小样本学习中一个明显的问题是,小规模的支撑集(support set)可能无法准确表示真实分布,这导致类别原型存在偏差。为了缓解这个问题并将类别原型从支撑集的domain转移到查询集的domain,本文提出了查询-支持转移模块(QUEry-Support Transfering module)QUEST。QUEST通过支撑集和查询集的互相关(cross-correlation)和自相关(self-correlation)减小原型偏置,详细结构如图4所示。

图4

互相关: 假设 分别代表支撑集,查询集和类别原型的表征,那么 的互相关为

然后 QUEST 通过互相关来调整类别原型,

自相关: Seg-NN 使用了手工设计的滤波器来提取点的表征, 一个很明显的事实是不同的特征通道之间不是独立的,而是存在某些相关性,且这种相关性在支撑集和查询集的 domain 之间存在差异。因此, QUEST 探究了 之间的自相关的差异, 这种差异衡量了支撑集和查询集之间的 domain gap。一般来说, 特征向量的 Gram 矩阵可以表示自相关性。记支持集和查询集特征的 Gram 矩阵记为 ,可以分别计算如下:

此后我们通过一个可学习的权重 来提取 domain gap 并修正 ,

最后, QUEST 聚合了 来得到最终修正后的类别原型, 即

4、实验与结果

小样本分割:在S3DIS和ScanNet两个数据集上,Seg-NN在不经过任何训练的情况下可以达到一些基于训练的方法的性能,而Seg-PN的性能达到了SOTA.

从训练时间角度来看,Seg-NN不需要训练,而Seg-PN可以减少90%的训练时间。

全监督分类和分割:在ModelNet40上,Seg-NN的分类性能和速度超过了Point-NN;在ShapeNet-Part数据集上,Seg-NN的分割性能和速度也超过了Point-NN。

小样本分类:在ModelNet40上,Seg-NN的小样本分类性能超过了当前所有的工作达到了SOTA。

公众号后台回复“数据集”获取100+深度学习各方向资源整理

极市干货

技术专栏:多模态大模型超详细解读专栏搞懂Tranformer系列ICCV2023论文解读极市直播
极视角动态欢迎高校师生申报极视角2023年教育部产学合作协同育人项目新视野+智慧脑,「无人机+AI」成为道路智能巡检好帮手!
技术综述:四万字详解Neural ODE:用神经网络去刻画非离散的状态变化transformer的细节到底是怎么样的?Transformer 连环18问!

点击阅读原文进入CV社区

收获更多技术干货


【声明】内容源于网络
0
0
极市平台
为计算机视觉开发者提供全流程算法开发训练平台,以及大咖技术分享、社区交流、竞赛实践等丰富的内容与服务。
内容 8155
粉丝 0
极市平台 为计算机视觉开发者提供全流程算法开发训练平台,以及大咖技术分享、社区交流、竞赛实践等丰富的内容与服务。
总阅读9.6k
粉丝0
内容8.2k