大数跨境
0
0

CVPR'24 Highlight|比LERF提速199倍!清华哈佛发布LangSplat:三维语义高斯泼溅

CVPR'24 Highlight|比LERF提速199倍!清华哈佛发布LangSplat:三维语义高斯泼溅 极市平台
2024-06-28
1
↑ 点击蓝字 关注极市平台
作者丨新智元
来源丨新智元
编辑丨极市平台

极市导读

 

本文将为大家介绍CVPR 2024 Highlight的论文LangSplat: 3D Language Gaussian Splatting(三维语义高斯泼溅)。LangSplat在开放文本目标定位和语义分割任务上达到SOTA性能。在1440×1080分辨率的图像上,查询速度比之前的SOTA方法LERF快了199倍。代码已开源。>>加入极市CV技术交流群,走在计算机视觉的最前沿

人类生活在一个三维世界中,并通过文本语言描述三维场景,构建三维语义场以支持在三维空间中的开放文本查询最近越来越受到关注。

最近,来自清华大学和哈佛大学的研究人员共同提出了LangSplat,该方法结合三维高斯泼溅技术重建三维语义场,能够实现准确高效的开放文本查询。现有方法在NeRF的基础上嵌入CLIP语义特征,LangSplat则通过结合三维高斯泼溅,在每个高斯点上编码了从CLIP提取的语义特征。

Project Page: https://langsplat.github.io/

Paper: https://arxiv.org/pdf/2312.16084.pdf

Video: https://youtu.be/K_9BBS1ODAc?si=gfo5TrLK-htyWyuT

Code: https://github.com/minghanqin/LangSplat

采用tile-based的三维高斯泼溅技术来渲染语义特征,从而避免了NeRF中计算成本高昂的渲染过程。

LangSplat首先训练特定场景下的语义自编码器,然后在场景特定的低维latent space上学习语义特征,而不是直接学习高维的CLIP语义特征,从而降低了计算量。现有基于NeRF的方法的三维语义场比较模糊,无法清晰地区分目标的边界。

本文深入研究了这一问题,提出使用SAM学习多层次语义,在不引入DINO特征的情况下获得了更准确的语义场。广泛的实验结果表明,LangSplat在开放文本目标定位和语义分割任务上的性能显著超过了之前的SOTA方法LERF。

值得注意的是,LangSplat在1440×1080分辨率的图像上,查询速度比LERF快了199倍。

在3D场景中进行开放文本查询对于机器人导航、3D编辑和增强现实等应用非常重要。目前的方法,例如LERF在神经辐射场中嵌入CLIP语义特征,受到速度和准确性的限制。

本文提出的方法LangSplat显著提高了效率和准确性,为落地应用提供了一种有前景的方案。

该工作目前在X(Twitter)上受到广泛关注。被清华大学官方账号以及AK转载,论文视频累计浏览量超过100,000,论文代码已开源。

方法论

层次语义学习: LangSplat利用Segment Anything Model(SAM)学习层次语义,解决了三维语义场的边界模糊问题。

3D语义高斯泼溅: LangSplat引入了一种新的技术,即3D高斯泼溅,它使用包含语义特征嵌入的3D高斯来表示3D场景。这种方法比NeRF-based的方法渲染过程更快。

特定场景的语义自编码器: 为了缓解高维语义特征嵌入导致的内存out of memory问题,LangSplat构建特定场景的语义自编码器将这些文本语义特征降维。

层次语义学习

在本文中,我们利用SAM来获得实例级的精确对象掩码,然后用这些掩码对应的图像区域提取像素对齐的特征。我们还明确地建模了SAM定义的语义层次,以解决点模糊性问题。

具体来说, 我们将一个 点提示的常规网格输入SAM, 以获得三个不同语义层次下的掩码: 分别代表子部分、部分和整体层次的掩码。

然后基于SAM预测的 分值、稳定性分值和掩码之间的重叠率, 为每一组掩码去除冗余的掩码。每个过滤后的掩码集合独立地根据其各自的语义层次做全图分割, 从而得到三个分割图:

这些分割图准确地勾勒出对象在其层次结构中的边界,有效地将场景划分为语义上有意义的区域。通过获得的分割图,我们继续为每个分割区域提取CLIP特征。

数学上,得到的像素对齐的语义嵌入是:

如此,从三维语义场景渲染的每个像素都具有与其精确语义上下文相匹配的CLIP特征。这种匹配减少了模糊性,提高了基于语义的查询的准确性。

此外,由于我们在「整体」、「部分」和「子部分」层次上都有不同的分割图,我们可以直接在这些预定义的尺度上查询三维语义场。这消除了在多个绝对尺度上进行密集搜索的需要,使查询过程更加高效。

3D语义高斯泼溅

在一组2D图像上获得语义嵌入后,我们可以通过建模3D点和2D像素之间的关系来学习一个3D语义场。

大多数现有方法使用NeRFs进行3D建模,但它们面临着耗时的渲染过程。为了解决这个问题,我们提出了基于3D高斯散射的3D语义场建模方法。

这种3D高斯散射方法明确地将3D场景表示为各向异性的3D高斯分布的集合, 每个高斯分布 由均值 和协方差矩阵 描述:

3D高斯投影到2D图像平面上后,用基于tile的光栅化策略进行渲染:

其中, 是第 个高斯的颜色, 表示瓦片中的高斯数量, 是在像素 处渲染的颜色,

这里oi是第 个高斯的不透明度, 代表投影到二维上的第 个高斯的函数。

在本文中, 我们提出了3D语义高斯, 为每个高斯增加三个语义嵌入

这些嵌入源自CLIP特征,捕捉了SAM提供的层次语义。增强后的高斯被命名为3D语义高斯。并采用基于tile的光栅化器以保持渲染效率:

其中, 代表在像素v处以语义层次l渲染的语义嵌入。通过直接将语义信息引入高斯中,我们使三维语义场能够响应基于文本的查询。

特定场景的语义自编码器

作为一种显式建模方法,表征一个复杂场景可能需要数百万个3D点。直接在高维的CLIP潜空间直接学习高斯的语义特征会显著增加内存消耗,容易导致「内存不足」的问题。

为降低内存消耗并提高效率,我们引入了基于场景的语义自编码器,将场景中的CLIP嵌入映射到低维潜在空间。

CLIP模型是通过4亿对(图像,文本)训练的,其D维潜在空间可能非常紧凑。然而,我们在这里训练的语义场Φ是特定于场景的,这意味着我们可以利用场景先验知识压缩CLIP特征。

事实上,对于每个输入图像,我们将获得由SAM分割的数百个掩码,这显著少于CLIP训练中使用的图像数量。因此,场景中的所有分割区域在CLIP潜在空间中稀疏分布,使我们能够通过基于场景的自编码器进一步压缩这些CLIP特征。

实验

实验设置: 实验测试了该方法在开放词汇3D对象定位和语义分割任务上的性能,使用的数据集包括LERF和3D-OVS。

结果: LangSplat显著优于先前的最先进方法。特别是,它在1440×1080分辨率下比LERF快199倍,显示出在速度和效率上的显著提高。

可视化和消融研究: 论文包括了详细的可视化和消融研究,展示了LangSplat各组成部分的有效性。

贡献

1. 通过引入带有语义特征的3D高斯泼溅来进行三维场景感知。

2. 与以前的方法相比,实现了显著的速度提升,使其适合实时应用。

3. 通过采用层次语义和新的渲染技术,LangSplat提高了3D语义场的精确度。

4. 通过使用场景特定的自动编码器,减少了处理高维数据所需的计算和内存开销。

参考资料:

https://langsplat.github.io/


公众号后台回复“数据集”获取100+深度学习各方向资源整理

极市干货

技术专栏:多模态大模型超详细解读专栏搞懂Tranformer系列ICCV2023论文解读极市直播
极视角动态欢迎高校师生申报极视角2023年教育部产学合作协同育人项目新视野+智慧脑,「无人机+AI」成为道路智能巡检好帮手!
技术综述:四万字详解Neural ODE:用神经网络去刻画非离散的状态变化transformer的细节到底是怎么样的?Transformer 连环18问!

点击阅读原文进入CV社区

收获更多技术干货

【声明】内容源于网络
0
0
极市平台
为计算机视觉开发者提供全流程算法开发训练平台,以及大咖技术分享、社区交流、竞赛实践等丰富的内容与服务。
内容 8155
粉丝 0
极市平台 为计算机视觉开发者提供全流程算法开发训练平台,以及大咖技术分享、社区交流、竞赛实践等丰富的内容与服务。
总阅读197
粉丝0
内容8.2k