极市导读
首次开源145万图文对水下多任务指令集,填补“大模型”水下数据空白;端到端特征增强框架NAUTILUS在目标检测、图像分类与深度估计等8类任务全面领先,恶劣成像下仍稳超LLaVA-1.5。>>加入极市CV技术交流群,走在计算机视觉的最前沿
-
论文标题:NAUTILUS: A Large Multimodal Model for Underwater Scene Understanding -
论文地址:https://arxiv.org/abs/2510.27481 -
项目地址:https://h-embodvis.github.io/NAUTILUS -
代码地址:https://github.com/H-EmbodVis/NAUTILUS -
数据集地址:https://github.com/H-EmbodVis/NAUTILUS/tree/dataset
深邃的海洋覆盖地球表面的70%以上,其在资源勘探、环境保护和国家安全等领域的重要性,使自动化水下探索技术备受关注。然而,想要像《海底两万里》中的“鹦鹉螺号(NAUTILUS)”那样自由地认知和探索水下世界,我们仍面临严峻的技术挑战。光线在水中的严重散射和吸收导致图像质量显著下降,这极大地削弱通用大模型的性能,阻碍了水下场景理解的研究进展。
现有的水下视觉方法又大多为单一任务设计,缺乏多粒度的综合感知能力。大规模、多任务指令微调数据集的长期缺失,进一步制约了该领域的研究进展。
针对以上挑战,华中科技大学白翔教授团队提出了首个能够支持八项水下场景理解任务的水下多模态大模型NAUTILUS。该模型旨在通过统一的框架实现对水下场景从图像、区域到物体的多粒度、多任务的全面理解。同时,团队还构建并开源了首个大规模水下多任务指令微调数据集NautData。该工作的主要贡献如下:
-
水下多任务指令跟随数据集:构建了包含145万个图文对的 NautData 数据集,覆盖八种主流水下理解任务,为水下大模型的发展和评测奠定了坚实基础; -
多任务统一理解:NAUTILUS 是首个能够同时处理粗粒度与细粒度目标分类、计数、视觉问答(VQA)、检测、指代定位、区域描述和图像描述八项任务的水下大模型,实现了对场景信息的层级化、综合性理解; -
性能优异且鲁棒:通过创新的 视觉特征增强(VFE)模块,NAUTILUS 能够有效克服水下图像降质问题,在多个基准测试中稳定超越包括 LLaVA-1.5 和 Qwen2.5-VL 在内的先进模型,尤其在低光、浑浊等恶劣条件下表现出色。
01 水下多任务指令跟随数据集NautData

该工作围绕八项任务进行数据构建,并为每项任务设计了定制化的数据生成流程。整个流程通过三种模式构建数据,分别为基于规则的生成 (Rule-based generation),组合生成 (Integration generation)与自由格式生成 (Free-form generation)。其中,基于规则的生成利用预定义模板构造问答对,组合生成结合模板与大型语言模型(LMM)的输出以丰富数据,而自由格式生成则允许大型语言模型根据自主关注的内容灵活创建问题与答案。
如图为数据集统计信息。外环显示了数据在八项任务上的分布,内环则显示了三种生成模式的构成比例。
02 NAUTILUS是如何实现的?
NAUTILUS 的框架主要由图像编码器、深度编码器、视觉特征增强(VFE)模块和大型语言模型组成。之前的研究通常将图像增强作为预处理步骤,这可能导致信息丢失。此外,图像增强与模型训练的解耦会放大误差累积的风险,这一效应在处理采集自多变环境的大规模水下数据集时愈发明显。特征空间增强方法则通过实现端到端的优化,利用下游任务提供面向任务的监督,更适用于多任务模型设计。因此,NAUTILUS通过在特征空间中进行增强,保留原始图像的完整信息,优化多任务场景理解表现。其核心在于即插即用的VFE模块,该模块的设计受到了水下成像物理模型的启发,旨在解决水下图像退化问题。
VFE模块的工作流程如下:
-
去除后向散射影响:借鉴暗像素先验,模型通过定位图像中的“暗像素”区域来估计水体中的后向散射光强度,并在特征层面将其从视觉特征中剥离,消除环境光造成的模糊和“雾霾感”。 -
恢复光线吸收影响:由于光在水中的传播会发生衰减,导致颜色失真,模型引入深度信息(由深度编码器提取)来估计光线的吸收程度,并据此对视觉特征进行补偿,恢复物体原始的色彩和细节。
通过这两个步骤,VFE模块输出增强后的视觉特征,与原始特征一同送入大型语言模型,使其既能感知真实的水下环境,又能基于恢复后的清晰信息进行可靠的分析和理解。
03 NAUTILUS的效果如何?
为验证模型性能,研究团队在 NautData 测试集上进行了全面的量化评估。如下表所示,无论是基于 LLaVA-1.5 还是 Qwen2.5-VL,NAUTILUS 在分类、描述、定位、检测及视觉问答等多数核心任务上,其性能均显著优于现有的通用大模型及其他水下模型,展现了其卓越的综合理解能力。
物体计数任务为评估模型的群体感知能力提供了有效途径。为此,研究团队在 IOCfish5k 数据集上对 Nautilus 的水下群体计数表现进行了评测。实验结果表明,该模型在平均绝对误差(MAE)和均方根误差(RMSE)上均优于其他大型多模-态模型,且相较于 LLaVA-1.5 基线分别取得了8.0和15.9的显著提升,展现了卓越的群体感知性能。

为评估模型在真实水下环境中的鲁棒性,研究团队考察了其在光照、色偏及浑浊等降质条件下的定位(grounding)性能。基于 NautData 测试子集的实验表明,相较于 LLaVA-1.5 基线,Nautilus 在低光、偏绿和浑浊场景下的 PR@0.5 指标分别取得了7.5、8.3和8.1的大幅提升,展现出其在多变视觉条件下的强大适应能力与性能稳定性。

下图的可视化结果进一步直观地展示了NAUTILUS强大的多任务处理能力。从对整个场景的宏观描述,到对特定鱼群的精确计数与定位,再到对单一对象的细粒度属性问答,NAUTILUS在图像、区域、物体三个层级上均展现出精准、连贯的理解能力,生动体现了其作为水下场景理解基础模型的巨大潜力。

04 总结
NAUTILUS作为首个支持八项水下场景理解任务的多模态大模型,为水下环境的综合感知提供了一个统一的解决方案。以往的通用模型因水下图像降质而性能不佳,而现有的水下专用方法又大多为单一任务设计,限制了对场景的全面理解。相比之下,NAUTILUS通过创新的视觉特征增强(VFE)模块在特征层面克服图像降质,并利用其多任务统一架构的优势,从而在多个基准测试中,尤其是在恶劣条件下,取得了超越先进模型的优异表现。
公众号后台回复“数据集”获取100+深度学习各方向资源整理
极市干货

点击阅读原文进入CV社区
收获更多技术干货

