大数跨境
0
0

CVPR 2024|多模态大模型解决无源域适应问题!DIFO:新颖的蒸馏多模态基础模型(DIFO)方法

CVPR 2024|多模态大模型解决无源域适应问题!DIFO:新颖的蒸馏多模态基础模型(DIFO)方法 极市平台
2024-03-24
2
↑ 点击蓝字 关注极市平台
作者丨Wenxin Su@知乎(已授权)
来源丨https://zhuanlan.zhihu.com/p/687080854
编辑丨极市平台

极市导读

 

本文从多模态大模型这一全新的视角来思考SFDA问题,首次探索了现成的视觉--语言多模态模型(ViL, 具有丰富异构知识)的辅助迁移潜力。 >>加入极市CV技术交流群,走在计算机视觉的最前沿

论文题目:《Source-Free Domain Adaptation with Frozen Multimodal Foundation Model》

arxiv地址:https://arxiv.org/abs/2311.16510v3

开源代码:https://github.com/tntek/source-free-domain-adaptation(我们写了一个Soure-free Domain Adaptation的通用框架,非常欢迎大家添加自己的方法!)

Abstract

无源域适应 (SFDA)是无监督领域自适应问题(UDA)的一个新分支,本质是将一个在源领域预训练好的模型迁移到另一个没有标签信息的目标领域,在迁移过程中,源领域是不可见的。针对该问题,目前的主流方法是构建伪标签或者挖掘辅助信息,来监督迁移过程,以实现领域自适应。但是,在无监督约束下,这种策略会不可避免地引入语义错误,从而限制迁移性能。在本文中,我们从多模态大模型这一全新的视角来思考SFDA问题,首次探索了现成的视觉--语言多模态模型(ViL, 具有丰富异构知识)的辅助迁移潜力。在运用ViL模型解决下游任务的过程中,我们发现以零样本方式直接将基础大模型应用于目标域并不令人满意,因为它所蕴含的知识是通用的,而不是都适用于特定任务。

以此为逻辑基点, 我们提出了一种迁移多模态基础模型所蕴含通用知识的SFDA方法(简称DIFO)。具体来说,DIFO对应的的迁移过程由两个交替步骤构成:(1)通过提示学习最大化与目标模型的互信息来定制化多模态基础模型,然后,(2)将这个定制好的多模态知识提炼到目标模型。为了更细粒度、更可靠进行知识迁移, 我们还引入了两个有效的正则化设计,即最可能类别约束,以及预测一致性约束。我们在四个开源的挑战性数据集上测试了DIFO的性能。实验结果表明DIFO明显优于现有方法。

Contributions

  1. 首次利用通用但异构的知识源(例如现成的ViL模型)来解决SFDA问题,超越了源域模型与无标注目标数据所表达的有限知识边界;
  2. 提出了新颖的DIFO方法,从通用ViL模型中有效地提取有用的特定任务知识;
  3. DIFO在经典的closed-set setting,以及更具挑战性partial-set 和open-set settings下取得 SOTA性能。

Methodology

1.Problem statement

源域样本及其相应的标签分别表示为 ; 同样地目标域样本及其相应的标签分别表示为 代表样本的数量。我们的目标是利用预训练好的源域模型 和ViL模型 , 来学习目标域模型

2.Overview

DIFO框架在两个不同的步骤之间交替来定制和提炼现成的ViL模型的知识

第一步,我们使用prompt learning实现ViL模型面向特定任务的定制化,从而减轻了 ViL 模型中的引导误差。为实现该目的,我们采用基于互信息的协调方法加以实现。相比于传统的KL散度、MMD等量度,这种方法最大的特点是提高了目标域模型和 ViL 模型之间上下文的交互丰富性,而不是盲目地信任的任何一个模型。第二步, 为了实现通用知识可靠的迁移,我们引入了最可能类别约束和预测一致性约束,这些约束使得目标域模型能够在logit空间中识别出最可能的类别标签,等价地引入类别显然分布,同时保持目标模型和ViL 模型的预测一致性,来实现小尺度的精细分类。在这里,最可能类别标签是由记忆感知预测器给出,该预测器以累积的方式动态存储并更新来自目标模型和 ViL 模型的知识。

3.Task-Specific ViL Model Customization(特定任务的 ViL 模型定制)

我们采用prompt learning 的框架进行ViL模型定制化,在此过程中,ViL模型的所有参数全部冻结,唯一可学习的部分是为特定任务分配的 text prompt。为了优化这些 prompt,我们需要有效的监督,然而,在SFDA问题设定中,由于缺乏有监督训练的参考模型,这意味着没有明确的良好监督信号可供使用。为了解决这个问题,受群体学习的思想启发,我们将ViL模型和目标域模型的输出看作两堆具有智慧的群体,用它们之间的互动与交流,作为弱监督信号,来实现无偏学习。具体来讲,我们通过最大化他们的预测的互信息来实现模型定制,其具有如下形式:

其中 代表prompt context, 衡量变量之间的互信息。这种对齐设计与传统采用的KL散度有很大不同,主要体现在两个方面。首先,互信息是比 KL 散度更紧的优化界限,有利于更深层次的对齐。

更重要的是, 散度表现出对特定预测是有偏差的, 不太适合我们的实现无偏学习的目标。相反, 互信息考虑两个预测之间的联合分布或相关性, 这种区别源于它们各自的定义, 其中:

从以上公式,可以看到:互信息的条件摘分量 捕获了联合分布,而KL并没有体现这个特性。此外, 在后续的实验部分, 我们还证明了在ViL模型的定制过程中, 结合两个预测之间基于联合分布的交互的重要性。

4. Memory-Aware Knowledge Adaptation(记忆感知知识适应)

虽然将ViL模型向目标模型进行了定制,但由于之前没有可靠目标模型,ViL 模型也可能无法完全适应。这种限制阻碍了第二阶段有效的知识迁移。为了解决这个问题,我们提出一个专用的记忆感知预测器来提供额外的学习指导即最有可能的类别鼓励,并结合传统的预测一致性约束,从未实现了一种可靠的、从粗粒度到细粒度的分类。

4.1 Memory-aware predictor(记忆感知预测器)

(1)记忆感知预测器

我们通过利用预测库中存储的历史信息生成代表最可能类别分布的伪标签。预测库为所有目标样本的历史预测数据:目标模型的预测 和ViL模型的预测

在整个自适应过程中,目标模型的预测会迭代更新。在每次训练迭代结束时,目标模型中新预测的训练批次标签将替换预测库中的对应标签。相比之下,ViL 模型的预测以epoch的方式集体更新,每 M 次迭代触发更新。这种混合更新策略旨在保持定制ViL模型指导的稳定性,并在捕获自适应过程中与特定任务相关动态信息之间取得平衡。

根据提供的预测库,创建最可能的类别,其规则如下所示:

权重 , 取自参数为 的指数分布。

(2)类别注意力校准

我们利用类别注意力校准为伪标签设计了基于对比学习的正则化技术。首先确定前 个最可能的类别, 这些被选中类别的索引可以表示为 。对于目标域样本 , 目标模型产生的logits记为 , 它的所以元素被分为正类和负类两个组别。我们定义该对比学习loss为 ( 是温度参数, 表示第 个 ) :

我们注意到, 与求和形式相比, 分子中 的乘积运算放大了对最可能类别的概率下降的惩罚。同样的, 分母中 的求和运算增强了对其他类别位置的抑制作用。此外, 的改变比 更敏感, 因为 。通过结合使用 , 我们对 logits 中最可能的类别的对应的元素全局施加校准效果, 把注意力被引入到这些潜在类别。如下图黄色框内所示:

5. Predictive Consistency(预测的一致性)

预测一致性损失为:

表示目标模型预测, 表示定制化后 模型预测, 是prompt, 衡量变量之间的互信息。参数 作为trade-off参数, 类别平衡项

Model training(模型训练)

在第一阶段, ViL的定制化由 控制, 在随后的第二阶段, 目标函数转变为:

是一个trade-off参数。也可以参考我们在github上的代码。(https://github.com/tntek/source-free-domain-adaptation)

Experiments

在我们的实验中,我们报告了Office31, Office-Home, VisDA和DomainNet126 数据集上的结 果。为了保证公平性,我们遵循与其他主流方法相同的数据集处理方法和训练方式。我们将 DIFO与18种现有的方法分为三组进行比较。

  • 第一组包含 Source,CLIP 和 Source+CLIP,其中 Source+CLIP 直接平均源模型和 CLIP 的结 果。
  • 第二组包含3种和CLIP结合的最先进的UDA方法。
  • 第三组包含13种先进的SFDA方法

此外,为了进行全面比较,我们在中实现 DIFO两个变体:(1) DIFO-C-RN(弱版本)和(2)DIFOC-B32(强版本)。关键区别在于 CLIP 图像编码器的backbone。对于 DIFOC-RN,在 VisDA 数据集上采用 ResNet101 以及 ResNet50 用于其他三个数据集。DIFO-C-B32 采用 ViTB/32 。

1.Comparison Results

DIFO-C-B32 在 Office-31 上的 6 项任务中的 4 项中获得了最佳结果,同时在其他三个数据集的 所有任务上超越了之前的方法。DIFO-C-RN,除了 Office-31 之外,它获得了第二好的结果,在 Office-Home、VisDA 和 DomainNet-126 上的平均准确率比之前最好的结构高。

DIFO-C-B32 在所有任务上均优于 CLIP-B32。同样的,DIFO-C-RN也优于 CLIP-RN。这表明,原始CLIP模型的领域通用性不能完全适用于目标领域,需要针对特定任务进行定制化。DIFO-C-B32 在所有任务上也均优于Source+CLIP-B32,这说明简单的加权方法无法实现理想的任务特定融合,需要精心设计的蒸馏方法。

2. Comparison on Partial-set and Open-set SFDA settings

这些是传统 Closed-set SFDA 的变体,与 SHOT相同

我们的方法也超过了目前最优。

3.Feature distribution visualization

使用t-SNE和3D密度图在Office-Home的Ar→Cl 任务上可视化了特征分布

可以看出DIFO的分布是最接近Oracle的分布。

4.Ablation Study

我们评估了:

  • 的效果
  • 互信息优化效果
  • 特定任务定制的效果
  • 历史预测融合效果

4.Task-Specific Knowledge Adaptation Analysis

我们使用特征空间移位分析 ,利用MMD(maximum mean discrepancy)测量来验证所提出的 方法。在这个实验中,我们首先在所有具有真实标签的 Office-Home 数据上训练一个域不变的 Oracle 模型,表示理想的特定任务空间。我们对Office-Home中Ar→Cl这个迁移任务进行分析。

图中红色代表目标域模型(TGT),蓝色代表定制的CLIP模型(CUS-CLIP)。左图代表这两个模 型空间到理想空间的MMD距离。右图代表训练过程中两个模型准确率变换。在前四个epoch,观 察左图,这两模型空间距离理想域的MMD距离急剧下降,这一变化也符合准确率的变化,图右侧 所示。这些结果表明,DIFO使得知识向理想的特定任务空间中收敛。

最后

给我们的项目点一个Star吧,谢谢大家观看

https://github.com/tntek/source-free-domain-adaptation

公众号后台回复“数据集”获取100+深度学习各方向资源整理

极市干货

技术专栏:多模态大模型超详细解读专栏搞懂Tranformer系列ICCV2023论文解读极市直播
极视角动态欢迎高校师生申报极视角2023年教育部产学合作协同育人项目新视野+智慧脑,「无人机+AI」成为道路智能巡检好帮手!
技术综述:四万字详解Neural ODE:用神经网络去刻画非离散的状态变化transformer的细节到底是怎么样的?Transformer 连环18问!

点击阅读原文进入CV社区

收获更多技术干货


【声明】内容源于网络
0
0
极市平台
为计算机视觉开发者提供全流程算法开发训练平台,以及大咖技术分享、社区交流、竞赛实践等丰富的内容与服务。
内容 8155
粉丝 0
极市平台 为计算机视觉开发者提供全流程算法开发训练平台,以及大咖技术分享、社区交流、竞赛实践等丰富的内容与服务。
总阅读5.7k
粉丝0
内容8.2k