大数跨境
0
0

MRAN:简单而有效的多表示迁移网络结构

MRAN:简单而有效的多表示迁移网络结构 极市平台
2021-01-07
2
导读:本篇文章介绍一种适合领域自适应的结构:​多表示领域自适应,该方法极为简单,但是效果却非常不错,可以和大多数现有的领域自适应方法结合。
↑ 点击蓝字 关注极市平台

作者丨王晋东不在家@知乎(已授权)
来源丨https://zhuanlan.zhihu.com/p/337440194
编辑丨极市平台

极市导读

 

本篇文章介绍了一篇来自朱勇椿博士的研究方向-一种适合领域自适应的结构:多表示领域自适应,该方法极为简单,但是效果却非常不错,可以和大多数现有的领域自适应方法结合。 >>加入极市CV技术交流群,走在计算机视觉的最前沿

迁移学习中,大多数关于领域自适应(DA)的研究都集中于如何减小领域间分布的差异。已有的方法绝大多数都围绕着设计更好的分布度量差异来进行迁移;从另一个角度来看,什么样的网络结构适合做领域自适应呢?

本文作者朱勇椿,中国科学院计算技术研究所博士生,研究方向为数据挖掘和迁移学习。

本期我们从深度神经网络的机构出发,为大家介绍一种适合领域自适应的结构:多表示的领域自适应 (Multi-representation Adaptation Network, MRAN)。这篇文章提出一个简单却有效的方法:在 多个 表示空间中进行领域自适应以达到更好的迁移效果。尽管该方法极为简单,但是效果却非常不错,在多数迁移学习公开数据集(Office-Home, Office31, Image-CLEF)上均有不错的效果。在当下追逐精度刷榜的洪流下,希望这个工作可以启发大家从不同的角度对迁移学习进行探索。

这篇文章发表在中科院一区期刊Neural Network 2019上,主要作者团队来自中国科学院计算所与微软亚洲研究院。文章相关链接:

PDF:http://jd92.wang/assets/files/a19_neunet19.pdf

代码:https://github.com/easezyc/deep-transfer-learning

背景介绍

现在大多数领域自适应的方法使用单一的结构将两个领域的数据提取到同一个特征空间,在这个特征空间下使用不同方式(对抗、MMD等)衡量两个领域分布的差异,最小化这个分布的差异实现分布对齐。(详情请参照我们之前介绍的系列方法)但是单一结构提取的特征表示通常只能包含部分信息。举个简单的例子,原始图像如下图(a)所示,通过单一结构提取的特征表示可能仅包含部分信息,比如(b)饱和度,(c)亮度,(d)色调。

从图像中提取的特征通常只包含原始图像的部分信息,所以只在单一结构提取的特征上做特征对齐也只能关注到部分信息。为了更全面地表示原始数据,需要提取多种表示。因此这篇文章提出了多表示的领域自适应,使用一种混合结构,将原始图像提取到不同的特征空间(多种表示),在不同的特征空间分别进行特征对齐。

多表示领域自适应是一种通用的结构,可以使用不同的方法进行特征对齐。这篇文章使用CMMD进行特征对齐。因此,后续研究者可根据自己的问题设定,灵活修改这一结构。

方法介绍

方法如上图所示,框架很简单,通过多个子结构将特征映射到多个特征空间,在多个特征空间中分别进行特征对齐。这里多个子结构可以是不同的结构。这篇文章使用CMMD进行特征对齐,公式如下:


最后损失函数包含两个部分,一个是分类的损失(交叉熵),另一个是不同表示下的CMMD loss之和。可以看到优化目标相比于大多数UDA的方法来说是非常简单的,可扩展性也是很强的(CMMD可以替换为任意自适应损失)。

实验效果

这篇文章的思想非常简单,但是效果却很不错,在3个数据集上效果如下。

ImageCLEF:

Office31:

OfficeHome:

MRAN提取的多个表示的特征分布和DAN提取的特征分布的对比,可以看出多个子结构提取的表示有一定差异。

总结

在2020年即将过去的这个时间,尽管该工作的精度也已被一些最新的研究成果所超越,但其仍然具有一定的参考价值。精度从来不应该成为评价研究成果的唯一标杆。近年来大多数领域自适应的方法都在改进自适应损失函数,比如使用不同的度量函数来衡量分布差异,改进对抗损失等等。很少有去探索什么结构适合迁移的,这篇文章提供了一种简单但有效的思路——多表示领域自适应,可以和大多数现有的领域自适应方法结合。我们期待在未来有更多类似的方法可以进行扩展,取得更好的效果。

References

[1] Zhu Y, Zhuang F, Wang J, et al. Multi-representation adaptation network for cross-domain image classification[J]. Neural Networks, 2019, 119: 214-221.


推荐阅读



添加极市小助手微信(ID : cvmart2),备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳),即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群:月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~

△长按添加极市小助手

△长按关注极市平台,获取最新CV干货

觉得有用麻烦给个在看啦~  
【声明】内容源于网络
0
0
极市平台
为计算机视觉开发者提供全流程算法开发训练平台,以及大咖技术分享、社区交流、竞赛实践等丰富的内容与服务。
内容 8155
粉丝 0
极市平台 为计算机视觉开发者提供全流程算法开发训练平台,以及大咖技术分享、社区交流、竞赛实践等丰富的内容与服务。
总阅读7.6k
粉丝0
内容8.2k