《小王爱迁移》系列之十四:用于部分迁移学习的深度加权对抗网络

《小王爱迁移》系列之十四:用于部分迁移学习的深度加权对抗网络

本次介绍一篇被计算机视觉顶会CVPR 2018接收的文章:《Importance Weighted Adversarial Nets for Partial Domain Adaptation》。文章作者团队来自澳大利亚卧龙岗大(University of Wollongong)。

背景

我们目前接触过的绝大部分迁移学习问题情景都是:源域和目标域的特征空间与类别空间一致,只是数据的分布不一致,如何进行迁移。也就是说,源域和目标域要是几类,都是几类。但是这种情况显然具有很大的限制性:在真实应用中,我们往往不知道目标域的类别,更不用说它是否和源域的类别完全一样。这就极大地限制了它的应用。

迁移学习的目标就是利用大量有标注的源域数据来对目标域数据进行建模。如果我们假设我们已有的源域数据很丰富,它本身就包含了目标域的类别,那么问题是不是看起来更加具有一般性?形式化来讲,我们用 \mathcal{Y}_s \mathcal{Y}_t 分别表示源域和目标域的类别空间,那么部分迁移学习就是 \mathcal{Y}_s \supset \mathcal{Y}_t 。这种情况比通常意义下的迁移学习更有挑战性。这就是部分迁移学习(Partial Transfer Learning)

Motivation

作者的motivation很直观:既然源域的类别比目标域的多,无法直接进行迁移,那么,就首先选择出源域中与目标域那部分类别最接近的样本,给它们赋予高权重,然后进行迁移。

基于这个想法,作者设计了一个两阶段的深度对抗网络。我们都知道对抗网络主要由特征提取器(feature extractor)领域分类器(domain classifier)组成。特征提取器用于进取样本的公共特征,领域分类器用于判别两个领域是否相似。

已有工作通常对源域和目标域采用一个公共的特征提取器。但是在部分迁移学习中,由于源域和目标域的类别不同,因此作者提出对它们分别采用不同的特征提取器进行。这样做还有一个好处就是,不同的特征提取器可以针对各自的domain学习到各自的表征性特征。

在学习时,固定源域的特征提取器不变,只学习目标域的特征,这更符合原始GAN的理论。

Method

作者提出了一个深度加权对抗网络(Importance Weighted Adversarial Nets)。这个网络的示意图如下图所示。网络的主要部分是:分别作用于源域和目标域的两个特征提取器(分别叫做 F_s F_t ),以及两个领域分类器(分别叫做 DD_0 )。第一个领域分类器用来筛选出源域中与目标域相似的那部分样本(或者源域中与目标领域共享的那部分类别),第二个领域分类器进行正常的domain adaptation。



相应地,方法主要分为两个部分:1)筛选出源域中与目标域属于相同类别的样本,2)综合学习。

样本筛选

此部分是该论文的核心创新点。主要思路是,由 F_s F_t 产生的源域和目标域特征 z_s z_t,通过一个领域分类器 D,判别样本是来自于源域还是目标域。这个 D 是一个二类分类器,如果 D=1 ,表示样本来自源域;否则样本来自目标域。那么,如何才能知道样本是否属于源域和目标域的公共类别,而不是特异于源域的类别(作者叫它们outlier)?

如果 D(z) \approx 1 ,那么就表示 z 这个样本是来自于源域。更进一步分析,为什么这部分样本只是来自源域?就是因为这部分样本是源域独有的!否则的话,它就也会来自目标域了!从另一个角度说,如果 D(z) \approx 0 ,则表示这部分样本来自目标域。同时,也表示它可能来自源域中与目标领域共享的类别。因为两部分的类别是共享的!

这个简单而直观的道理指导着我们设计不同的权重。我们的目标是,对于筛选出的那部分与目标域属于相同类别的源域样本,给它们赋予大权重;另一部分源域特有的样本,权重调小。则该权重可以被表示为:

w(z) = 1 - D^\star(z) = \frac{1}{\frac{ps(z)}{pt(z)}+1}

这里的 D^\star(z) 表示的是领域分类器$D$的最优值,它可以通过求导得出(D^\star(z)=\frac{p_s(z)}{p_s(z)+p_t(z)} )。从这个式子可以看出,如果 D^\star(z) 值较大,则表示样本更可能是outlier,那么权重值就会变小;反之,如果 D^\star(z) 值较小,则表示样本更可能是源域和目标域共同部分,那么权重值就会变大。这个方法很好地对源域和目标域中的共同类别的样本完成了筛选工作。

作者还对源域部分的权重进行了归一化,以更加明确样本的从属关系。加入权重以后,优化目标变成了



下一步工作是处理领域分类器 D_0 D_0 也可以以同样的求导方式得到。

综合学习

综合学习之前,作者还加了一个熵最小化项用于对目标域的样本属性进行约束。这也是我们比较常见的。熵最小化可以被表示为

\min{F_t} \mathbb{E}{x \sim p_t(x)} H(C(F_t(x)))

其中的 H(\cdot) 就是熵的表达形式。 C(\cdot) 是分类器。

现在,总的学习目标就是



实验

部分迁移学习实验主要在传统的Office-Caltech以及Office-31上做。不过实验任务与之前的迁移学习有所不同:源域的类别比目标域多

作者在这里和一些最新的迁移学习方法进行了对比,表明了所提方法的优势。

作者还特别做了一个实验:当目标域的类别个数逐渐变多时,精度如何变化?结论是,随着目标域类别个数的减少,精度逐渐增加。这表明知识在进行迁移时,源域知识越多,通过筛选,对目标越有效。

具体实验设定、结果、以及其他的可视化结果可以参照原文。

总结

本文核心创新点是,从任务出发,直观地构造出两阶段式对抗网络,对源域中与目标域共享的类别样本进行有效筛选。另一个与已有工作不同的地方是,作者分别对源域和目标域采用了不同的特征提取器。其实这一点与作者发表在CVPR-17的JGSA方法很像。可以参考学习。

Reference

[1] 本文对应的论文:Zhang J, Ding Z, Li W, et al. Importance Weighted Adversarial Nets for Partial Domain Adaptation[J]. arXiv preprint arXiv:1803.09210, 2018. 下载地址:arxiv.org/abs/1803.0921.

[2] JGSA方法:Zhang J, Li W, Ogunbona P. Joint geometrical and statistical alignment for visual domain adaptation[J]. arXiv preprint arXiv:1705.05498, 2017.

[3] 与本文相关的另一篇部分迁移学习工作:zhuanlan.zhihu.com/p/32

========================

[作者简介]王晋东(不在家),中国科学院计算技术研究所博士生,目前研究方向为机器学习、迁移学习、人工智能等。作者联系方式:微博@秦汉日记 ,个人网站Jindong Wang is Here

=================

更多《小王爱迁移》系列文章:

《小王爱迁移》系列之零:迁移学习领域著名学者和研究机构

《小王爱迁移》系列之一:迁移成分分析(TCA)方法简介

《小王爱迁移》系列之二:联合分布适配(JDA)方法简介

《小王爱迁移》系列之三:深度神经网络的可迁移性

《小王爱迁移》系列之四:深度网络如何进行迁移学习(DaNN、DDC、DAN)

《小王爱迁移》系列之五:测地线流式核方法(GFK)

《小王爱迁移》系列之六:学习迁移(Learning To Transfer)

《小王爱迁移》系列之七:负迁移(Negative Transfer)

《小王爱迁移》系列之八:深度迁移学习文章解读

《小王爱迁移》系列之九:开放集迁移学习(Open Set Domain Adaptation)

《小王爱迁移》系列之十:张量迁移学习(tensor unsupervised domain adaptation)

《小王爱迁移》系列之十一:选择性对抗迁移学习(Selective Adversarial Network)

《小王爱迁移》系列之十二:新年新气象-重新整理的迁移学习资源仓库

《小王爱迁移》系列之十三:在线迁移学习(online transfer learning)

《小王爱迁移》系列之十四:用于部分迁移学习的深度加权对抗网络

《迁移学习简明手册》发布啦!

文章被以下专栏收录