《小王爱迁移》系列之十五:自动选择源域的迁移学习方法

《小王爱迁移》系列之十五:自动选择源域的迁移学习方法

本次我们介绍一篇杨强老师团队早期(2011年)发表在人工智能顶会IJCAI上的文章:《Source-selection-free Transfer Learning》。这篇论文所针对的问题是:如果我们可供选择的源域数量太多(千万级),我们如何可以根据两个领域之间的关系,自动地进行源域选择?这篇文章对 实践 的指导性非常强,我们可以借鉴运用于我们的实际项目中。

Motivation

给定的一个任何要分类的领域,例如文本分类,如果仅有少量的标定数据,那么无法训练出一个足够好用的模型。这时候就需要借助于可用的辅助领域来进行知识迁移。这个辅助领域的数据需要有足够的标签,并且,需要和target尽可能的相似。这些知识从哪里可以获得呢?

在文本领域,有一个已知的包含大量文本结构化信息的库:维基百科。维基百科上有着众多的文本分类信息,是一个文本分类领域非常理想的source。但是问题来了:这个source的类别通常和我们的target的类别不会完全对应(也就是说 \mathcal{Y}_s\mathcal{Y}_t 的交集并不为空)。这类似于CVPR 2018上提出的partial transfer learning的问题。这也是真实世界的状态。我们的挑战就是,如何利用这并不完全重叠的,看似没关系的source和target,建立二者之间的联系?

作者借助于一个社会化标签分享网站的数据:Delicious。这个网站由用户对不同的网页给出自己的tag。这些tag我们可以认为是包含了大量的label信息,上面包括source和target的label信息。借助Delicious这个桥梁,构建source和target之间的关系。

Method

方法一共分为两个部分:1)通过Delicious这个中间产品,得到source与target之间的关系,方便利用source进行迁移。2)得到关系之后,建立分类模型,完成迁移。其中,第2)步是大家通常采用的方法,第1)步是重点,也是创新点。

得到source和target的关系

Source有label,target也有label,这些label之间有什么关系?作者借助于delicious进行。这个过程是这样的:Delicious上有不同的人对不同的网页打的标签。那么作者就挖掘这些标签的距离:两个label的距离就是都打过这两个标签的人数。以此类推,得到了一个二部图。假设source和target的类别加起来是 q ,那么这个图的大小就是 q \times q 。边的值就是两个label的距离。

得到这个 q 以后,由于这个矩阵是一个高维度矩阵,那么用拉普拉斯特征映射对这个图进行降维,得到了一个降维以后的矩阵 \mathbf{V} ,这个 \mathbf{V} 只有 m << q 这么多列,所以就达到了降维的目的。

这个 \mathbf{V} 里就包含了source和target的关系。我以接下来就可以用这个矩阵进行知识的迁移。

这个过程可以用下图来表示。

得到source和target的关系

构建迁移学习算法框架

有了这个矩阵 \mathbf{V} ,我们就可以构建一个迁移学习分类器。我们假设要学习一个线性模型,那么这个模型的权重向量就是 \mathbf{W} 。这个模型的一般形式如下所示:

\Omega_l(\mathbf{W}) + \lambda_1 ||\mathbf{W}||^2_F + \lambda_2 \Omega_u(\mathbf{W})

第一项是在部分有label的target上的误差,第二项是正则项,第三项是在无label数据上的误差。

由于source是有label的,我们还没有用呢。现在可以用了:用不同的source去训练若干个分类器,我们叫 f^S_i 。这些分类器进行集成,就可以被用于target的预测:

\Omega_u(\mathbf{W}) = \frac{1}{n-l} ||\mathbf{W}^T \mathbf{X}_u - \mathbf{V}^T \mathbf{F}^s||^2_F

\Omega_l=\frac{1}{l} ||\mathbf{W}^T \mathbf{X}_u - \mathbf{V}^T \phi(Y_l)||^2_F

上面两个式子就用到了我们得到的矩阵 \mathbf{V} 来拉近source和target的距离。然后就可以进行训练了。学习source分类器权重是一个简单方法,不再赘述。学习过程如下图所示。

启发

要自动选择source,就需要对source和target的距离进行很好的度量。本文为了解决文本分类这个问题,绕过了这一点。是一个很好的数据挖掘性质的文章,解决了这个实际问题。但是可能换一个问题,方法就需要进行相应的变化,还没有归纳出一个抽象的通用的学习模式。可以继续探索。

References

[1] 本文对应的论文:Xiang E W, Pan S J, Pan W, et al. Source-selection-free transfer learning[C]//IJCAI proceedings-international joint conference on artificial intelligence. 2011, 22(3): 2355.

[2] 本文中的图片均来自杨强老师演讲的PPT。

[3] 本专栏中的partial transfer learning文章:《小王爱迁移》系列之十一:选择性对抗迁移学习(Selective Adversarial Network)

========================

[作者简介]王晋东(不在家),中国科学院计算技术研究所博士生,目前研究方向为机器学习、迁移学习、人工智能等。作者联系方式:微博@秦汉日记 ,个人网站Jindong Wang is Here

=================

更多《小王爱迁移》系列文章:

《小王爱迁移》系列之零:迁移学习领域著名学者和研究机构

《小王爱迁移》系列之一:迁移成分分析(TCA)方法简介

《小王爱迁移》系列之二:联合分布适配(JDA)方法简介

《小王爱迁移》系列之三:深度神经网络的可迁移性

《小王爱迁移》系列之四:深度网络如何进行迁移学习(DaNN、DDC、DAN)

《小王爱迁移》系列之五:测地线流式核方法(GFK)

《小王爱迁移》系列之六:学习迁移(Learning To Transfer)

《小王爱迁移》系列之七:负迁移(Negative Transfer)

《小王爱迁移》系列之八:深度迁移学习文章解读

《小王爱迁移》系列之九:开放集迁移学习(Open Set Domain Adaptation)

《小王爱迁移》系列之十:张量迁移学习(tensor unsupervised domain adaptation)

《小王爱迁移》系列之十一:选择性对抗迁移学习(Selective Adversarial Network)

《小王爱迁移》系列之十二:新年新气象-重新整理的迁移学习资源仓库

《小王爱迁移》系列之十三:在线迁移学习(online transfer learning)

《小王爱迁移》系列之十四:用于部分迁移学习的深度加权对抗网络

《迁移学习简明手册》发布啦!

《小王爱迁移》系列之十五:自动选择源域的迁移学习方法(SSFTL)

《小王爱迁移》系列之十六:探秘任务迁移学习 (CVPR 2018最佳论文解读)

《小王爱迁移》系列之十七:深度迁移度量学习

《小王爱迁移》系列之十八:联邦迁移学习

《小王爱迁移》系列之十九:基于条件对抗网络的领域自适应

《小王爱迁移》系列之二十:深度迁移学习用于时间序列分类

小王爱迁移》系列之二十一:最大分类器差异的领域自适应(MCD_DA)

《小王爱迁移》系列之二十二:Learn What and Where to Transfer

编辑于 2019-09-17

文章被以下专栏收录