《小王爱迁移》系列之三:深度神经网络的可迁移性

《小王爱迁移》系列之三:深度神经网络的可迁移性

从本文开始我会着重介绍一些深度迁移学习方面的文章。今天这篇是其中的经典文章,最初发表于NIPS 2014的《How transferable are features in deep neural networks?》。其实说是经典,也才2014年,很近了。但是神经网络发展太快,14年的就已经算经典了!本篇论文的作者是Jason Yosinski博士(当时是康奈尔大学的博士生),Uber AI联合创始人。值得注意的是论文的第三作者是深度学习大牛Yoshua Bengio,所以论文的质量和档次是可以信赖的。(能和这种级别的大牛合作,我想也算是一个博士生的最好经历了吧!)

多说一句,为什么说这个论文经典:1)本文在当年NIPS上是oral presentation(1.2%哦);2)本文目前引用数600多次,要知道现在火得一塌糊涂的Goodfellow的GAN文章也才800多!3)要很好地研究深度迁移学习,首先要高清楚一些基本的结论。所以这篇论文很重要!

背景和动机

随着AlexNet在2012年的ImageNet大赛上获得冠军,深度网络开始在机器学习的研究和应用领域大放异彩。尽管取得了很好的结果,但是神经网络本身就像一个黑箱子,看得见,摸不着,解释不好。由于神经网络具有良好的层次结构,很自然地就有人开始关注,能否通过这些层次结构来很好地解释网络?于是,有了我们熟知的例子:假设一个网络要识别一只猫,那么一开始它只能检测到一些边边角角的东西,和猫根本没有关系;然后可能会检测到一些线条和圆形;慢慢地,可以检测到有猫的区域;接着是猫腿、猫脸等等。

这表达了一个什么事实呢?概括来说就是:前面几层都学习到的是通用的特征(general feature),随着网络的加深,后面的网络更偏重于学习特定的特征(specific feature)。这非常好理解,我们也都很好接受。那么问题来了:我们怎么知道哪些层是general/specific?更进一步:如果应用于迁移学习,如何决定该迁移哪些层固定哪些层?

这个问题对于理解神经网络以及深度迁移学习都有着非常重要的意义。这也正是此论文的研究点。

简介

该论文是一篇实验性质的文章(通篇没有一个公式)。其目的就是要探究上面我们提到的几个关键性问题。因此,文章的全部贡献都来自于实验及其结果。(别说为啥做实验也能发文章:都是高考,我只上了个普通一本,我高中同学就上了清华)

在ImageNet的1000类上,作者把1000类分成两份(A和B),每份500个类别。然后,分别对A和B基于Caffe训练了一个AlexNet网络。一个AlexNet网络一共有8层,除去第8层是类别相关的网络无法迁移以外,作者在1~7这7层上逐层实验了AnB和BnB

简单说一下什么叫AnB:(所有实验都是针对数据B来说的)将A网络的前n层拿来并将它frozen,剩下的8-n层随机初始化,然后对B进行分类。

相应地,有BnB:把训练好的B网络的前n层拿来并将它frozen,剩下的8-n层随机初始化,然后对B进行分类。

围绕着神经网络的可迁移性,作者设计了两大方面的实验:

  • 迁移A网络的某n层到B(AnB) vs 固定B网络的某n层(BnB)
  • 权重初始化与迁移表现


实验结果

实验结果如下图所示:

这个图说明了什么呢?我们先看蓝色的BnB和BnB+(就是BnB加上fine-tune)。对BnB而言,原训练好的B模型的前3层直接拿来就可以用而不会对模型精度有什么损失。到了4~5层,精度略有下降,不过还是可以接受。然而到了6~7层,精度居然奇迹般地回升了!这是为什么?原因如下:对于一开始精度下降的4~5层来说,确实是到了这一步,feature变得越来越specific,所以下降了。那对于6~7层为什么精度又不变了?那是因为,整个网络就8层,我们固定了6~7层,这个网络还能学啥呢?所以很自然地,精度和原来的B网络几乎一致!

对BnB+来说,结果基本上都保持不变。说明fine-tune对模型结果有着很好的促进作用


我们重点关注AnB和AnB+。对AnB来说,直接将A网络的前3层迁移到B,貌似不会有什么影响,再一次说明,网络的前3层学到的几乎都是general feature!往后,到了4~5层的时候,精度开始下降,我们直接说:一定是feature不general了!然而,到了第6~7层,精度出现了小小的提升后又下降,这又是为什么?作者在这里提出两点:co-adaptation和feature representation。就是说,4~5层精度下降的时候,主要是由于A和B两个数据集的差异比较大,所以会下降;到了6~7层,由于网络几乎不迭代了,学习能力太差,此时feature学不到,所以精度下降得更厉害。

再看AnB+。加入了fine-tune以后,AnB+的表现对于所有的n几乎都非常好,甚至比baseB(最初的B)还要好一些!这说明:fine-tune对于深度迁移有着非常好的促进作用!

把上面的结果合并就得到了下面一张图:

至此,AnB和BnB基本完成。作者又想,是不是我分A和B数据的时候,里面存在一些比较相似的类使结果好了?比如说A里有猫,B里有狮子,所以结果会好?为了排除这些影响,作者又分了一下数据集,这次使得A和B里几乎没有相似的类别。在这个条件下再做AnB,与原来精度比较(0%为基准)得到了下图:

这个图说明了什么呢?简单:随着可迁移层数的增加,模型性能下降。但是,前3层仍然还是可以迁移的!同时,与随机初始化所有权重比较,迁移学习的精度是很高的!

结论

虽然该论文并没有提出一个创新方法,但是通过实验得到了以下几个结论,对以后的深度学习和深度迁移学习都有着非常高的指导意义(杨强教授非常赞赏该论文的工作):

  • 神经网络的前3层基本都是general feature,进行迁移的效果会比较好;
  • 深度迁移网络中加入fine-tune,效果会提升比较大,可能会比原网络效果还好;
  • Fine-tune可以比较好地克服数据之间的差异性;
  • 深度迁移网络要比随机初始化权重效果好;
  • 网络层数的迁移可以加速网络的学习和优化。

References

========================

[作者简介]王晋东(不在家),中国科学院计算技术研究所博士生,目前研究方向为机器学习、迁移学习、人工智能等。作者联系方式:微博@秦汉日记 ,个人网站Jindong Wang is Here

=================

更多《小王爱迁移》系列文章:

《小王爱迁移》系列之零:迁移学习领域著名学者和研究机构

《小王爱迁移》系列之一:迁移成分分析(TCA)方法简介

《小王爱迁移》系列之二:联合分布适配(JDA)方法简介

《小王爱迁移》系列之三:深度神经网络的可迁移性

《小王爱迁移》系列之四:深度适配网络(DAN)

《小王爱迁移》系列之五:测地线流式核方法(GFK)

《小王爱迁移》系列之六:学习迁移(Learning To Transfer)

《小王爱迁移》系列之七:负迁移(Negative Transfer)

《小王爱迁移》系列之八:深度迁移学习文章解读

《小王爱迁移》系列之九:开放集迁移学习(Open Set Domain Adaptation)

《小王爱迁移》系列之十:张量迁移学习(tensor unsupervised domain adaptation)

《小王爱迁移》系列之十一:选择性对抗迁移学习(Selective Adversarial Network)

《小王爱迁移》系列之十二:新年新气象-重新整理的迁移学习资源仓库

《小王爱迁移》系列之十三:在线迁移学习(online transfer learning)

「真诚赞赏,手留余香」
1 人赞赏
张旭
文章被以下专栏收录
19 条评论