论智
首发于论智

Jeff Dean:Google Brain团队2017年回顾(总)

编者按:11日,结束假期的Google Brain团队负责人杰夫·迪恩(Jeff Dean)重回岗位,并在官博发表了对团队过去一年工作的总结。在这篇总结(一)中,杰夫·迪恩主要介绍了团队在开源软件、数据集和机器学习的相关基础工作,更偏向研究领域,而他本人也预告称将在接下来的几天中发表总结(二),具体讨论机器学习在医疗保健、机器人等应用领域所做的贡献。

注:本文已汇总(一)(二)两篇博文内容。

Google Brain一直致力于通过科学研究和系统工程推动先进AI技术发展,我们把它视为自己的一个使命。去年,我们向大家分享了2016年所获各项成就的总结,并开始在研发智能机器这个长期研究计划上不断取得进展。同时,和Google和Alphabet等多个团队的合作也为我们用成果改善民生提供了契机。因此,这里我将用两篇文章介绍2017年团队所做的工作,其中第一篇将重点介绍一些基础工作,以及开源软件、数据集和机器学习硬件方面的更新换代。而在第二篇文章中,我们将深入探讨机器学习对特定领域可能产生的巨大影响,如医疗保健、机器人和一些基础学科,届时我也会介绍团队在艺术、公平性和包容性上的努力,向读者展示一个形象更丰满的Google Brain。

核心研究

Google Brain团队的工作重点是追求研究、提高认识、提升自己解决机器学习领域新问题的能力。以下是去年我们研究的几个主题。

AutoML

AutoML(Automating Machine Learning)的目标是开发让计算机自主解决新的机器学习问题,而无需人类专家插手干预的技术。如果我们要建立真正的智能系统,这项工作是一个必备的基础。在过去一年中,我们基于强化学习和进化算法开发了一些设计神经网络结构的新方法,并把这项工作扩展到了最先进的ImageNet分类和对象检测领域,同时我们也在论文中展示了神经网络如何自动学习新的优化算法有效的激活函数的成果。目前,我们正在积极配合Cloud AI团队把这项技术带给Google用户,并将从多个角度继续推进这个项目。

ICLR 2017:强化学习的神经结构搜索
AutoML用于对象检测

语音理解和生成

另一个主题是开发新技术,提高计算机系统理解和生成人类言语的能力。去年,我们和谷歌语音团队合作开发了一个用于语音识别的端到端模型,较之Google现有的先进语音识别系统,该模型字错误率(WER)只有5.6%,在性能上提升了16%。这项工作的一个优点是多线程研究,它汇聚了各个细分领域的多项研究成果。

端到端模型

我们还与Google的Machine Perception团队合作开发了一个直接从文本生成类人语音的神经网络模型Tacotron 2,它大大提高了生成语音的质量。这个模型的MOS值高达4.53,相比之下,有声读物专业朗读者(人类)的MOS值也不过4.582,而当前最好的计算机语音生成系统的的得分只有4.34。你可以点击这里听一听。

Tacotron 2的模型架构

新型机器学习算法和方法

我们同样也在继续开发新的机器学习算法和方法,包括:

计算机系统

在过去一年里,用机器学习代替传统计算机系统中使用的启发式方法(试探法)也引起了我们的浓厚兴趣。之前我们已经展示了如何用强化学习优化硬件设备资源分配,发现它的效果优于手动启发式算法和传统算法方法。之后我们又与Google Research的同仁合作发表了一篇论文:The Case for Learned Index Structures,指出神经网络既可以比传统的数据结构(如B树、哈希表、布隆过滤器)更快,也可以更小。正如我在NIPS 2017会议期间展示的PPT中所说的那样,对于将机器学习用于计算机核心系统,我们相信现在我们抓住的只是的表面,路漫兮其修远兮,吾将上下求索。

学习模型索引

隐私和安全

机器学习需要大量数据,因此它与个人隐私、信息安全之间相互作用也是我们长期以来关注的一个焦点。去年我们的论文Semi-supervised Knowledge Transfer for Deep Learning from Private Training Data在ICLR 2017上摘获“最佳论文奖”,其中就展示了机器学习技术在防止敏感训练数据泄露、保护用户隐私上的应用。我们还进一步研究了对抗样本的性质,包括现实世界中的对抗样本如何将对抗训练用于大规模训练,使相应模型更加强大。

了解机器学习系统

尽管我们已经看到了深度学习带来的令人印象深刻的成果,但我们觉得重要的是理解它为什么会起作用,以及它什么时候不起作用。就像我们在另一篇获得ICLR 2017“最佳论文奖”的论文Understanding deep learning requires rethinking generalization中所提到的那样,现有的机器学习框架还不能完全解释为什么深度学习会得出这样的结果,这种通过优化方法获得的“flatness”并不像当初设想的那样和良好的泛化紧密相关。为了更好地理解深度学习架构下训练的进展情况,我们发表了一系列分析随机矩阵的论文,因为它们是大部分训练方法的起点。而在最近的一项研究中,我们展示了良好的实验设计和严谨统计的重要性,以GAN为例,我们对比了当下流行的7个GAN的变体,发现它们在性能上并没有多大提升。我们希望这项研究能为其他研究人员提供一个可靠的实验案例。

如论文The (Un)reliability of saliency methods所介绍的,我们也在寻找一些能更直观地解释机器学习系统的方法。2017年3月,我们与OpenAI、DeepMind、YC Research等机构合作,推出在线开放科学杂志Distill,致力于加深读者对机器学习的理解。上线后,Distill凭借对专业概念的清晰阐释和文章中出色的可视化工具赢得了读者的广泛赞誉。在过去一年中,杂志发表的文章大多旨在介绍机器学习的内部工作原理,但我们期待它能在2018年带来更多惊喜。

特征可视化
如何有效使用s-SNE

用于ML研究的开源数据集

过去的一些开源数据集,如MNIST、CIFAR-10、ImageNet、SVHN和WMT等,都极大地推动了机器学习领域的发展。作为一个集体,过去一年我们团队也和Google Research携手同心,为打造开放的研究环境积极贡献有趣的新数据集。我们开源了一些大型标记数据集,它们包括:

YouTube-Bounding Boxes:视频每一帧图像上的对象检测边界框

TensorFlow和开源软件

TensorFlow用户全球分布

综观团队过去的工作,我们已经构建了一些工具来帮助工作人员在Google产品中进行机器学习研究、部署机器学习系统。2015年11月,我们开源了第二代机器学习框架TensorFlow,希望机器学习社区的人们能从这款优秀工具中受益。2017年2月,我们发布了TensorFlow 1.0;同年11月,我们又发布了v1.4,其中最受人瞩目的是Eager execution(用于交互式命令编程)、XLA、TensorFlow程序优化编译器,以及可用于移动设备的精简版TensorFlow——Tensorflow Lite。目前Tensorflow安装说明的下载量已突破1000万人次,覆盖180多个国家和地区,在GitHub上已有超过1200人共享了源代码。

去年2月,我们也举办了第一届TensorFlow开发者峰会,吸引了超过450位前来山景城参会的专业人士和超过6500名在线观看的领域同仁,我们在全球35个国家和地区举办了85场在线参会活动。所有会议内容都已记录在案,主题包括新功能、使用TensorFlow的技巧和TensorFlow细节等。2018年3月30日,我们会在湾区举办第二届TensorFlow开发者峰会,希望届时能看到各位读者的身影。

(视频请前往公众号或原博观看)

这个剪刀石头布是TensorFlow的一个新用途。我们对第一届TensorFlow开发者峰会非常满意,因为我们从中发现了黄瓜自动分拣、在航拍图像中检测海牛、分拣更适合制作婴儿食品的土豆、皮肤癌识别、解读鸟类鸣叫、鉴定作物病株等各式各样的TensorFlow应用。

2017年11月,也就是在庆祝TensorFlow开源代码两周年之际见到这样一群充满活力的开发者和用户是非常令人振奋的。TensorFlow是GitHub上排名第一的机器学习平台,也是GitHub 上全球排名前五位的社区之一,现已被许多公司和机构所使用,和它相关的GitHub repo也已经突破24500个。如今许多科研论文也开始把源代码和TensorFlow实现放在一起发布,以配合研究成果,这样做将便于社区用户理解论文使用的具体方法,并重现、拓展相关工作。

TensorFlow也从Google其他团队的开源工作中获益良多,其中包括在TensorFlow中生成对抗模型的轻量级库TF-GAN、用于点阵模型的TensorFlow Lattice和用于神经网络追踪/检测的TensorFlow Object Detection API。TensorFlow模型库正随着越来越多的模型不断发展。

除了TensorFlow,我们还发布了deeplearn.js,一个针对在浏览器中运行深度学习模型的在线开源硬件加速器。deeplearn.js的主页上介绍了不少有趣的实例,如基于电脑摄像头的计算机视觉模型Teachable Machine、实时钢琴玩具Performance RNN。在2018年,我们会继续这项工作,以便将TensorFlow模型直接部署到deeplearn.js环境中。

TPU

大约在五年前,我们开始意识到深度学习将给计算机硬件带来又一场革命。深度学习对计算机算力的要求十分惊人,它有两个明显的特征:由大量密集的线性代数运算(矩阵倍数、向量运算等)构成,但对计算精度要求不高。由此我们开始思考是否该基于这两个特点为深度学习定制专门的硬件。之后我们向Google平台团队提交了设计方案,由他们开发并生产出了第一代Tensor Processing Unit(TPU):一种旨在加速深度学习模型inference的单芯片ASIC。TPU诞生的这3年间,它在Google翻译、Google搜索、Google图片中有了十分成熟的应用,并作为关键硬件参加了AlphaGo和李世石、柯洁的“人机大战”。2017年6月,我们在ISCA 2017上发表了一篇论文,专门介绍它和当前同类型GPU、CPU产品的性能差异,指出第一代TPU的inference速度是其他产品的15—30倍,而它的性能功耗比也比它们高了30—80倍。

Cloud TPU Pod可以提供高达11.5 petaflops的浮点运算
使用的TPU越多,模型在ResNet-50上的训练加速越趋向于完美

加快inference速度是重要的,但提高模型整体训练速度更是重中之重,也是更艰难的。研究人员越早提出一个好想法,我们就离实现突破越进一步。2017年5月,我们在Google I/O上正式发布了能同时加快inference速度和整体训练速度的第二代TPU(定制ASIC芯片、电路板和互连),并展示了单个机器配置多个深度学习TPU的TPU pod运算阵列。这些设备将作为云TPU在Google云平台上向用户开放服务。我们还发布了TensorFlow研究云(TFRC),这是一个为顶级ML研究人员提供的项目,如果他们致力于与世界分享他们的工作成果,那他们就能免费获得1000块云TPU的使用权。同样的,在去年12月份,我们在ImageNet is the new MNIST中介绍了一个新案例:用TPU pod在22分钟内训练一个ResNet-50(ImageNet)模型。如果使用一般的硬件,这个过程可能要花上数天或更久,但TPU pod为我们节省了时间,同时训练出了准确率更高的模型。在我们看来,这种依靠硬件缩短研究周转时间的方法将为全球科研人员带去极大的便利,我们期待更多的工程师和研究人员在2018年使用TPU!

医疗保健

我们觉得机器学习技术在医疗保健领域有巨大的潜力。我们在这方面进行了大量不同类型的工作,包括帮助病理学家诊断癌症、帮助医生和患者记录问诊对话,以及用机器学习解决基因组学中的各种问题。2017年12月,我们发布了基因测序工具DeepVariant,利用深度学习大大提高了测序精度。

淋巴结活检,我们的算法能正确识别肿瘤和巨噬细胞

2016年12月,我们曾在美国医学协会杂志(JAMA)上发表了一篇研究论文,内容是糖尿病性视网膜病变(DR)和黄斑水肿的早期发现。2017年,我们把这个成果应用到实际的临床检测中,并与Verily(Alphabet的一家生命科学公司)合作,通过监管流程指导工作的进行,12月,Verily已经与尼康正式达成合作,将我们的机器学习解决方案部署到尼康Optos系列眼科相机产品中。

此外,我们也正在印度积极开展这项工作。那里的眼科医生缺口高达十二万七千名,因此许多患者无法得到及时有效的救治,几乎一大半人是等到视力丧失后才被医院确诊糖尿病的。作为试点的一部分,我们推出了这个系统,帮助Aravind眼科医院的医务人员能更好地诊断糖尿病眼病。我们还与合作伙伴合作,了解影响糖尿病眼部护理的人为因素,以此作为眼部护理临床医生与AI系统交互的一个重要数据。

医务人员在观察机器学习系统的诊断输出

我们还与包括斯坦福大学、UCSF和芝加哥大学在内的领先医疗机构、医疗中心的研究人员合作,探讨用机器学习有效预测未识别医疗记录并给出诊断结果的可能性(即基于数百万患者的临床症状预测当前患者所患疾病的未来演变趋势),这将有助于医疗工作者给出更准确的结论。我们对这项工作感到十分兴奋,并期待能在2018年有所成就。

机器人

我们在机器人这块的长期目标是建立一套完整算法,能让机器人在杂乱的、现实的环境中工作,并通过学习尽快学会多种技能,而无需精确控制条件变量,或人为地编写一些短期小任务。我们希望我们的实体机器人能汇总自己的经验和其他机器人的学习经验,以集群学习的方式开发新技能和新能力。为了达成这个目标,我们也在探索将模拟任务训练和实操体验结合在一起的方式,因为虽然网络模拟和现实环境有不小的区别,但研究表明,适当比例的模拟训练和现实训练会比单纯的长期、大量现实操作取得更好的结果。

除了开发让机器人完成任务的算法,我们也在开发机器人学习算法,通过让机器人模仿人类动作来达成目标,这是一种非常有前途的方式,它无需明确的编程,甚至也不需要明确的任务目标,就能在短期内教会机器人新技能。下面的视频就是我们的一个案例,我们让机器人从几个角度观察人类倾倒的动作并模仿学习,15分钟后,机器人达成了这样的效果。它的进步让我们觉得这是一个3岁的孩子,而更令我们兴奋的是,这还只是一小步。

(视频请前往公众号或原博观看)

去年11月,我们还共同组织并主办了第一届机器人学习会议(CoRL),把机器学习和机器人这两个交叉领域的研究人员聚集在了一起,我们记录了会议的综述,并期待2018年将在苏黎世举办的第二届会议。

基础科学

我们也对用机器学习解决科学中的一些长期的、重要的难题十分感兴趣。去年,我们利用神经网络预测了量子化学中的分子性质,与NASA合作通过天文数据集寻找到了新的系外天体,预测地震余震,并利用深度学习指导了自动化的证明系统。

神经网络预测分子性质
基于数据集发现新的系外天体

艺术

我们对如何用机器学习帮助人们进行艺术性创作十分感兴趣。去年,我们制作了一款在线钢琴玩具,能让用户体验和机器二重奏的感觉。YouTube音乐人Andrew Huang基于它创作了不少优秀音乐。我们也在教计算机如何画画

SketchRNN模型绘制的花园

我们还开发了一种在浏览器中用DNN制作音乐的工具Magenta,结合我们的在线加速器deeplearn.js,用户可以使用一些音乐领域的条件控制(高技术钢琴演奏、循环旋律和鼓点)来训练最先进的音乐生成模型。用Magenta训练的模型已连续两年获得“NIPS年最佳演示奖”。

PAIR倡议

机器学习的进步为人们如何与计算机交互提供了全新的可能性。同时,为了确保人类能从技术进步中真正获益,我们在去年7月与谷歌的众多人员合作发起了People + AI Research(PAIR)倡议。

PAIR的主要目标是进行基础研究,发明新技术,并创建有利于人造智能人性化的框架。我们启动了一个公共研讨会,并邀请了来自计算机科学、设计、甚至艺术等学科的学者和从业人员共同发声。PAIR的工作范围非常广泛,其中的一些内容我在之前已有介绍:通过简单直白的解释性工作帮助研究人员了解ML系统、用deeplearn.js扩展开发者社群。这里我再举一个能彰显“以人为本”原则的示例:Facets,这是一个机器学习数据可视化工具,在这里,所有数据作用原理都可以一目了然。

Facets

机器学习中的公平与包容

由于机器学习在技术上的作用越来越大,公平与包容的重要性也水涨船高。我们团队和PAIR一直在努力,希望能在这些领域取得进展。之前,我们已经在论文Avoiding Discrimination through Causal Reasoning中介绍了开源地区性数据集的意义,并在10亿幅画,让这个被调戏了一年的AI发现了一些人类的小秘密中以椅子为例介绍了各地区人们的不同认识。我们也开放一个全球性的数据集,来了解多样性和文化差异。我们和各个AI研究机构通力合作,这也是促进公平和包容和切实做法。

不同地区居民印象中的椅子会有不同角度

关于我们

(不打广告,不译)


原文地址1:research.googleblog.com/2018/01/the-google-brain-team-looking-back-on.html?m=1

原文地址2:research.googleblog.com/2018/01/the-google-brain-team-looking-back-on_12.html

公众号:论智(jqr_ai)

文章被以下专栏收录

    专注于人工智能新技术、新应用 【公众号:论智 (jqr_AI) 】