PaperWeekly
首发于PaperWeekly
直播实录 | 非自回归神经机器翻译 + ICLR 2018 论文解读

直播实录 | 非自回归神经机器翻译 + ICLR 2018 论文解读

本文为 3 月 9 日,香港大学博士生——顾佳涛博士在第 24 期 PhD Talk 中的直播分享实录。

在本期 PhD Talk 中,来自香港大学的博士生顾佳涛,向大家介绍了他们在加速神经机器翻译(NMT)方向的一些进展。

本次 Talk 分为三部分:

第一部分以 Google Brain 的 Transformer 为基础,嘉宾简要介绍了一些神经机器翻译的基本知识、主要进展和局限

第二部分是这期的主要内容,嘉宾以第一作者身份,为大家详细介绍了他们最近在 ICLR 2018 上发表的文章 Non-autoregressive Neural Machine Translation。本文尝试用非自回归的方式改造 Transformer,在性能下降不多的情况下实现 10 倍左右的解码速度。

最后,作为 brainstorming,嘉宾和大家一起探讨了对于非自回归解码几个已经实现或者可能的研究方向和应用

■ 论文 | Non-Autoregressive Neural Machine Translation

■ 链接 | paperweekly.site/papers

■ 作者 | Jiatao Gu, James Bradbury, Caiming Xiong, Victor O.K. Li, Richard Socher

>>>> 获取完整PPT和视频

关注“PaperWeekly”微信公众号,回复“20180309”获取下载链接。



点击以下标题查看往期实录:


腾讯AI Lab涂兆鹏:如何提升神经网络翻译的忠实度

微软亚洲研究院论文解读:GAN在网络特征学习中的应用

微软亚洲研究院吴俣:基于动态词表的对话生成研究

基于生成模型的事件流研究 + NIPS 2017 论文解读

亚马逊高级应用科学家熊元骏:人类行为理解研究进展

清华大学冯珺:基于强化学习的关系抽取和文本分类

基于双语主题模型的跨语言层次分类体系匹配

*查看更多往期实录,请点击PaperWeekly公众号底部精品栏目菜单。


本文由 AI 学术社区 PaperWeekly 精选推荐,社区目前已覆盖自然语言处理、计算机视觉、人工智能、机器学习、数据挖掘和信息检索等研究方向,点击即刻加入社区

我是彩蛋

解锁新姿势:用微信刷论文!

PaperWeekly小程序上线啦

今日arXiv√猜你喜欢√热门资源√

随时紧跟最新最热论文

解锁方式

1. 扫描下方小程序码打开小程序

2. 用PaperWeekly社区账号进行登陆

3. 登陆后即可解锁所有功能

关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

微信公众号:PaperWeekly

新浪微博:@PaperWeekly

编辑于 2018-03-13

文章被以下专栏收录

    PaperWeekly是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。