PaperWeekly
首发于PaperWeekly
来不及想标题了,我要去打包收藏了 | 本周值得读

来不及想标题了,我要去打包收藏了 | 本周值得读

在碎片化阅读充斥眼球的时代,越来越少的人会去关注每篇论文背后的探索和思考。 在这个栏目里,你会快速 get 每篇精选论文的亮点和痛点,时刻紧跟 AI 前沿成果。 点击即刻加入社区,查看更多最新论文推荐。

Large Scaled Relation Extraction with Reinforcement Learning

@theodoric008 推荐

#Relation Extraction

本文是中科院自动化所发表于 AAAI 2018 的工作。论文提供了一种利用强化学习进行实体关系抽取的思路,近几年做 RE 的,有基于 Supervised 数据集的:2015 Xu CNN,2016 Zhou LSTM;有基于远程监督数据集的:2015 Zeng PCNN,2016 Lin PCNN + ATT 等等。

本文也是基于远程监督数据集,但是与前面提到的不同的是,本文模型可以对句子分类,而不仅仅对 Bag (Entity pair)

论文链接:paperweekly.site/papers

Demystifying Core Ranking in Pinterest Image Search

@Ttssxuan 推荐

#Content-based Image Retrieval

本文是 Pinterest 试验的图片检索算法,本文从:training data,user/image featurization 和 ranking models 等角度进行解读,并做了性能和质量方面的测试。

论文链接:paperweekly.site/papers

Group Normalization

@chlr1995 推荐

#Normalization

本文为 Kaiming He 新作。Batch-Norm 在深度学习中一直扮演着重要的角色,但 BN 也存在着明显的问题——需要足够大的 Batch Size,大大增加了训练的成本。本文提出了一种新的归一化——Group Norm 替代 BN,并且通过实验证明,在较小的 Batch Size 下,使用 GN 的网络最终得到的结果,要比使用BN的结果更好。

论文链接:paperweekly.site/papers

代码链接:github.com/shaohua0116/

CliCR: A Dataset of Clinical Case Reports for Machine Reading Comprehension

@paperweekly 推荐

#Machine Reading Comprehension

本文提出了一个医疗领域的机器理解数据集。该数据集基于大量临床病例报告,对病例进行了约100,000次间隙填充查询。

论文链接:paperweekly.site/papers

数据集链接:github.com/clips/clicr

Single-Shot Bidirectional Pyramid Networks for High-Quality Object Detection

@chlr1995 推荐

#Object Detection

虽然现在利用 DL 的方法在实体检测方面取得了显著的成果,但是这些方法往往都是面向低精度的检测,即设定 IoU 为 0.5 提取粗精度的候选框,这样就导致了精度低甚至会检测出噪声。

本文提出了一种双向金字塔网络结构,在不牺牲检测效率的情况下,达到高精度检测(如,IoU>0.5)。而且在实验中,COCO 和 Pascal 数据集都取得了 state-of-the-art 的结果。

论文链接:paperweekly.site/papers

Averaging Weights Leads to Wider Optima and Better Generalization

@paperweekly 推荐

#Deep Neural Networks

本文提出了一种简单的 DNN 训练方法 SWA,作为 SGD 的替代。SWA 具备更好的泛化能力、更快的收敛速度,并且几乎没有任何计算开销。

论文链接:paperweekly.site/papers

代码链接:github.com/timgaripov/s

Deep Semantic Role Labeling with Self-Attention

@robertdlut 推荐

#Self-Attention

本文来自 AAAI2018,厦门大学 Tan 等人的工作。他们将 Self-Attention 应用到了语义角色标注任务(SRL)上,并取得了先进的结果。这篇论文中,作者将 SRL 作为一个序列标注问题,使用 BIO 标签进行标注,然后提出使用深度注意力网络(Deep Attentional Neural Network)进行标注。

在每一个网络块中,有一个 RNN/CNN/FNN 子层和一个 Self-Attention 子层组成。最后直接利用 softmax 当成标签分类进行序列标注。

论文链接:paperweekly.site/papers

代码链接:github.com/XMUNLP/Tagge

YOLOv3: An Incremental Improvement

@chlr1995 推荐

#Object Detection

YOLO 网络 V3 版本,比 SSD 速度提升了 3 倍,比 RetinaNet 速度提高近 4 倍。本文使用 DarkNet 作为底层网络,通过优化模型细节,进一步加快了 YOLO 的速度

论文链接:paperweekly.site/papers

代码链接:pjreddie.com/darknet/yo

CapsuleGAN: Generative Adversarial Capsule Network

@williamking5 推荐

#GAN

本文将 Hinton 大神最新提出的胶囊网络 CapsNet 取代 CNN,作为判别器应用到了生成对抗网络当中。

论文链接:paperweekly.site/papers

Deep Matrix Factorization Models for Recommender Systems

@somtian 推荐

#Recommender System

本文在利用深度学习做推荐时,考虑了推荐的显式反馈和隐式反馈,将其融合构建成一个矩阵,从而将用户和产品的不同向量输入到两个并行的深层网络中去。最后,设计了一种新型的损失函数以同时考虑评分和交互两种不同类型的反馈数据。

论文链接:paperweekly.site/papers

Deep Learning using Rectified Linear Units (ReLU)

@chlr1995 推荐

#Gated Recurrent Unit

在深度神经网络中,ReLU 往往被用作激活函数,而使用 softmax 作为分类器。本文受到近来使用其他分类器方法启发,尝试了使用 ReLU 作为 DNN 的分类器

论文链接:paperweekly.site/papers

#作 者 招 募#

让你的文字被很多很多人看到,喜欢我们不如加入我们


本文由 AI 学术社区 PaperWeekly 精选推荐,社区目前已覆盖自然语言处理、计算机视觉、人工智能、机器学习、数据挖掘和信息检索等研究方向,点击即刻加入社区


关于PaperWeekly

PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。

微信公众号:PaperWeekly

新浪微博:@PaperWeekly

文章被以下专栏收录

    PaperWeekly是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。