首发于高能NLP
工业界如何解决NER问题?12个trick,与你分享~

工业界如何解决NER问题?12个trick,与你分享~

本文首发于公众号「夕小瑶的卖萌屋」

作者: @JayLou娄杰 @夕小瑶
声明:本文立场只代表笔者个人立场,仅供参考、不要盲目搬运啊~

NER是一个已经解决了的问题吗?或许,一切才刚刚开始。

例如,面对下面笔者在工作中遇到的12个关于NER的系列问题,你有什么好的trick呢?不着急,让我们通过本篇文章,逐一解答~

Q1、如何快速有效地提升NER性能(非模型迭代)?
Q2、如何在模型层面提升NER性能?
Q3、如何构建引入词汇信息(词向量)的NER?
Q4、如何解决NER实体span过长的问题?
Q5、如何客观看待BERT在NER中的作用?
Q6、如何冷启动NER任务?
Q7、如何有效解决低资源NER问题?
Q8、如何缓解NER标注数据的噪声问题?
Q9、如何克服NER中的类别不平衡问题?
Q10、如何对NER任务进行领域迁移?
Q11、如何让NER系统变得“透明”且健壮?
Q12、如何解决低耗时场景下的NER任务?

工业界中的NER问题为什么不易解决?

众所周知,命名实体识别(Named Entity Recognition,NER)是一项基础而又重要的NLP任务,往往作为信息抽取、问答对话、机器翻译等方向的或显式或隐式的基础任务。或许在很多人眼里,NER似乎只是一个书本概念,跟句法分析一样存在感不强。

究其缘由:一方面是因为深度学习在NLP领域遍地开花,使得智能问答等曾经复杂的NLP任务,变得可以端到端学习,于是分词、词性分析、NER、句法分析等曾经的显式任务都隐式地编码到了大型神经网络的参数中;另一方面,深度学习流行之后,NER问题相比之前有了比较长足的进步,LSTM+CRF的模式基本成为业内标配,很多人认为“这个事情应该差不多了”。

但是,现实真的如此吗?在工业界解决NER任务的NLPer,往往发现事情远没有这样简单。

在真实的工业界场景中,通常面临标注成本昂贵泛化迁移能力不足可解释性不强计算资源受限等问题,想要将NER完美落(bian)地(xian)可不简单,那些在经典benchmark上自称做到SOTA的方法放在现实场景中往往“也就那样”。以医疗领域为例:

  1. 不同医院、不同疾病、不同科室的文本描述形式不一致,而标注成本又很昂贵,一个通用的NER系统往往不具备“想象中”的泛化迁移能力。当前的NER技术在医疗领域并不适合做成泛化的工具
  2. 由于医疗领域的严肃性,我们既要知其然、更要知其所以然:NER系统往往不能采用“一竿子插到底”的黑箱算法,处理过程应该随着处理对象的层次和深度而逐步叠加模块,下级模块使用上级结果,方便进行迭代优化、并具备可解释性,这样做可解耦医学事件、也便于进行医学实体消歧。
  3. 仅仅使用统计模型的NER系统往往不是万能的,医疗领域相关的实体词典和特征挖掘对NER性能也起着关键作用。此外,NER结果往往不能直接使用,还需进行医学术语标准化。
  4. 由于医院数据不可出院,需要在院内部署NER系统。而通常医院内部的GPU计算资源又不是很充足(成本问题),我们需要让机器学习模型又轻又快(BERT上不动哇),同时要更充分的利用显存。

以上种种困难,导致了工业界场景求解NER问题不再那么容易,不是一个想当然的事情。

做NER的几条教训(趟过的坑)

下面给出笔者在医疗领域做NER的经验教训(趟过的坑):

1、提升NER性能(performance)的⽅式往往不是直接堆砌⼀个BERT+CRF,这样做不仅效果不一定会好,推断速度也非常堪忧。就算BERT效果还不错,付出的代价也是惨重的。

就算直接使用BERT+CRF进行finetune,BERT和CRF层的学习率也不要设成一样,让CRF层学习率要更大一些(一般是BERT的5~10倍),要让CRF层快速收敛。

2、在NER任务上,也不要试图对BERT进⾏蒸馏压缩,很可能吃⼒不讨好。

哈哈,也许废了半天劲去蒸馏,效果下降到还不如1层lstm+crf,推断速度还是慢~

3、NER任务是⼀个重底层的任务,上层模型再深、性能提升往往也是有限的(甚至是下降的)。

不要盲目搭建很深的网络,也不要痴迷于各种attention了。

4、NER任务不同的解码方式(CRF/指针网络/Biaffine[1])之间的差异其实也是有限的,不要过分拘泥于解码⽅式。

5、通过QA阅读理解的方式进行NER任务,效果也许会提升,但计算复杂度上来了,你需要对同⼀⽂本进行多次编码(对同⼀文本会构造多个question)。

6、设计NER任务时,尽量不要引入嵌套实体,不好做,这往往是一个长尾问题。

7、不要直接拿Transformer做NER,这是不合适的,详细可参考TENER[2]

工业界中NER问题的正确打开⽅式是怎样的?12个trick逐一剖析

笔者首先给出一个非常直接的打开方式:1层lstm+crf!

从模型层面看,你也许会问:为什么非是1层lstm+crf?1层lstm+crf不能解决业务问题怎么办?遇到更为复杂的场景该怎么办?不着急,且听我慢慢道来。

让我们回到一开始列出的那12个问题,并逐一解答:

Q1、如何快速有效地提升NER性能?

如果1层lstm+crf,这么直接的打开方式导致NER性能达不到业务目标,这一点也不意外(这是万里长征的第一步~)。这时候除了badcase分析,不要忘记一个快速提升的重要手段:规则+领域词典

  • 在垂直领域,一个不断积累、不断完善的实体词典对NER性能的提升是稳健的,基于规则+词典也可以快速应急处理一些badcase;
  • 对于通⽤领域,可以多种分词工具和多种句法短语⼯具进行融合来提取候选实体,并结合词典进行NER。

此外,怎么更好地将实体词典融入到NER模型中,也是一个值得探索的问题(如嵌入到图神经网络中提取特征[3])。

Q2、如何在模型层面提升NER性能?

如果想在模型层面(仍然是1层lstm+crf)搞点事情,上文讲过NER是一个重底层的任务,1层lstm足以很好捕捉NER任务中的方向信息和局部特征了。

我们应该集中精力在embedding层下功夫,那就是引入丰富的特征:比如char、bigram、词典特征、词性特征、elmo等等,还有更多业务相关的特征;在垂直领域,如果可以预训练一个领域相关的字向量&语言模型,那是最好不过的了。

总之,底层的特征越丰富、差异化越大越好。我们需要构造不同视角下的特征。

Q3、如何构建引入词汇信息(词向量)的NER?

将词向量引入到模型中,一种简单粗暴的做法就是将词向量对齐到相应的字符,然后将字词向量进行混合,但这需要对原始文本进行分词(存在误差),性能提升通常是有限的。

我们知道中文NER通常是基于字符进行标注的,这是由于基于词汇标注存在分词误差问题。但词汇边界对于实体边界是很有用的,我们该怎么把蕴藏词汇信息的词向量“恰当”地引入到模型中呢?

一种行之有效的方法就是信息无损的、引入词汇信息的NER方法,我称之为词汇增强,具体可参考专栏文章《中文NER的正确打开方式:词汇增强方法总结》。

ACL2020的Simple-Lexicon[4]和FLAT[5]两篇论文,不仅词汇增强模型十分轻量、而且可以比肩BERT的效果。

Q4、如何解决NER实体span过长的问题?

如果NER任务中某一类实体span比较长(⽐如医疗NER中的⼿术名称是很长的),直接采取CRF解码可能会导致很多连续的实体span断裂。除了加入规则进行修正外,这时候也可尝试引入指针网络+CRF构建多任务学习解决。

指针网络会更容易捕捉较长的span,不过指针网络的收敛是较慢的,可以对CRF和指针网络设置不同学习率,或者设置不同的loss权重。

Q5、如何客观看待BERT在NER中的作用?

对于工业场景中的绝大部分NLP问题(特别是垂直领域),都没有必要堆资源。但这绝不代表BERT是“一无是处”的,在不受计算资源限制、通用领域、小样本的场景下,BERT表现会更好。我们要更好地去利用BERT的优势:

  • 在低耗时场景中,BERT可以作为一个“对标竞品”,我们可以采取轻量化的多种策略组合去逼近甚至超越BERT的性能;
  • 在垂直领域应用BERT时,我们首先确认领域内的语料与BERT原始的预训练语料之间是否存在gap,如果这个gap越大,那么我们就不要停止预训练:继续在领域内进行预训练,继续在具体任务上进行预训练。
  • 在小样本条件下,利用BERT可以更好帮助我们解决低资源问题:比如基于BERT等预训练模型的文本增强技术[6],又比如与主动学习、半监督学习、领域自适应结合(后续详细介绍)。
  • 在竞赛任务中,BERT很有用!我们可以选取不同的预训练语⾔模型在底层进行特征拼接。具体地,可以将char、bigram和BERT、XLNet等一起拼接喂入1层lstm+crf中。语⾔模型的差异越⼤,效果越好。如果需要对语言模型finetune,需要设置不同的学习率。

Q6、如何冷启动NER任务?

如果⾯临的是⼀个冷启动的NER任务,业务问题定义好后,首先要做的就是维护好一个领域词典,而不是急忙去标数据、跑模型;当基于规则+词典的NER系统不能够满足业务需求时,才需要启动人工标注数据、构造机器学习模型。

当然,我们可以采取一些省成本的标注方式,如结合领域化的预训练语言模型+主动学习,挖掘那些“不确定性高”、并且“具备代表性”的高价值样本。

需要注意的是,由于NER通常转化为一个序列标注任务,不同于传统的分类任务,我们需要设计一个专门针对序列标注的主动学习框架。

Q7、如何有效解决低资源NER问题?

如果拿到的NER标注数据还是不够,又不想标注人员介入,这确实是一个比较困难的问题。

低资源NLP问题的解决方法通常都针对分类任务,这相对容易一些,如可以采取文本增强、半监督学习等方式,可参考专栏文章《标注样本少怎么办?「文本增强+半监督学习」总结 》。

上述解决低资源NLP问题的方法,往往在NER中提升并不明显。NER本质是基于token的分类任务,其对噪声极其敏感的。如果盲目应用弱监督方法去解决低资源NER问题,可能会导致全局性的性能下降,甚至还不如直接基于词典的NER。

这里给出一些可以尝试的解决思路(笔者个人建议,也许还会翻车啊):

  • 上文已介绍BERT在低资源条件下能更好地发挥作用:我们可以使用BERT(领域预训练的BERT)进行数据蒸馏(半监督学习+置信度选择),同时利用实体词典辅助标注。
  • 还可以利用实体词典+BERT相结合,进行半监督自训练,具体可参考文献[7]
  • 工业界毕竟不是搞学术,要想更好地解决低资源NER问题,RD在必要时还是要干预、并进行核查的。

Q8、如何缓解NER标注数据的噪声问题?

实际工作中,我们常常会遇到NER数据可能存在标注质量问题,也许是标注规范就不合理(一定要提前评估风险,不然就白干了),当然,正常的情况下只是存在一些小规模的噪声。

一种简单地有效的方式就是对训练集进行交叉验证,然后人工去清洗这些“脏数据”。当然也可以将noisy label learning应用于NER任务,惩罚那些噪音大的样本loss权重,具体可参考文献[8]

专栏之前还介绍了一篇通过置信学习框架来寻找错误标注的文章《标注数据存在错误怎么办?》,不过只使用置信学习框架只适用于分类任务,如何应用于NER任务,需要进一步探索。

Q9、如何克服NER中的类别不平衡问题?

NER任务中,常常会出现某个类别下的实体个数稀少的问题,而常规的解决方法无外乎是重采样、loss惩罚、Dice loss[9]等等。而在医疗NER中,我们常常会发现这类实体本身就是一个长尾实体(填充率低),如果能挖掘相关规则模板、构建词典库也许会比模型更加鲁棒。

Q10、如何对NER任务进行领域迁移?

在医疗领域,我们希望NER模型能够在不同医院、不同疾病间进行更好地泛化迁移(这是一个领域自适应问题:源域标注数据多,目标域标注数据较少),领域自适应针对NER的相关研究不多,通常是对抗迁移[10]或特征迁移[11]

在具体实践中,对抗&特征迁移通常还不如直接采取finetune方式(对源域进行预训练,在目标域finetune),特别是在后BERT时代。

此外,在医疗领域,泛化迁移问题并不是一个容易解决的问题,试图去将NER做成一个泛化工具往往是困难的。或许我们更应该从业务角度出发去将NER任务定制化,而不是拘泥于那些无法落地的前沿技术。

Q11、如何让NER系统变得“透明”且健壮?

一个好的NER系统并不是“一竿子插到底”的黑箱算法。在医疗领域,实体类型众多,我们往往需要构建一套多层级、多粒度、多策略的NER系统。 例如:

  • 多层级的NER系统更加“透明”,可以回溯实体的来源(利于医学实体消歧),方便“可插拔”地迭代优化;同时也不需要构建数目众多的实体类型,让模型“吃不消”。
  • 多粒度的NER系统可以提高准召。如,第⼀步抽取⽐较粗粒度的实体,通过模型+规则+词典等多策略保证⾼召回;第⼆步进⾏细粒度的实体分类,通过模型+规则保证⾼准确。

Q12、如何解决低耗时场景下的NER任务?

笔者经验,重点应放在工程层面,而不是模型层面的压缩:

因为,从模型层面来看,1层lstm+CRF已经够快了

    • 如果觉得lstm会慢,换成cnn或transformer也许更快一些,不过效果好不好要具体分析;通常来说,lstm对于NER任务的⽅向性和局部特征捕捉会好于别的编码器。
    • 如果觉得crf的解码速度慢,引入label attention机制把crf拿掉,比如LAN这篇论文[12];当然可以⽤指针网络替换crf,不过指针网络收敛慢⼀些。
    • 如果想进行模型压缩,比如对lstm+crf做量化剪枝也是⼀个需要权衡的⼯作,有可能费力不讨好~
lstm+crf已经够小了,对小模型进行压缩往往不如对大模型压缩更加健壮[13]

从模型+工程层面来看,重点应放在如何在多层级的NER系统中进行显存调度、或者使当前层级的显存占用最大化等。

总结

综上:

  • 我们要在1层lstm+CRF的基础上,引入更丰富的embedding特征,并进行多策略组合,这大概率可以解决垂直领域的NER问题。
  • 我们要更好地利用BERT、使其价值最大化。BERT虽好,可不要过度信任啊~
  • 我们要更加稳妥地解决复杂NER问题(词汇增强、冷启动、低资源、噪声、不平衡、领域迁移、可解释、低耗时),这是一个需要权衡的过程,切记不要盲目追前沿,很多脏活累活还是要干一干的。

可以看出,哪怕是命名实体识别,中文分词甚至文本分类这些看似已经在公开数据集上被求解的任务,放在实际的工业界场景下都可能存在大量的挑战。

此外,对于复杂场景的NER问题,值得借鉴的学术前沿也不够多。很多泛机器学习知识大多集中在CV领域,在NLP领域更多的是转化为一个分类任务去解决。从这个角度看,NER不是一个像分类任务那样简单的问题

这也是提醒还未踏入工业界的小伙伴们,不仅要刷paper追前沿,更要记得积极实践,在实际问题中积累NLP炼丹技巧哦。

更多交流

由于二维码容易被知乎hexie~,请在公众号「夕小瑶的卖萌屋」后台回复关键词【入群】,一起加入知识图谱与信息抽取讨论群吧~

还可以加入领域大群(自然语言处理、搜索技术、推荐系统、算法岗求职等)或其他垂类讨论群~

获取更多「信息抽取」相关的信息,可关注DeepIE
DeepIE介绍:github.com/loujie0822/D,基于深度学习的信息抽取技术集散地,欢迎大家关注,包含实体、关系、属性、事件、链接&标准化等。

参考

  1. ^Named Entity Recognition as Dependency Parsing https://arxiv.org/pdf/2005.07150.pdf
  2. ^TENER: Adapting Transformer Encoder for Named Entity Recognitio https://arxiv.org/pdf/1911.04474.pdf
  3. ^A Neural Multi-digraph Model for Chinese NER with Gazetteers http://www.statnlp.org/research/ta/ruixue-acl19-ner.pdf
  4. ^Simplify the Usage of Lexicon in Chinese NER https://arxiv.org/pdf/1908.05969.pdf
  5. ^FLAT: Chinese NER Using Flat-Lattice Transformer https://arxiv.org/pdf/2004.11795.pdf
  6. ^Data Augmentation using Pre-trained Transformer Models https://arxiv.org/pdf/2003.02245.pdf
  7. ^Better Modeling of Incomplete Annotations for Named Entity Recognition http://www.statnlp.org/research/ie/zhanming19naacl-ner.pdf
  8. ^CrossWeigh: Training Named Entity Tagger from Imperfect Annotations https://arxiv.org/pdf/1909.01441.pdf
  9. ^Dice Loss for Data-imbalanced NLP Tasks https://arxiv.org/pdf/1911.02855.pdf
  10. ^Adversarial Transfer Learning for Chinese Named Entity Recognition with Self-Attention Mechanism
  11. ^Label-aware Double Transfer Learning for Cross-Specialty Medical Named Entity Recognition
  12. ^Hierarchically-Refined Label Attention Network for Sequence Labeling https://www.aclweb.org/anthology/D19-1422.pdf
  13. ^Train Large, Then Compress: Rethinking Model Size for Efficient Training and Inference of Transformers https://arxiv.org/pdf/2002.11794
编辑于 07-05

文章被以下专栏收录