王志宇, 潘宇泽, 孙曜
命名实体识别是自然语言处理领域中的一个重要任务,然而在中文命名实体识别中,融入词汇信息的网格长短期记忆网络(Lattice Long Short-Term Memory Network,Lattice-LSTM)模型识别精度有限。针对该问题,提出了一种新模型。该模型通过来自Transformer的双向编码器表征(Bidirectional Encoder Representations from Transformers, Bert)模型完成数据集的预处理;再使用BiLattice-LSTM融合词级特征对中文文本进行双向语义编码,从而充分利用词中每个字的双向信息;接着利用多头注意力机制进行加权运算以更有效地提取句中深层语义信息;最后通过条件随机场(Conditional Random Field, CRF)对语义进行了解码。实验结果表明,该模型Bert-BiLattice-LSTM-MutAtt-CRF在微软亚洲研究院(Microsoft Research Asia, MSRA)数据集上F1值达到95.19%,在Resume数据集上F1值达到95.47%,相比基准模型Lattice-LSTM,F1值分别提升了2.93%和2.88%。