《Chinese NER Using Lattice LSTM》2018年ACL论文

作用和动机

作用:用于中文的实体抽取
动机:避免分词不同带来的实体命名错误 和 以字为输入带来的词语内字之间的信息损失。
分词不同带来的实体命名不同的例子
南京市长江大桥
南京市//长江大桥
南京//市长//江大桥
南京市//长江//大桥

模型

《Chinese NER Using Lattice LSTM》
“以字输入的LSTM” 上整合 “以词输入的LSTM”
普通的LSTM,字输入的LSTM采用的方式就是这个
《Chinese NER Using Lattice LSTM》
word LSTM
《Chinese NER Using Lattice LSTM》
实际上也是一个LSTM,只不过没有输出门。

这样子引入问题:character cell LSTM有多个输入,怎么来求?
《Chinese NER Using Lattice LSTM》
这部分相当于softmax。α是权重。α怎么求?
《Chinese NER Using Lattice LSTM》
其中
《Chinese NER Using Lattice LSTM》

训练

**目的:**最大化如下公式
《Chinese NER Using Lattice LSTM》
损失函数
《Chinese NER Using Lattice LSTM》
超参设置《Chinese NER Using Lattice LSTM》

实验结果

《Chinese NER Using Lattice LSTM》

相关文章:

  • 2021-07-30
  • 2021-12-22
  • 2021-07-23
  • 2022-12-23
  • 2021-04-21
  • 2021-11-29
  • 2021-09-13
猜你喜欢
  • 2021-08-28
  • 2022-01-21
  • 2021-09-11
  • 2021-07-09
相关资源
相似解决方案