一、

LSTM+CNN+ATTENTION(QA)

四个模型

LSTM+CNN+ATTENTION(QA)
LSTM+CNN+ATTENTION(QA)
LSTM+CNN+ATTENTION(QA)

注意力:

LSTM+CNN+ATTENTION(QA)

实验

数据集:InsuranceQA
LSTM+CNN+ATTENTION(QA)

二、

LSTM+CNN+ATTENTION(QA)

LSTM+CNN+ATTENTION(QA)

三个变化:

1.LSTM只用输入们
2.提出对比五个比较函数(图右边5个)
3.最后一层加Cnn

实验

1 https://github.com/shuohangwang/SeqMatchSeq

LSTM+CNN+ATTENTION(QA)

三、

LSTM+CNN+ATTENTION(QA)
变化:
嵌入层用预训练语言模型代替(ELMo)
+ATTENTION
LSTM+CNN+ATTENTION(QA)

+聚类
LSTM+CNN+ATTENTION(QA)

+迁移学习
LSTM+CNN+ATTENTION(QA)

实验

LSTM+CNN+ATTENTION(QA)

相关文章:

  • 2021-11-25
  • 2021-05-09
  • 2020-03-27
  • 2022-12-23
  • 2018-10-11
  • 2021-07-26
  • 2021-07-28
猜你喜欢
  • 2020-03-28
  • 2021-09-11
  • 2021-08-31
  • 2022-12-23
  • 2021-10-16
  • 2021-09-14
  • 2021-06-16
相关资源
相似解决方案