1、综述:Recent Advances in Neural Question Generation-2019地址
2、其他论文:
Paragraph-level Neural Question Generation with Maxout Pointer and Gated Self-attention Networks-2018
任务为输入段落和答案,输出生成问题

主要处理了在问题生成(Question Generation,QG)中,长文本(多为段落)在seq2seq模型中表现不佳的问题。长文本在生成高质量问题方面不可或缺。

问题:在问题生成(Question Generation,QG)中,长文本(多为段落)在seq2seq模型中表现不佳。段落和答案编码 双向RNN来进行encode,

针对文章级的问题生成效果一直不佳,本文基于Seq2Seq设计了gated self-attention和Maxout Pointer两个机制来提升文章级的问题生成效果,并首次超越了句子级的问题生成。

方法:本文主要提出了一个改进的seq2seq模型,加入了maxout pointer机制和gated self-attention encoder。在之后的研究中可以通过加入更多feature或者policy gradient等强化学习的方式提升模型性能。
编码阶段:
将词向量和这个词是否在answer中两个向量拼接起来作为答案标记。
门控自注意力机制主要解决以下问题:聚合段落信息嵌入(embed)段落内部的依赖关系,在每一时间步中优化P和A的嵌入表示。
段落和答案编码双向RNN来进行encode。用300维glove词向量+answer tag。输入双向LSTM 编码
2、解码阶段
用Attention得到一个新的decoder state;
Copy/pointer+ maxout指针机制在所有指标上都优于基本复制机制。
问题生成(question-generation)论文汇总

相关文章:

  • 2022-12-23
  • 2021-12-04
  • 2021-06-20
  • 2021-10-07
  • 2022-12-23
  • 2021-08-18
  • 2021-11-27
猜你喜欢
  • 2021-05-24
  • 2021-09-27
  • 2021-06-29
  • 2021-07-14
  • 2021-12-16
  • 2022-12-23
  • 2022-02-24
相关资源
相似解决方案