论文《Global-Locally Self-Attentive Encoder for Dialogue State Tracking》
论文Sequicity: Simplifying Task-oriented Dialogue Systems with Single
Sequence-to-Sequence Architectures


第一篇
对话系统论文集(20)-阅读state tracking笔记
输入是:XRn×dembX ∈ R^{n×d_{emb}}n是一句话的单词个数
输出是:
模型框架:global LSTM+local LSTM ->global attn + local attn
global是slot之间
local是slot自己的value信息

生成的是state的信息,与要产生的action没有关系。


第二篇
先生成B(就是槽值对),
然后生成回复(KB结果结合之前的生成)使用encoder-decoder
数据集不是dstc2

相关文章:

  • 2021-09-10
  • 2021-10-12
  • 2022-01-02
  • 2021-06-22
  • 2021-12-21
  • 2021-09-17
猜你喜欢
  • 2021-08-17
  • 2021-10-17
  • 2021-06-17
  • 2021-07-04
  • 2021-04-12
  • 2021-04-07
  • 2021-11-11
相关资源
相似解决方案