任务描述:给定对话发生相关背景,然后再对话中回复相关问题,这个回复是生成式的(如问“Joe是男孩还是女孩?”,参考依据是两句话“他看起来像一个棍棒手,所以她把他留了下来”和“她给这个新的面条伙伴取名为Joe”,所以答案是“男孩”)。每一轮对话都有一个问题和答案。所以这既是一个问答任务,也是一个阅读理解任务,更是一个对话任务。

这里主要以Reddy等人在2018年发表的一篇论文为例,来介绍会话式问答的相关思想和方法。

直接看文中的一个例子更直观理解这个任务是什么。

CH2-NLG应用之【问答式对话系统】

  对话以问题Q1Q_{1}开始,我们不仅给出了回答A1A_{1}还根据背景给出了答案的理由R1R_{1}.在这个例子中,回答仅给出Governor,但是可以看到这是从 The Virginia governor’s race. 这个长句中得到的。

  我们再看第二个问题Q2Q_{2}(Where?),我们必须根据上下文和历史会话来回答这个问题,就是说想要回答QnQ_{n},需要依赖Q1,A1,...,Qn1,An1Q_{1},A_{1},...,Q_{n-1},A_{n-1}。所以我们考虑了Q1,A1Q_{1},A_{1},然后参考R2R_{2} 来给出一个回答A2A_{2}。如果出现回答不了的问题,我们会给出一个unknown的回答,这时就不会给出参考依据了。

  从这个例子中可以看到,随着对话的进行,谈话的中心也是在发生变化的(图中不同颜色标出)。在Q4Q_{4}中使用his来指代Terry,而在Q5Q_{5}中,则用he来指代Ken

当然,有的问题需要通读整个背景,参考若干句子给出一个答案(如下图中的Q1,Q4,Q5Q_{1},Q_{4},Q_{5}),这种情况下该怎么处理呢?

CH2-NLG应用之【问答式对话系统】

作者抽取了150个问题,并将其分成几类,如下图所示:

CH2-NLG应用之【问答式对话系统】

  • 词汇匹配(lexical match) :一个问题至少包含一个对话背景中出现了的词
  • 释义(paraphrasing) :一个问题不满足“词汇匹配”的条件,但是是参考依据的一部分。这类问题通常包含同义词、反义词、超义词、下位词和否定词,数量占比非常大。
  • 语用学(pragmatics):上两个条件都不满足的问题,则归到“语用学”,表示的对是语言及其使用语境关系的研究。这类问题通常用常识或者一些推理假设就可以给出答案。比如面对“他是不是又吵又闹?”的问题和“他走路时像猫一样优雅温柔”的参考依据,就可以回答这个问题了。

StanfordNLP已经开源了相关的数据集和代码,地址链接

相关文章:

  • 2021-07-01
  • 2021-09-03
  • 2021-10-11
  • 2021-12-04
  • 2021-06-11
  • 2021-09-05
  • 2021-05-16
  • 2021-08-02
猜你喜欢
  • 2021-10-20
  • 2022-01-05
  • 2021-12-30
  • 2021-06-11
  • 2021-11-29
  • 2022-12-23
  • 2021-06-29
相关资源
相似解决方案