算是NLU和DST的结合。因为NLU只注意ut的slot和intent,而DST关注value的追踪(一般paper中slot是已经给定)。
1)Contextual Slot Carryover for Disparate Schemas
2)Improving Long Distance Slot Carryover in Spoken Dialogue Systems
要解决的问题:context的slot带到ut的slot集合来。
方法:构建一个candidate set,从中抽取一个子集。
收获:slot-carryover是一个可以单独拿出来讨论的问题。slot在远距离context也是有可能传到现在ut的。slot之间的joint distribtion值得学习。
18年是逐个元素进行判断,输入有(history,ut)attention,intent,slot,输入concat,使用MLP网络然后一个binary分类。
19年是采用
pointer网络(候选集排成一个序列,seq2seq方式,decode过程中(h+context+intent)作为query计算encode中每一个注意力分数,得到attned_encode_output,decode方式就是普通的lstm)
self-attention,就是编码以后的slot候选之间进行自注意力,应该是关系密切+context相关的更靠近,然后(slot_i+context+intent)通过MLP网络binary分类。

slot-carryover学习
slot-carryover学习
解码方式:
1)pointer network
slot-carryover学习
2)self attention

slot-carryover学习

相关文章: