本文继续分享一篇深度增强学习在NLP中应用的paper,题目是Deep Reinforcement Learning with a Natural Language Action Space,作者是来自微软的Ji He博士,文章最早于2015年11月发在arxiv上,2016年6月8号update。

通过前两篇文章的介绍,基本对DQN在NLP中应用有了一个清晰的认识,与DQN之前应用不同的地方在于两个方面:

1、actions的量级很大。

2、transition tuple的具体形式随着模型来变化。

本文也是以text games为研究背景,将输入从state变为(state,action)对,提出了Deep Reinforcement Relevant Network(DRRN)模型。

Deep Reinforcement Learning with a Natural Language Action Space

上图中,前两个是baseline模型,第三个是本文模型,理解起来都比较简单。

(a) Max-action DQN

该模型适用于每一个transition中actions的最大数量是已知的情况,将每个transition中state和actions拼接成一个向量作为输入,通过一个Deep Network得到每个action的Q值。

(b) Per-action DQN

该模型将每一对(state,action)拼接成一个向量作为输入,通过network得到每个action的Q值。

(c) DRRN

本文模型分别将每对(state,action)中的state和action单独构建network,分别学习出不同的表示,然后用一种逐元素操作方法得到Q值,比如对两个向量作内积。这里,state往往是一个比较长的文本,可能是几句话,而action一般来说是一个动词短语,通过不同的网络结构进行学习,得到相同维度的表示,然后做内积,内积就是相似度的一种表征,也就是本文模型中的relevant。

其实,对比着看不同DRL paper,只需要仔细对比看算法流程图,就知道哪些地方不同了,本文的如下图:

Deep Reinforcement Learning with a Natural Language Action Space

本文算法中还有一个不同的地方在于,在策略选择上的trade-off,一般的方法均采用ε-greedy策略,本文用了一种softmax selection的方法来做exploration(对应着ε)策略,根据下面计算出的概率来进行选择:

Deep Reinforcement Learning with a Natural Language Action Space

本文模型最大的优点在于可以处理比较复杂的action,不像Language Understanding for Text-based Games using Deep Reinforcement Learning文章中只能处理一个action word加一个object word组成的command。

本文考虑问题的角度不同,不是传统RL给定一个state,然后通过一个最优的Q来确定一个最优的action,而是将state和action放在一个层面上来做计算,虽然最后也是通过最优的Q来选择action,但通过用action和state的相关性来计算Q,使得其具有更广的应用前景。

这是DQN在NLP中应用系列的最后一篇文章,文章数量比较少,所以不写综述了。整体的感觉是,应用还不太多,也没有看到特别惊艳的表现。不过,可以无穷无尽地构造训练用的样本是一个非常大的优点。三篇文章有两篇是研究text games的,只有一篇是做text generation的,并且DQN的痕迹很重,都是依着同一个框架进行修改和适应,并没有很多特别的地方。很期待,后面的研究可以将Deep Reinforcement Learning在NLP的各个任务中进行应用,像seq2seq+attention模型那样横扫整个NLP任务。


来源:paperweekly


原文链接

相关文章:

  • 2021-09-08
  • 2021-06-18
  • 2021-12-23
  • 2021-05-30
  • 2021-07-17
  • 2022-01-05
  • 2021-09-07
猜你喜欢
  • 2021-06-29
  • 2021-12-15
  • 2021-12-04
  • 2021-05-09
  • 2021-12-15
  • 2021-08-31
  • 2021-12-26
相关资源
相似解决方案