一、介绍

1.1 什么是LSTM和BILSTM?

LSTM的全称是Long Short-Term Memory,它是RNN(Recurrent Neural Network)的一种。LSTM由于其设计的特点,非常适合用于对时序数据的建模,如文本数据。BiLSTM是Bi-directional Long Short-Term Memory的缩写,是由前向LSTM与后向LSTM组合而成。两者在自然语言处理任务中都常被用来建模上下文信息。

1.2 为什么使用LSTM与BILSTM?

将词的表示组合成句子的表示,可以采用相加的方法,即将所有词的表示进行加和,或者取平均等方法,但是这些方法没有考虑到词语在句子中前后顺序。如句子“我不觉得他好”。“不”字是对后面“好”的否定,即该句子的情感极性是贬义。使用LSTM模型可以更好的捕捉到较长距离的依赖关系。因为LSTM通过训练过程可以学到记忆哪些信息和遗忘哪些信息。

但是利用LSTM对句子进行建模还存在一个问题:无法编码从后到前的信息。在更细粒度的分类时,如对于强程度的褒义、弱程度的褒义、中性、弱程度的贬义、强程度的贬义的五分类任务需要注意情感词、程度词、否定词之间的交互。举一个例子,“这个餐厅脏得不行,没有隔壁好”,这里的“不行”是对“脏”的程度的一种修饰,通过BiLSTM可以更好的捕捉双向的语义依赖。

二、BILSTM原理简介

2.1 LSTM介绍

2.1.1 总体框架

LSTM模型是由tt时刻的输入词XtX_{t},细胞状态CtC_{t},临时细胞状态Ct~\widetilde{^{C_{t}}},隐层状态hth_{t},遗忘门ftf_{t},记忆门iti_{t},输出门oto_{t}组成。LSTM的计算过程可以概括为,通过对细胞状态中信息遗忘和记忆新的信息使得对后续时刻计算有用的信息得以传递,而无用的信息被丢弃,并在每个时间步都会输出隐层状态hth_{t},其中遗忘,记忆与输出由通过上个时刻的隐层状态ht1h_{t-1}和当前输入计算出来的遗忘门ftf_{t},记忆门iti_{t},输出门oto_{t}来控制。

总体框架如图1所示。

BILSTM原理介绍

2.1.2 详细介绍计算过程

计算遗忘门,选择要遗忘的信息。
输入:前一时刻的隐层状态ht1h_{t-1},当前时刻的输入词 XtX_{t}
输出:遗忘门的值ftf_{t}
BILSTM原理介绍
计算记忆门,选择要记忆的信息。
输入:前一时刻的隐层状态ht1h_{t-1},当前时刻的输入词 XtX_{t}
输出:记忆门的值iti_{t},临时细胞状态Ct~\widetilde{^{C_{t}}}
BILSTM原理介绍
计算当前时刻细胞状态
输入:记忆门的值iti_{t},遗忘门的值ftf_{t},临时细胞状态Ct~\widetilde{^{C_{t}}},上一刻细胞状态Ct1C_{t-1}
输出:当前时刻细胞状态CtC_{t}
BILSTM原理介绍
计算输出门和当前时刻隐层状态
输入:前一时刻的隐层状态ht1h_{t-1},当前时刻的输入词 XtX_{t},当前时刻细胞状态CtC_{t}
输出:输出门的值oto_{t},隐层状态hth_{t}
BILSTM原理介绍
最终,我们可以得到与句子长度相同的隐层状态序列{h0h_{0},h1h_{1} , …, hn1h_{n-1}}。

2.2 BILSTM介绍

前向的LSTM与后向的LSTM结合成BiLSTM。比如,我们对“我爱中国”这句话进行编码,模型如图6所示。
BILSTM原理介绍
前向的LSTMLLSTM_{L}依次输入“我”,“爱”,“中国”得到三个向量{hL0h_{L0}, hL1h_{L1}, hL2h_{L2}}。后向的LSTMRLSTM_{R}依次输入“中国”,“爱”,“我”得到三个向量{hR0h_{R0}, hR1h_{R1}, hR2h_{R2}}。最后将前向和后向的隐向量进行拼接得到{[hL0h_{L0}, hR2h_{R2} ], [hL1h_{L1}, hR1h_{R1}], [hL2h_{L2}, hR0h_{R0}]},即{hL0h_{L0}, hL1h_{L1}, hL2h_{L2}}。
对于情感分类任务来说,我们采用的句子的表示往往是[hL2h_{L2}, hR2h_{R2}]。因为其包含了前向与后向的所有信息,如图7所示
BILSTM原理介绍

相关文章:

  • 2021-09-25
  • 2021-05-24
  • 2021-05-22
  • 2021-05-27
  • 2021-08-01
  • 2021-12-19
  • 2021-12-31
  • 2021-09-14
猜你喜欢
  • 2022-12-23
  • 2021-06-06
  • 2022-12-23
  • 2022-01-20
  • 2021-11-30
  • 2021-05-30
  • 2021-08-23
相关资源
相似解决方案