相较于RNN,LSTM只是改变了隐含层中神经元在不同时刻的传播机制
LSTM中隐层神经元的传播机制
将隐层某个神经元看成一个cell, 这个cell有3个输入,上一个时刻的隐层某神经元的保留状态Ct1,上一个时刻的隐层某神经元输出的传递信息ht1, 当前时刻的样本Xt, 该cell由3个gate(forget, input, output)控制。

一、通过忘记门决定从cell中丢失什么信息:

ft=sigmoid(Wfhht1+WfxXt+bf)

二、 通过输入门决定什么样的新信息被存放在cell中:

决定什么值将要更新:
it=sigmoid(Wihht1+WixXt+bi)

创建新的候选值向量:
Ct˜=tanh(Wchht1+WcxXt+bc)

确定更新信息:
Ct=ftCt1+itCt˜

三、通过输出门决定输出什么:

决定哪个部分将被输出:
ot=sigmoid(Wohht1+WoxXt+bo)

确定输出部分:
ht=ottanh(Ct)

本文参考资料http://www.open-open.com/lib/view/open1440843534638.html

相关文章:

  • 2021-10-27
  • 2021-08-08
  • 2021-11-25
  • 2022-01-10
  • 2021-05-03
  • 2021-10-04
  • 2021-07-12
  • 2021-08-06
猜你喜欢
  • 2022-12-23
  • 2021-10-27
  • 2021-08-03
  • 2021-09-10
  • 2021-09-26
  • 2021-08-10
  • 2022-02-06
相关资源
相似解决方案