计算过程

人工智能实践:Tensorflow笔记17:LSTM
讲的非常好:

我再复述:

三个门限,当前时刻的xt,上个时刻的ht-1的函数。w,b为待训练的参数。都经过sigmoid**函数,使得范围都在0-1之间,主要用于下面的公式。

然后是一个非常形象的过程:

以学习1-45页ppt为例,当前正在学习第45页的ppt,

1.长期记忆:长期记忆由过去学习的和当前学习的组成,在该例子中,过去的学习指的是,学习的1-44页ppt,现在的学习指的是,现在学习的第45页的ppt。

2.过去的学习你不可能全部记住,因此要乘以遗忘门f。

3.现在的学习是输入门乘以学习到的新知识。学到的新知识由什么表示呢?应该刚刚学习的44页的ppt和正在学习的45页的ppt综合得出的。

4.学到的1-45页的ppt,你想把它讲给同学,但你不能原分不动的讲出,你需要做的是从长期记忆中选择出来一部分讲,长期记忆的一部分乘以输出门,就是选出来的短期记忆啦!

--------------------------------------------------

选出来的短期记忆就是上面的ht,如果有多层是,第一层输出的ht就是第二层输入的xt。

---------------------------------------------------

用tf来实现:

人工智能实践:Tensorflow笔记17:LSTM

相关文章:

  • 2021-11-27
  • 2021-08-20
  • 2021-03-25
  • 2022-01-17
  • 2021-08-16
  • 2021-12-03
  • 2021-11-30
猜你喜欢
  • 2022-01-22
  • 2021-09-09
  • 2022-01-02
  • 2021-05-07
  • 2021-09-14
  • 2021-10-16
  • 2021-10-20
  • 2021-11-20
相关资源
相似解决方案