目录

前言

GRU复习

LSTM的基本版本

LSTM的常用版本


前言

LSTM(long short term memory)翻译为长短时记忆网络,甚至是一种比GRU(门控循环单元)更有效的方法,让模型在序列中学习非常深的连接。

GRU复习

LSTM长短时记忆网络 (吴恩达老师_学习笔记)

对于GRU,LSTM长短时记忆网络 (吴恩达老师_学习笔记)

更新门Γuthe update gate

相关门Γrthe relevance gate

LSTM长短时记忆网络 (吴恩达老师_学习笔记) 是代替记忆细胞的候选值,然后使用更新门Γu 来决定是否要用LSTM长短时记忆网络 (吴恩达老师_学习笔记)  更新LSTM长短时记忆网络 (吴恩达老师_学习笔记)

LSTM的基本版本

注意了,这里不再有LSTM长短时记忆网络 (吴恩达老师_学习笔记)的情形,现在专门使用LSTM长短时记忆网络 (吴恩达老师_学习笔记) 或者LSTM长短时记忆网络 (吴恩达老师_学习笔记) ,而不是用LSTM长短时记忆网络 (吴恩达老师_学习笔记) ,我们也不用相关门LSTM长短时记忆网络 (吴恩达老师_学习笔记)

LSTM长短时记忆网络 (吴恩达老师_学习笔记)

典型的LSTM设置了三个门,都是通过**函数sigmoid实现的,叫门是因为sigmoid大部分都是非常接近1或者0。

三个门分别是更新门Γu(update)、遗忘门Γf(forget)、输出门Γo(output)

LSTM长短时记忆网络 (吴恩达老师_学习笔记)

很多个LSTM单元连接起来就构成了LSTM网络,中间传输的值有两个(之前只有一个值),分别是a<t>, c<t>。LSTM长短时记忆网络 (吴恩达老师_学习笔记)

红线表明只要合理地设置了遗忘门和更新门,LSTM是相当容易把LSTM长短时记忆网络 (吴恩达老师_学习笔记) 的值一直往下传递到右边,比如LSTM长短时记忆网络 (吴恩达老师_学习笔记),这也是为什么LSTMGRU非常擅长于长时间记忆某个值。

LSTM的常用版本

LSTM长短时记忆网络 (吴恩达老师_学习笔记)

目前更常用的一个版本是加上了窥视孔连接(peephole connection),即三个门值不仅取决于LSTM长短时记忆网络 (吴恩达老师_学习笔记)LSTM长短时记忆网络 (吴恩达老师_学习笔记) ,同时还受LSTM长短时记忆网络 (吴恩达老师_学习笔记) 的值影响(可以理解偷窥了一下LSTM长短时记忆网络 (吴恩达老师_学习笔记))。

一个技术细节:假如有一个100维的向量,那么第50个LSTM长短时记忆网络 (吴恩达老师_学习笔记) 的元素只会影响第50个元素对应的那个门,关系是一对一的,

值得一提的是,LSTM的早期版本发明在1997年,但是这两年才开始流行用起来。

相关文章:

  • 2022-12-23
  • 2021-05-29
  • 2021-05-29
  • 2021-10-14
  • 2021-05-23
  • 2021-05-31
  • 2021-08-17
猜你喜欢
  • 2021-10-27
  • 2022-01-13
  • 2021-06-28
  • 2021-09-27
  • 2021-11-29
相关资源
相似解决方案