要先将字编码成向量

机器学习自动写诗-学习笔记

 

要对之前的信息有记忆

机器学习自动写诗-学习笔记

机器学习自动写诗-学习笔记

相同的输入,写诗,可能有不同的输出。

机器学习自动写诗-学习笔记

可以发现,输入不止与当前输入有关,还和之前的输入有关。要有记忆!

将隐藏层的激活值利用

 

机器学习自动写诗-学习笔记

机器学习自动写诗-学习笔记

机器学习自动写诗-学习笔记

机器学习自动写诗-学习笔记

机器学习自动写诗-学习笔记

机器学习自动写诗-学习笔记

a0=0,初始值=0

机器学习自动写诗-学习笔记

机器学习自动写诗-学习笔记

上次输入的不同,记忆值不同,使得现在相同的输入可以得到不同的输出。


 

缺点:梯度爆炸和梯度消失

机器学习自动写诗-学习笔记

记忆值不断相乘累加。w^n

梯度爆炸和梯度消失:wn(w>1和w<1)。

w'=w-a*Δ

机器学习自动写诗-学习笔记

 

需要一个模型,能够记忆久远输入和近期遗忘。


 

LSTM::long short-term memory长短期记忆网络

加入输入门、输出门和遗忘门。使用sigmod函数。

sigmod函数:0-1之间。中点0.5

 机器学习自动写诗-学习笔记

LSTM:

机器学习自动写诗-学习笔记

f:遗忘门,forget gate

 

 

循环神经网络分类概述:

many to many:

  • 有多少输入,就多少输出
  • 输入输出数目不等

机器学习自动写诗-学习笔记

many to one

机器学习自动写诗-学习笔记

 

情感分析,差评还是好评。

one to many

看图说话,写诗就是这个模型。

机器学习自动写诗-学习笔记

 

双向循环网络:

不止和之前输入有关,还和之后的输入相关。

机器学习自动写诗-学习笔记

 

深度循环神经网络:

很多隐藏层

机器学习自动写诗-学习笔记

 作诗用的是lstm:只输入第一个字,一个一个输出接着作诗。

 机器学习自动写诗-学习笔记

机器学习自动写诗-学习笔记

 

 L1+L2+...+Ln

再求梯度。

 

代码:

机器学习自动写诗-学习笔记

机器学习自动写诗-学习笔记

 机器学习自动写诗-学习笔记

机器学习自动写诗-学习笔记

机器学习自动写诗-学习笔记

机器学习自动写诗-学习笔记

机器学习自动写诗-学习笔记

 

相关文章:

  • 2021-09-03
  • 2021-10-07
  • 2021-10-04
  • 2021-08-06
  • 2022-12-23
猜你喜欢
  • 2022-02-18
  • 2021-06-07
  • 2021-05-06
  • 2021-11-30
  • 2021-11-30
  • 2021-11-30
  • 2021-06-22
相关资源
相似解决方案