学LSTM必看连接
初学LSTM,一定要看此LSTM详解
重点内容提取
其中每个cell包含四个权重层,注意那个粉色的tanh不包含权重,仅仅表示**函数,内部权重计算见链接。总结一下:假设输入维度为m,隐层维度为n,则可以计算出LSTM的总参数为:
Params = 4(n2+mn+n),最后一个n代表对应的bias。
GRU
GRU上面链接也有提到,了解了LSTM。看GRU就比较简单了,内部结构如图:
总结
其实对于LSTM或者GRU,我们只需要宏观上了解其原理就了,对于每个门的机制的描述只是便于人的理解,实际上整个结构的效果是由每个神经元对应的权重计算所得,最好被解释为对搜索的一组约束,而不是一种工程意义上的设计,对于实际会用就行了,不必硬生生理解每个门的作用。只需要记LSTM 单元的作用:允许过去的信息稍后重新进入,从而解决梯度消失问题。