biwangwang
  • 双向RNN可以让某一单元的输出不仅可以考虑之前的信息,也可以考虑后面时间步的信息。前向传播分为从左向右,从右向左两部分,这样,隐藏层神经元会产生两个激活值,均对输出有影响。
  • 对很多NLP问题,双向带有LSTM的RNN用的最多。缺点是必须获取整个序列才能获得输出。
  • 如果要学习复杂的函数,需要将更多层堆叠起来构建更深的模型。a[l]<t>,l表示l层,t表示时间步。
  • 一般在垂直方向三层以后不再水平连接。尽管看起来没有多少循环层,但是需要大量的时间训练。

分类:

技术点:

相关文章:

  • 2022-01-08
  • 2021-12-19
  • 2021-11-27
  • 2021-12-04
  • 2021-11-12
  • 2021-12-26
  • 2020-02-15
  • 2021-08-10
猜你喜欢
  • 2021-11-30
  • 2021-05-14
  • 2021-11-05
  • 2021-04-14
  • 2021-05-13
  • 2021-10-16
相关资源
相似解决方案