TDNN模型示例

TDNN拼帧:

8层:(0,3)

7层:(-9,0)

6层:(0,3)

5层:(-6,0)

4层:(0,3)

3层:(-3,0)

2层:(0,3)

1层:(-3,0)

   

输出依赖

要在输出层处输出第1帧,各层需要的帧的时间索引如下:

8层:1,4

7层:-9,-6,1,4

6层:-9,-6,1,4,7

5层:-15,-12,-9,-6,-3,1,4,7

4层:-15,-12,-9,-6,-3,1,4,7,10

3层:-18,-15,-12,-9,-6,-3,1,4,7,10

2层:-18,-15,-12,-9,-6,-3,1,4,7,10,13

1层:-21,-18,-15,-12,-9,-6,-3,1,4,7,10,13

   

Chain TDNN/LSTM的拼帧索引、延时

Chain TDNN/LSTM的拼帧索引、延时

   

要在输出层处输出第2帧,各层需要的帧的时间索引如下:

9层:2,5

...

2层:-20,-17,-14,-11,-8,-5,-2,2,5,8,11,14

   

要在输出层处输出第3帧,各层需要的帧的时间索引如下:

9层:3,6

...

2层:-19,-16,-13,-10,-7,-4,-1,3,6,9,11,15

要在输出层处输出第4帧,各层需要的帧的时间索引如下:

9层:4,7

...

2层:-18,-15,-12,-9,-6,-3,1,4,7,10,13,16

   

TDNN的拼帧索引

Chain TDNN/LSTM的拼帧索引、延时

   

第一层不需要受到此限制

Chain TDNN/LSTM的拼帧索引、延时

9层:(0,3)

8层:(-9,0)

7层:(0,3)

6层:(-6,0)

5层:(0,3)

4层:(-3,0)

3层:(0,3)

2层:(-3,0)

1层:(-2,-1,0,1,2)

   

LSTM的延时

TDNN类似,单向LSTM依赖于历史信息,双向LSTMBLSTM)依赖于历史信息与未来信息

信息包括 记忆(Cell)与输出(Recurrent

   

默认情况下,对于长度为T帧的语句,在t时刻:

LSTM依赖于

t时刻上一层的输出

Chain TDNN/LSTM的拼帧索引、延时

BLSTM依赖于

t时刻上一层的输出

Chain TDNN/LSTM的拼帧索引、延时

Chain TDNN/LSTM的拼帧索引、延时

那么,在t-1时刻:

LSTM依赖于

t-1时刻上一层的输出

Chain TDNN/LSTM的拼帧索引、延时

BLSTM依赖于

t-1时刻上一层的输出

Chain TDNN/LSTM的拼帧索引、延时

Chain TDNN/LSTM的拼帧索引、延时

依此类推:

LSTM将依赖于所有的历史信息

BLSTM将依赖于所有的信息(历史信息+未来信息)

也就是说,所有帧(T帧)都需要进行LSTM计算

相关文章:

  • 2021-09-23
  • 2021-12-18
  • 2022-12-23
  • 2021-08-24
  • 2021-10-13
  • 2022-12-23
  • 2022-01-29
  • 2021-12-29
猜你喜欢
  • 2022-12-23
  • 2021-05-10
  • 2021-05-01
  • 2021-08-30
  • 2022-12-23
  • 2022-12-23
相关资源
相似解决方案