5. Transformer-TTS: Neural Speech Synthesis with Transformer Network

文章于2019年1月发表

Transformer-TTS: Neural Speech Synthesis with Transformer Network阅读笔记

Transformer-TTS可以看做Tacotron2+transformer的组合,作者认为优点主要为:

  1. 通过移除RNN结构实现并行训练,因为解码器的输入序列的帧可以并行地提供。
  2. 第二种是self-attention可以将整个序列的全局上下文映射到每个输入帧中,直接构建远程依赖关系。

主要步骤和改进:

  1. text-to-phoneme,输入为phoneme;

  2. Encoder Pre-net: 有Embedding层和三层卷积层组成;

  3. Scaled Positional Encoding: 增加可训练参数αα,使之能够自适应地适应编码器和解码器prenets输出的大小;
    Transformer-TTS: Neural Speech Synthesis with Transformer Network阅读笔记

  4. Transformer Encoder和Decoder,参照[Attention Is All You Need](# 4. Attention Is All You Need);

  5. Decoder Pre-net: 两个全连接层;

  6. 保留Stop Token;

相比Tacotron2,训练速度提高三四倍。

MOS值对比:

Transformer-TTS: Neural Speech Synthesis with Transformer Network阅读笔记

相关文章:

  • 2021-09-09
  • 2021-11-07
  • 2021-07-18
  • 2021-12-24
  • 2021-12-03
  • 2021-06-29
  • 2022-03-09
  • 2021-07-22
猜你喜欢
  • 2021-04-16
  • 2021-07-10
  • 2022-02-01
  • 2021-11-16
  • 2022-02-13
  • 2021-05-21
  • 2021-11-23
相关资源
相似解决方案