下图是本人亲笔画的示意图,忽略我不堪入目的字,内容最重要。一图看懂tf.nn.embedding_look函数内部运算过程

下图是在我看《Tensorflow实战》这本书的Tensorflow实现LSTM的语言模型这一节过程中画的,主要是结合此例,用wi表示单词,wi的向量表达方式我以自己的理解方式举得例子,比如w1为[1,0,0,...,0,0]; w2为[0,1,0,...,0,0]; w3为[0,0,1,...,0,0] 等等。

tf.nn.embedding_look(embedding, input_.input_data)函数主要含义就是input_data相当于词向量索引,在词汇表embedding中找出input_data中的单词的向量表达方式。

batch_size表示批大小;

num_steps表示迭代步数;

vocab_size表示词汇表中单词个数;

hidden_size表示LSTM隐藏层单元数;

embedding的列表示每个单词向量表达的维度,此例中设为和LSTM隐藏层单元数一致为hidden_size;


一图看懂tf.nn.embedding_look函数内部运算过程

相关文章:

  • 2021-06-19
  • 2022-02-08
  • 2021-12-08
  • 2021-06-24
  • 2021-09-25
  • 2022-01-10
  • 2021-05-28
  • 2021-05-27
猜你喜欢
  • 2021-08-23
  • 2022-12-23
  • 2021-05-01
  • 2022-12-23
  • 2021-10-22
  • 2021-11-30
  • 2022-12-23
相关资源
相似解决方案