自己实现了softmax_cross_entropy_with_logits函数的功能,算是复习下softmax和cross_entropy

tensorflow中softmax_cross_entropy_with_logits函数的实现

更新:—————————————————

tf中实现了softmax_cross_entropy_with_logits和sparse_softmax_cross_entropy_with_logits,今天看代码看到用sparse的,在此总结下两者的异同。

两者主要在输入参数(labels)的格式不同:
softmax_cross_entropy_with_logits中logits是[batch,num_classes]
labels是[batch,num_classes]
也就是说labels是各个类别的概率

而sparse_softmax_cross_entropy_with_logits在lables上不一样,labels的输入数[batch,1],也就是说唯一指定所属类别

相关文章:

  • 2022-12-23
  • 2021-11-29
  • 2021-06-24
  • 2022-02-06
  • 2022-12-23
  • 2022-12-23
  • 2021-12-05
  • 2022-12-23
猜你喜欢
  • 2022-12-23
  • 2022-01-13
  • 2022-12-23
  • 2021-05-31
  • 2021-08-25
  • 2021-11-20
  • 2022-02-09
相关资源
相似解决方案