sigmod交叉熵

  Softmax转换

  Softmax交叉熵

  参考资料


 

sigmod交叉熵

Sigmod交叉熵实际就是我们所说的对数损失,它是针对二分类任务的损失函数,在神经网络中,一般输出层只有一个结点。

假设y为样本标签,_y为全连接网络的输出层的值,那么,这个对数损失定义为

深度学习面试题07:sigmod交叉熵、softmax交叉熵

PS:这个是可以用极大似然估计推导出来的

举例:

y=0,_y=0.8,那此时的sigmod交叉熵为1.171

深度学习面试题07:sigmod交叉熵、softmax交叉熵
import numpy as np
def sigmod(x):
    return 1/(1+np.exp(-x))
y=0
_y=0.8
-y*np.log(sigmod(_y))-(1-y)*np.log(1-sigmod(_y))
#_y-_y*y+np.log(1+np.exp(-_y))
深度学习面试题07:sigmod交叉熵、softmax交叉熵

相关文章:

  • 2021-05-17
  • 2021-05-16
  • 2022-12-23
  • 2021-12-31
  • 2022-12-23
  • 2021-06-02
  • 2021-12-15
  • 2021-06-24
猜你喜欢
  • 2022-12-23
  • 2022-01-18
  • 2022-12-23
  • 2021-07-21
  • 2022-01-23
  • 2021-06-04
相关资源
相似解决方案