关于 sigmoid 函数的公式是这样的, σ ( x ) = 1 1 + e − x \sigma(x) = \frac{1}{1+e^{-x}} σ(x)=1+ex1
在这里x是一个实数,来理下这个逻辑:
如果x非常大那么 e − x e^{-x} ex将会接近于 0,关于????的 sigmoid 函数将会近似等于 1 除 以 1 加上某个非常接近于 0 的项,所以如果x很大的话那么关于????的 sigmoid 函数会非常接近 1。
相反地,如果x非常小,那么关于 e − x e^{-x} ex这项会变成一个很大的数,你可以认为这是 1 除以 1 加上一个非常非常大的数,所以这个就接近于 0。实际上你看到当x变成一个绝对值很大的负数,关于????的 sigmoid 函数就会非常接近于 0。
下图是 f ( x ) = e − x f(x)=e^{-x} f(x)=ex的图像方便大家想象。
深度学习 **函数sigmoid

因此当你实现逻辑回归时,你的工作就是去让机器学习参数????以及????这样才使得 y ^ \hat y y^成为对???? = 1这一情况的概率的一个很好的估计。
【小结】sigmoid函数的功能是相当于把一个实数压缩至0到1之间

相关文章: