Deep Learning 一些概念

逻辑回归(Logistic Regression)

以线性回归为理论支撑,但LR通过sigmoid函数引入非线性因素,可轻松处理(0or1)分类。
逻辑回归解决二分类问题,用于某种事物的可能性,例如某病人患病的可能性,并非是数学上的“概率”,
逻辑回归假设因变量y服从伯努利分布。

  1. sigmoid函数/逻辑函数
    g ( z ) = 1 1 + e − z g(z)=\frac{1}{1+e^{-z}} g(z)=1+ez1
    深度学习九九八十一难第一回

  2. 逻辑回归的假设函数形式

    h θ ( x ) = g ( θ T x ) h_{\theta}(x)=g({\theta^T}x) hθ(x)=g(θTx)

    h θ ( x ) = 1 1 + e − θ T x h_{\theta}(x)=\frac{1}{1+e^{-{\theta^Tx}}} hθ(x)=1+eθTx1

  3. LR所做的假设

    在给定x和 θ \theta θ的条件下, y = 1 y=1 y=1的概率
    P ( y = 1 ∣ x ; θ ) = g ( θ T x ) = 1 1 + e − θ T x P(y=1|x;{\theta})=g({\theta^T}x)=\frac{1}{1+e^{-{\theta^Tx}}} P(y=1x;θ)=g(θTx)=1+eθTx1
    与之对应的决策函数为
    y ∗ = 1 y^*=1 y=1
    i f P ( y = 1 ∣ x ) > 0.5 if P(y=1|x)>0.5 ifP(y=1x)>0.5 在此将0.5作为阈值

记住sigmoid函数哦~之后好多算法会遇到,比如说反向传播等

朴素贝叶斯

朴素贝叶斯是用来解决“逆向概率”。
比如说,在一个箱子中,有5个黑球,5个白球,从箱子中抽取一个,则抽到白球的概率为二分之一。而逆向概率则是不知道箱子中黑球和白球的数量,通过已抽取的球的颜色和数量来判断抽取的球的概率。
用来解决没有太多可靠数据的情况下,怎样做出更符合数学逻辑的推测。

感知机

详见添加链接描述

反向传播

详见添加链接描述

累了…下次将以pytorch为框架学习深度学习~

相关文章: