小白深度学习之路~
Deep Learning 一些概念
逻辑回归(Logistic Regression)
以线性回归为理论支撑,但LR通过sigmoid函数引入非线性因素,可轻松处理(0or1)分类。
逻辑回归解决二分类问题,用于某种事物的可能性,例如某病人患病的可能性,并非是数学上的“概率”,
逻辑回归假设因变量y服从伯努利分布。
-
sigmoid函数/逻辑函数
g ( z ) = 1 1 + e − z g(z)=\frac{1}{1+e^{-z}} g(z)=1+e−z1 -
逻辑回归的假设函数形式
h θ ( x ) = g ( θ T x ) h_{\theta}(x)=g({\theta^T}x) hθ(x)=g(θTx)
即
h θ ( x ) = 1 1 + e − θ T x h_{\theta}(x)=\frac{1}{1+e^{-{\theta^Tx}}} hθ(x)=1+e−θTx1
-
LR所做的假设
在给定x和 θ \theta θ的条件下, y = 1 y=1 y=1的概率
P ( y = 1 ∣ x ; θ ) = g ( θ T x ) = 1 1 + e − θ T x P(y=1|x;{\theta})=g({\theta^T}x)=\frac{1}{1+e^{-{\theta^Tx}}} P(y=1∣x;θ)=g(θTx)=1+e−θTx1
与之对应的决策函数为
y ∗ = 1 y^*=1 y∗=1
i f P ( y = 1 ∣ x ) > 0.5 if P(y=1|x)>0.5 ifP(y=1∣x)>0.5 在此将0.5作为阈值
记住sigmoid函数哦~之后好多算法会遇到,比如说反向传播等
朴素贝叶斯
朴素贝叶斯是用来解决“逆向概率”。
比如说,在一个箱子中,有5个黑球,5个白球,从箱子中抽取一个,则抽到白球的概率为二分之一。而逆向概率则是不知道箱子中黑球和白球的数量,通过已抽取的球的颜色和数量来判断抽取的球的概率。
用来解决没有太多可靠数据的情况下,怎样做出更符合数学逻辑的推测。
感知机
详见添加链接描述
反向传播
详见添加链接描述
累了…下次将以pytorch为框架学习深度学习~