监督学习
回归问题(预测连续型数据)
分类问题(预测离散型数据)
线性回归
预测函数:h(x) = θ0+xθ1
减小误差即使误差函数J(θ)=2m1i=0∑n(h(θ)i+yi)2 最小。
m代表训练集数据地数量
举例说明:


梯度下降法
找出现在位置下降最快地方向
θj:=θj−α∂θj∂J(θ0,θ1)
α是学习率,即下降的步长
:=代表的是赋值地意思
θ0:=θ0−α∂θ0∂J(θ0,θ1)
这个方法的缺点是只能获取局部最优点。
但是线性回归的梯度下降法只有全局最优解。
矩阵向量乘法
hθ(x)=−40+0.25x
⎣⎢⎢⎡210414161534852⎦⎥⎥⎤×[−400.25]
多功能(多变量)
hθ(x)=θ0+θ1x1+θ2x2+……
x=⎣⎢⎢⎢⎢⎡x0x1x2……xn⎦⎥⎥⎥⎥⎤θ=⎣⎢⎢⎢⎢⎡θ0θ1θ2……θn⎦⎥⎥⎥⎥⎤
h0(x)=θTx
梯度下降
θj:=θj−αm1i=1∑m(hθ(x)i−yi)xji
变量x需要归一化
x=cov(x)x−E(x)
这样可以使−1≤xi≤1
特别注意不要使步长α太大,不然损失函数无法收敛
α最好取值:0.001,0.003,0.01,0.03,0.1,0.3,1……