1、正则化的线性回归
线性回归模型的代价函数J(θ)一般采用均方误差,即:
2m1[i=1∑m(hθ(x(i))−y(i))2]
而正则化的线性回归就是在线性回归的代价函数中加入正则项,所以其代价函数J(θ)变为:
2m1[i=1∑m(hθ(x(i))−y(i))2+j=1∑nθj2]
当代价函数发生改变时,其最优参数的求解会发生什么样的改变呢?我们知道线性规划模型求解最优参数有两种方法,一种是梯度下降,另一种是正规方程法,接下来我们看看这两种方法的改变。
线性回归的正则化 机器学习基础 - [第四章:正则化](3)线性回归的正则化](/default/index/img?u=L2RlZmF1bHQvaW5kZXgvaW1nP3U9YUhSMGNITTZMeTl3YVdGdWMyaGxiaTVqYjIwdmFXMWhaMlZ6THpNeE5TODFaV1l3TnpNNE5UYzFNekJoTkRNME16SmhNV1kzTWpZME1XSTFabUV5TXk1d2JtYz0=)
2、梯度下降法求解正则化的线性回归
未正则化的线性回归模型的梯度下降法的参数更新的公式:
θ0:=θ0−αm1i=1∑m(hθ(x(i))−y(i)))x0(i) θj:=θj−αm1i=1∑m(hθ(x(i))−y(i)))xj(i)
正则化的线性回归模型的梯度下降法的参数更新公式:
θ0:=θ0−αm1i=1∑m(hθ(x(i))−y(i))))x0(i) θj:=θj−αm1[i=1∑m(hθ(x(i))−y(i)))xj(i)+λθj]⇒θj:=(1−αmλ)θj−αm1i=1∑m(hθ(x(i))−y(i)))xj(i)
从上面可以看出,θ0的更新式子不变,而θj是在原有更新公式的基础上,先将更新前的θj缩小(1−αmλ)倍,然后再进行更新。
线性回归的正则化 机器学习基础 - [第四章:正则化](3)线性回归的正则化](/default/index/img?u=L2RlZmF1bHQvaW5kZXgvaW1nP3U9YUhSMGNITTZMeTl3YVdGdWMyaGxiaTVqYjIwdmFXMWhaMlZ6THpjNE5DOHpZMlkwT0daaE9ESXlOelpqT1dJM1pUazFZakpsTmpFeVltUTVZemN5TUM1d2JtYz0=)
3、正规方程法求解正则化的线性回归
未正则化的线性回归模型的使用正规方程求解参数的结果:
θ=(XTX)−1XTy
正则化的线性回归模型的使用正规方程求解参数的结果:
θ=(XTX+λ⎣⎢⎡0⋮0⋯1⋯0⋮1⎦⎥⎤)−1XTy
线性回归的正则化 机器学习基础 - [第四章:正则化](3)线性回归的正则化](/default/index/img?u=L2RlZmF1bHQvaW5kZXgvaW1nP3U9YUhSMGNITTZMeTl3YVdGdWMyaGxiaTVqYjIwdmFXMWhaMlZ6THpjM055ODRaRE0yWW1NNU56VXpNRGRsTkdGa01qbGpNemMzTTJSaE9HUTFNV05pTVM1d2JtYz0=)
我们知道,在使用正规方程法求解的时候,可能会遇到XTX不可逆的情况,但是如果是求解正则化的,就可以避免不可逆的情况:
线性回归的正则化 机器学习基础 - [第四章:正则化](3)线性回归的正则化](/default/index/img?u=L2RlZmF1bHQvaW5kZXgvaW1nP3U9YUhSMGNITTZMeTl3YVdGdWMyaGxiaTVqYjIwdmFXMWhaMlZ6THpjM0x6QmpaVFZpTjJGa1pEYzRaRFExTW1JM05HTTVZV0V4Tldaa05ESTFZVGRrTG5CdVp3PT0=)