1、正则化的线性回归

线性回归模型的代价函数J(θ)J(\theta)一般采用均方误差,即:
12m[i=1m(hθ(x(i))y(i))2]\frac{1}{2m}[\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})^{2}]
而正则化的线性回归就是在线性回归的代价函数中加入正则项,所以其代价函数J(θ)J(\theta)变为:
12m[i=1m(hθ(x(i))y(i))2+j=1nθj2]\frac{1}{2m}[\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})^{2} +\sum_{j=1}^{n}\theta_{j}^{2}]
当代价函数发生改变时,其最优参数的求解会发生什么样的改变呢?我们知道线性规划模型求解最优参数有两种方法,一种是梯度下降,另一种是正规方程法,接下来我们看看这两种方法的改变。
机器学习基础 - [第四章:正则化](3)线性回归的正则化

2、梯度下降法求解正则化的线性回归

未正则化的线性回归模型的梯度下降法的参数更新的公式:
θ0:=θ0α1mi=1m(hθ(x(i))y(i)))x0(i)\theta_{0}:=\theta_{0}-\alpha\frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)}))x_{0}^{(i)} θj:=θjα1mi=1m(hθ(x(i))y(i)))xj(i)\theta_{j}:=\theta_{j}-\alpha\frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)}))x_{j}^{(i)}
正则化的线性回归模型的梯度下降法的参数更新公式:
θ0:=θ0α1mi=1m(hθ(x(i))y(i))))x0(i)\theta_{0}:=\theta_{0}-\alpha\frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)})))x_{0}^{(i)} θj:=θjα1m[i=1m(hθ(x(i))y(i)))xj(i)+λθj]θj:=(1αλm)θjα1mi=1m(hθ(x(i))y(i)))xj(i)\theta_{j}:=\theta_{j}-\alpha\frac{1}{m}[\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)}))x_{j}^{(i)}+\lambda\theta_{j}]\\ \Rightarrow\theta_{j}:=(1-\alpha\frac{\lambda}{m})\theta_{j}-\alpha\frac{1}{m}\sum_{i=1}^{m}(h_{\theta}(x^{(i)})-y^{(i)}))x_{j}^{(i)}
从上面可以看出,θ0\theta_{0}的更新式子不变,而θj\theta_{j}是在原有更新公式的基础上,先将更新前的θj\theta_{j}缩小(1αλm)(1-\alpha\frac{\lambda}{m})倍,然后再进行更新。
机器学习基础 - [第四章:正则化](3)线性回归的正则化

3、正规方程法求解正则化的线性回归

未正则化的线性回归模型的使用正规方程求解参数的结果:
θ=(XTX)1XTy\theta=(X^{T}X)^{-1}X^{T}y
正则化的线性回归模型的使用正规方程求解参数的结果:
θ=(XTX+λ[00101])1XTy\theta=(X^{T}X+\lambda\left[\begin{matrix}0 &\cdots &0\\ \vdots &1&\vdots\\0&\cdots&1\end{matrix}\right])^{-1}X^{T}y
机器学习基础 - [第四章:正则化](3)线性回归的正则化
我们知道,在使用正规方程法求解的时候,可能会遇到XTXX^{T}X不可逆的情况,但是如果是求解正则化的,就可以避免不可逆的情况:
机器学习基础 - [第四章:正则化](3)线性回归的正则化

相关文章:

  • 2021-10-17
  • 2021-06-06
  • 2022-12-23
  • 2021-11-24
  • 2021-09-28
  • 2021-09-25
  • 2021-10-19
猜你喜欢
  • 2021-12-26
  • 2021-05-08
  • 2021-10-19
  • 2021-11-06
  • 2021-09-06
  • 2022-02-10
  • 2021-04-01
相关资源
相似解决方案