线性回归的推导

说道线性回归看到这篇博文的大家可能还不了解什么叫做回归?
什么是回归呢?
回归,指的是研究一组随机变量(Y1 ,Y2 ,…,Yi)和另一组(X1,X2,…,Xk)变量之间关系的统计分析方法。
通常Y1,Y2,…,Yi是因变量,X1、X2,…,Xk是自变量。


那么我们知道什么是回归了,在理解线性回归就不是太难了。
顾名思义,线性回归,它带有线性说明它是连续的
下面我们将用两种思路来推导线性回归

  • 矩阵运算
  • 梯度下降

线性回归矩阵求导推导

θ=(xTX)1XTy\theta = (x^TX)^{-1}X^Ty
此时 θ 就是线性方程中的系数
那么上面的方程是如何来的呢?
上面线性方程的理论依据是最小二乘法
:最小二乘法公式:
minwyXw22\min\limits_{w}||y - Xw||_2^2
22最小二乘法公式中右上角的二代表2次方,右下角的二代表2范数
那么最小二乘法公式又与线性方程有啥关系呢?
范数

  • 向量1-范数X1=i=1nxi||X|| _1 = \sum_{i=1}^n|x_{i}|那么这个公式代表所有元素的绝对值之和
  • 向量2-范数X2=i=1nxi2||X||_2 = \sqrt{\sum_{i=1}^nx_i^2}这个代表所有元素的平方和的开平方
  • 向量的无穷范数X=max1inxi||X||_{\infty} = \max_{1\leq i\leq n}|x_i|

将最小二乘法的公式展开

  • minw=(i=1n(Xiwyi)2)2\min_{w} = (\sqrt{\sum_{i = 1}^n(X_iw - y_i)^2})^2最外面的平方与里面的根号抵消于是变成了minw=i=1n(Xiwyi)2\min_{w} = \sum_{i = 1}^n(X_iw - y_i)^2
  • 此时最小二乘法可以成矩阵的形式表达:minw=(Xiwyi)2\min_{w} = (X_iw - y_i)^2
  • 此时公式一定大于等于0
  • 求导,令导数等于0,就可以求解最小值
    矩阵求导区别于普通求导
    简介的线性回归推导
    该图片引用与博客的地址为:线性方程矩阵求导----正规方程
    最小二乘法矩阵求导
  • (Xθy)2(X\theta - y)^2
  • (Xθy)(Xθy)(X\theta - y)(X\theta - y)
  • θ[(Xθy)T(Xθy)]\frac{\partial}{\partial\theta}[(X\theta - y)^T(X\theta - y)]
  • θ[(θTXTyT)(Xθy)]\frac{\partial}{\partial\theta}[(\theta^TX^T - y^T)(X\theta - y)]
  • θ(θTXTXθθTXTyyTXθ+yTy)\frac{\partial}{\partial\theta}(\theta^TX^TX\theta - \theta^TX^Ty -y^TX\theta + y^Ty)
  • θ[XTXθ+(θTXTX)TXTy(yTX)T]\frac{\partial}{\partial\theta}[X^TX\theta + (\theta^TX^TX)^T - X^Ty-(y^TX)^T]
  • θ[XTXθ+XTXθXTyXTy]\frac{\partial}{\partial\theta}[X^TX\theta + X^TX\theta - X^Ty-X^Ty]
  • XTXθ+XTXθXTyXTyX^TX\theta + X^TX\theta - X^Ty-X^Ty
  • 2XTXθ2XTy2X^TX\theta - 2X^Ty
  • 2XTXθ2XTy=02X^TX\theta - 2X^Ty = 0
  • XTXθ=XTyX^TX\theta = X^Ty
  • θ=(XTX)1XTy\theta = (X^TX)^{-1} X^Ty
    推演完毕
    将公式运用起来,我将在另一篇博文中引用这个公式,做一个例子

相关文章: