房价预测的回归问题,如下图:

机器学习_线性回归
1、损失函数的推导过程

  • 高斯分布
    噪声服从高斯分布
    机器学习_线性回归
  • 最大似然估计
    写出噪声的联合概率分布,求对数,求似然解
    机器学习_线性回归
  • 最小二乘损失函数
    得到L(θ)L(\theta)最小时的最小二乘损失函数。
    机器学习_线性回归


线性回归一般形式:

机器学习_线性回归
线性回归的向量写法:

机器学习_线性回归



2、正则化

加正则化项后,为了使损失函数最小,则需要让正则化项越小越好,从而使θ\theta的值变小,甚至为零。λ\lambda越大,为使J(θ)J(\theta)小,θ\theta就会越小,从而防止过拟合。
Ridge回归J(θ)J(\theta)+l2l_2 norm)

机器学习_线性回归
Lasso回归J(θ)J(\theta)+l1l_1 norm)

机器学习_线性回归
Lasso具有特征选择能力,Lasso回归能够使得损失函数中的许多θ均变成0,这点要优于岭回归,因为岭回归是要所有的θ均存在的,这样计算量Lasso回归将远远小于岭回归。



3、求解参数θ\theta

  • 直接求解(特征维数低,计算简单)
    机器学习_线性回归
  • 优化方法(特征维数高)
    1)初始化θ\theta
    2)最优化方法求解使J(θ)J(\theta)最小的θ\theta
    • i. 批量梯度下降法(BGD)

      每一次参数更新,使用所有样本
      机器学习_线性回归
    • ii. 随机梯度下降法(SGD)

      每一次参数更新,使用一个样本,可能会跳出局部最小值,效率高
      机器学习_线性回归
    • iii. 1 二者综合(mini_batch)

      每一次参数更新,使用样本中的一小部分
      机器学习_线性回归


Logistic回归

  • 分类问题的首选算法

多分类:Softmax回归

技术点

  • 梯度下降法
  • 似然估计
  • 特征选择

相关文章: