连续数据 —— 回归
离散数据 —— 分类

线性回归

机器学习 算法基础 二 回归
建模的过程实际就是找参数a、b两个变量的值。

房屋价格为例考虑两个特征居室数房屋面积
机器学习 算法基础 二 回归

  • hθ(x)θ0x0使x01模型h_\theta(x)的第一项可以看成是\theta_0x_0,只不过使得x_0恒为1。θ=[θ0,θ1,θ2],x=[1,x1,x2]hθ(x)=θTx这样可令参数向量为\overrightarrow{\theta}=[\theta_0,\theta_1,\theta_2],\overrightarrow{x}=[1,x_1,x_2]。可推h_\theta(x)=\theta^Tx
  • hθ(x)xθx1,x2θ0,θ1,θ2模型h_\theta(x):x是样本,\theta是要估计出的参数。我们建模的主要工作就是根据x_1,x_2估算出合理的\theta_0,\theta_1,\theta_2。

多个变量的情形就是增加样本xx的维度(特征个数)

那么,实际的值为估测值+误差
y(i)=θTx(i)+ε(i)y^{(i)}=\theta^Tx^{(i)}+\varepsilon^{(i)}
ε(i)(1im)0σ2误差\varepsilon^{(i)}(1\le i \le m)是\underline{独立分布的},服从均值为0,方差为某定值\sigma^2的\underline{高斯分布}。原因:中心极限定理


似然函数

机器学习 算法基础 二 回归
机器学习 算法基础 二 回归
目标函数(损失函数):J(θ)J(\theta)预测值 - 实际值平法累加,这不是最小二乘(假定服从高斯分布且认为样本是独立的使用最大似然估计就可以得出结论)。


聊聊“假设”

机器学习 算法基础 二 回归
机器学习 算法基础 二 回归
机器学习 算法基础 二 回归
机器学习 算法基础 二 回归


θ\theta 的求解过程

计算最优解
机器学习 算法基础 二 回归
半正定为凸函数
机器学习 算法基础 二 回归
机器学习 算法基础 二 回归
机器学习 算法基础 二 回归
我们希望参数值不要太大。
机器学习 算法基础 二 回归

  • L1正则——LASSO——高阶项系数越来越趋近于0,表示特征选择。
  • L2正则——Ridge
  • 二者结合Elastic-Net
    机器学习 算法基础 二 回归
    机器学习 算法基础 二 回归

机器学习与数据使用

机器学习 算法基础 二 回归
十折交叉验证:将数据分成十份,9份作为训练数据,1份作为验证数据。这样的验证可以做10次,再取10次的平均结果。


Moore-Penrose广义逆矩阵(伪逆)

  • 如果X是可逆矩阵:Xθ=yθ=X1yX\theta=y \Rightarrow \theta = X^{-1}y
  • 如果X不可逆矩阵:Xθ=(XTX)1XTyX\theta=(X^TX)^{-1}·X^Ty

机器学习 算法基础 二 回归
机器学习 算法基础 二 回归


梯度下降算法

机器学习 算法基础 二 回归
机器学习 算法基础 二 回归
机器学习 算法基础 二 回归
机器学习 算法基础 二 回归
实践中使用最多的mini-batch但通常简称SGD
机器学习 算法基础 二 回归

相关文章:

  • 2021-06-12
  • 2021-07-30
  • 2021-12-05
  • 2022-02-15
  • 2022-12-23
  • 2021-07-15
  • 2021-08-06
  • 2022-02-06
猜你喜欢
  • 2021-10-19
  • 2021-08-13
  • 2021-09-05
  • 2021-04-02
  • 2021-08-16
  • 2021-06-10
  • 2021-11-29
相关资源
相似解决方案