三、数学 求导

1.常见函数的导数

线性回归(二)

2.导数的四则运算

线性回归(二)

四、线性回归的损失和优化

1.损失函数

总损失定义为:

线性回归(二)

  • yi为第i个训练样本的真实值
  • h(xi)为第i个训练样本特征值组合预测函数
  • 又称最小二乘法

如何去减少这个损失,使我们预测的更加准确些?既然存在了这个损失,我们一直说机器学习有自动学习的功能,在线性回归这里更是能够体现。这里可以通过一些优化方法去优化(其实是数学当中的求导功能)回归的总损失!!!

2.优化算法

如何去求模型中的W,使得损失最小?(目的是找到最小损失对应的W值)

  • 线性回归经常使用的两种优化算法
    • 正规方程
    • 梯度下降法
3.正规方程

3.1 什么是正规方程

线性回归(二)

理解:X为特征值矩阵,y为目标值矩阵。直接求到最好的结果

缺点:当特征过多过复杂时,求解速度太慢并且得不到结果

3.2 正规方程的推导

  • 推导方式一:

    把该损失函数转换成矩阵写法:

线性回归(二)

其中y是真实值矩阵,X是特征值矩阵,w是权重矩阵。

对其求解关于w的最小值,起止y,X已知二次函数直接求导,导数为零的位置,即为最小值。

求导:

线性回归(二)

注:式(1)到式(2)推导过程中, X是一个m行n列的矩阵,并不能保证其有逆矩阵,但是右乘XT把其变成一个方阵,保证其有逆矩阵。

式(5)到式(6)推导过程中,和上类似。

相关文章:

  • 2022-02-05
  • 2021-10-08
  • 2022-01-15
  • 2022-01-03
  • 2022-12-23
  • 2021-05-06
  • 2021-06-20
  • 2022-12-23
猜你喜欢
  • 2021-08-09
  • 2021-09-04
  • 2022-12-23
  • 2021-05-20
  • 2021-10-29
  • 2021-06-14
  • 2021-10-24
相关资源
相似解决方案