线性回归的梯度下降

  • 线性回归模型:线性假设函数 + 平方差代价函数
  • 梯度下降算法可以优化J(θ0,θ1)最小平方差代价函数,实现好的梯度下降算法的关键,在于在导数项。
    吴恩达机器学习(六)线性回归的梯度下降
    吴恩达机器学习(六)线性回归的梯度下降
    吴恩达机器学习(六)线性回归的梯度下降
    吴恩达机器学习(六)线性回归的梯度下降
  • 线性回归的代价函数,形状总是凸函数(convex),只有一个全局最优解。
    吴恩达机器学习(六)线性回归的梯度下降
  • 在梯度下降的过程中,假设函数h会逐渐和数据拟合
    吴恩达机器学习(六)线性回归的梯度下降
  • 以上我们所用到和了解的梯度下降方法,叫做Batch梯度下降法
    Batch梯度下降法:走的每一步都会全览整个数据集。
  • 梯度下降一般用于比较大的数据集。
  • 使用正规方程组方法,可以计算出代价函数J的最小值,而不用多步骤的使用梯度下降。

相关文章:

  • 2021-07-12
  • 2021-04-12
  • 2021-09-17
  • 2021-12-31
  • 2021-11-08
  • 2022-03-05
  • 2021-10-25
  • 2021-09-15
猜你喜欢
  • 2022-01-06
  • 2022-02-19
  • 2021-06-04
  • 2021-04-26
  • 2021-09-09
  • 2021-10-19
  • 2021-07-27
相关资源
相似解决方案