首先给大家分享一个巨牛巨牛的人工智能教程,是我无意中发现的。教程不仅零基础,通俗易懂,而且非常风趣幽默,还时不时有内涵段子,像看小说一样,哈哈~我正在学习中,觉得太牛了,所以分享给大家!点这里可以跳转到教程

               
 
本文会讲到:
 
(1)另一种线性回归方法:Normal Equation;
(2)Gradient Descent与Normal Equation的优缺点;


前面我们通过Gradient Descent的方法进行了线性回归,但是梯度下降有如下特点:
(1)需要预先选定Learning rate;
(2)需要多次iteration;
(3)需要Feature Scaling;

因此可能会比较麻烦,这里介绍一种适用于Feature数量较少时使用的方法:Normal Equation;

当Feature数量小于100000时使用Normal Equation;
当Feature数量大于100000时使用Gradient Descent;

Normal Equation的特点:简单、方便、不需要Feature Scaling;


其中Normal Equation的公式:

机器学习入门 Linear Regression与Normal Equation
 
其中
 
机器学习入门 Linear Regression与Normal Equation
机器学习入门 Linear Regression与Normal Equation表示第i个training example;
机器学习入门 Linear Regression与Normal Equation表示第i个training example里的第j个feature的值;
m为#training example;
n为#feature;

举个实际的例子:

机器学习入门 Linear Regression与Normal Equation




           

浏览人工智能教程

相关文章:

  • 2021-08-02
  • 2021-06-22
  • 2021-10-10
  • 2021-08-31
  • 2021-04-29
  • 2022-01-11
  • 2021-12-13
  • 2022-01-08
猜你喜欢
  • 2021-12-20
  • 2021-09-21
  • 2021-06-10
  • 2021-07-20
  • 2021-05-21
  • 2021-05-18
  • 2021-10-22
相关资源
相似解决方案