一、模型表示

只含有一个特征/输入变量,这样的问题叫作单变量线性回归问题。

m :表示训练样本的数目

X:代表特征/输入变量

Y:代表目标变量/输出变量

(x, y):表示一个训练样本

(x(i), y(i)) :表示第i个训练样本

h(hypothesis):function h : X → Y so that h(x)

单变量线性回归 from 吴恩达的机器学习

单变量线性回归 from 吴恩达的机器学习

  我们选择的参数决定了我们得到的直线相对于我们的训练集的准确程度,模型所预测的值与训练集中实际值之间的差距(下图中蓝线所指)就是建模误差modeling error)。

单变量线性回归 from 吴恩达的机器学习

  我们的目标便是选择出可以使得建模误差的平方和能够最小的模型参数。 即使得代价函数 最小。

二、代价函数

单变量线性回归 from 吴恩达的机器学习

代价函数的直观理解:

单变量线性回归 from 吴恩达的机器学习

在三维空间中存在一个使得 单变量线性回归 from 吴恩达的机器学习最小的点

等高线图

单变量线性回归 from 吴恩达的机器学习

在三维空间中存在一个使得单变量线性回归 from 吴恩达的机器学习 最小的点


相关文章: