1.决策边界不是训练集的属性,而是假设本身及其参数的属性,只有给的了参数向量,决策边界就确定了。我们不是用训练集来定义决策边界的,而是用训练集来拟合决策边界,一旦有了确定的参数,就有了确定的决策边界。
2.线性回归的代价函数
逻辑回归的代价函数 (逻辑回归用于解决分类问题,即0-1分类)
h(θ)为预测值,当预测值h(θ)与真实值y不一致时,比如:h(θ)=1,但y=0,则损失函数会趋于无穷大,如下图
通过梯度下降优化参数
对J(θ)求导,到的的公式和线性梯度下降算法保持一致
线性回归梯度下降函数:
逻辑回归梯度下降函数:
- 对于一对多的分类问题,可以看做N个二分类问题,构造N个分类器,输入x后,从这N个分类器中选择概率值最多的作为最后的预测结果