Linear Regression Problem
Linear Regression Problem
- 直观的概念:对一个客体的多个特征x=(x0,x1,…,xd),使用加权和计算得到一个实数值作为结果:y≈∑i=0dwixi(不需要像感知器一样做进一步的符号判断,即分类)
- 线性回归假设:h(x)=wTx
- 误差衡量:平方误差err(y^,y)=(y^−y)2
Linear Regression Algorithm
- 线性回归的样本内误差Ein(w)=N1∑n=1N(wTxn−yn)2=N1∥Xw−y∥2
- 求梯度
- Ein(w)=N1∥Xw−y∥2=N1(wTXTXw−2wTXTy+yTy)
- ∇Ein(w)=N2(XTXw−XTy)
- 对可逆的XTX:
- 唯一解:wlin=(XTX)−1XTy=X†y(X†有d+1个特征值为1)
- 普遍情形:一般情况下都有N≫d+1,逆矩阵存在
- 没有反矩阵存在:
- 可能有多个解:wlin=X∗y,以其他方式定义X∗
Generalization
- 线性回归是一种学习算法:
-
Ein很小
-
Eout也很小
- 隐式地迭代“伪逆”过程
- 另一种解释方法:Ein的平均值
- Eˉin=ϵD∼PN{Ein(wLIN w.r.t. D)}
- 上式可表示为noise level⋅(1−Nd+1),即数据量越大越接近噪声水平
- 还有Eˉout=noise level⋅(1+Nd+1)
- 学习曲线
- 当N→∞时,两个误差都收敛于σ2(noise level)
- 泛化误差期望:2Nd+1
- 当噪声不是很大时,学习确实发生了

Linear Regression for Binary Classification
- 可否使用线性回归来完成二元分类
- 可以证明err0−1≤errsqr
- 可以使用线性回归的平方误差给出Eout的更宽松上界err
- 相对于二元分类PLA算法这一NP任务,线性回归求得最佳解的效率更高
- 思路:可以先使用线性回归达到一个足够好的程度作为初始状态进行PLA
相关文章: