目录
想法
对于任意一个数据映射到多维空间,如果是不同的数据集之间必定存在间距,此时能用一个超平面就可以将其分开且间距最大
数学表达
处理线性问题
建设函数:
hθ(x)={10ΘTX≥0ΘTX<0
代价函数:
J(θ)=C∑mi=1[yiCost1(ΘTXi)+(1−yi)Cost0(ΘTXi)]+12∑nj=1θ2j
其中的
m表示训练数据数量
n表示n维空间
Θ表示关于θ的n维列向量
Cost1(ΘTXi)=Cost1(z)={−z+10z<1z≥1
Cost2(ΘTXi)=Cost2(z)={0z+1z≤−1z>−1
通过求解minθJ(θ)得到合适的θ值
采用核函数处理非线性问题
f=θ0+θ1f1+…+θmfm
fj=k(x, lj)=exp(−∥x−lj∥22σ2)
其中的
lj表示第j个标记点,可以选取第j个训练数据xj作为标记点
x表示某一组训练数据
k(x, lj)表示训练数据x到标记点lj的偏差程度
∥x−lj∥表示向量的长度
对于第i组测试数据
fij=k(xi, lj)=exp(−∥xi−lj∥22σ2)
并将其写成向量形式,
fi=⎡⎣⎢⎢⎢⎢fi0fi1⋮fim⎤⎦⎥⎥⎥⎥
其中的
fi0=1
那么代价函数
J(θ)=C∑mi=1[yiCost1(ΘTfi)+(1−yi)Cost0(ΘTfi)]+12∑mj=1θ2j
通过求解minθJ(θ)得到合适的θ
胡思乱想时刻
关于逻辑回归和支持向量机的区别
逻辑回归:使用Sigmoid函数的结果,以概率输出;同时,作为分类的依据就是与Sigmoid函数中的特殊点(0, 0.5)做比较,也就是当y=1时,ΘTX≥0;当y=0时,ΘTX<0。选取的θ值并没有考虑两个类群之间的间距
支持向量机:输出的结果只有0, 1两个值;求解θ过程中选取的依据是,当y=1时,ΘTX≥1;当y=0时,ΘTX≤−1。也就是选取的θ值使得两个不同的类群有一定的距离(可以通过数学证明)
如何保证是最大划分?
对于假设函数
ΘTX=θ0x0+θ1x1+…+θnxn=θ⃗⋅x⃗=p⋅∥θ∥ ≥ 0
其中的
p表示向量x⃗在向量θ⃗方向上的投影
θ0=0
由于θ⃗⋅x⃗的结果与0做比较,则向量θ⃗与向量x⃗相互垂直,且向量x⃗过原点
对于代价函数
12∑nj=1θ2j=12(θ21+θ22+…+θ2n‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾‾√)2=12∥θ∥2
则
J(θ)=C∑mi=1[yiCost1(p⋅∥θ∥)+(1−yi)Cost0(p⋅∥θ∥)]+12∥θ∥2
minθJ(θ)=minθC∑mi=1[yiCost1(p⋅∥θ∥)+(1−yi)Cost0(p⋅∥θ∥)]+minθ12∥θ∥2
如下图(紫色直线为决策边界)

此时的p1, p2都较短,要想满足训练时ΘTX≥1或ΘTX≤−1的情况,则需要使θ较长,与minθ12∥θ∥2矛盾
又如下图(紫色直线为决策边界)

此时的p1, p2都较长,那么θ的值就可以略短一些
也就是当p的值较大,θ值较短时,能更好的满足minθJ(θ)
再反观p所表示的几何意义时,可以发现p不仅仅是投影,还表示离决策边界的距离,所以通过对minθJ(θ)的求解可以得到更宽松的决策边界
逻辑回归中的正则化与支持向量机中的正则化
正则化通常时引入一个较大的常数,并与式子中待控制的部分相乘,在求解最小值时,使得待控制的部分趋于0
逻辑回归中的正则化是为了简化训练模型
支持向量机的正则化是为了在有一定区分度的情况下,使得θ值较小,从而获得更大的间距
- 核函数相关
核函数是一种将低维投到高维的一种方式,对于二维空间内无法用直线分割的数据集,可以通过将这些数据投到三维空间内用平面进行分割
如下图

选取xOy平面中的(3,2)作为标记点并用高斯核函数,将平面上C点投到三维空间中的B
关于逻辑回归中不适合用核函数,可能是逻辑回归中的代价函数使用的是非线性函数(log(hθ(x)))将比Cost(ΘTX)产生更大的计算量
相关文章:
-
2021-11-03
-
2021-04-17
-
2021-04-01
-
2022-12-23
-
2021-10-29
-
2021-11-05
-
2022-12-23
-
2021-04-04