感知机
感知机是二类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取+1和-1二值。感知机对应于输入空间(特征空间)中将实例划分为正负两类的分离超平面,属于判别模型。感知机旨在求出将训练数据进行线性划分的分离超平面,为此,导入基于误分类的损失函数,利用梯度下降法对损失函数进行极小化,求得感知机模型。
感知机模型
-
(感知机) 假设输入空间(特征空间)是X⊆Rn,输出空间是Y={+1,−1}。输入x∈X表示实例的特征向量,对应于输入空间(特征空间)的点;输出y∈Y表示实例的类别。由输入空间到输出空间的如下函数
f(x)=sign(w⋅x+b)
称为感知机。其中,w和b为感知机模型参数,w∈Rn叫作权值或权值向量,b∈R叫作偏置,w⋅x表示w和x的内积,sign是符号函数,即
sign(x)={+1,−1,x≥0x<0
感知机是一种线性分类模型,属于判别模型。感知机模型的假设空间是定义在特征空间中的所有线性分类模型或线性分类器,即函数集合{f∣f(x)=w⋅x+b}。
感知机有如下几何解释:线性方程
w⋅x+b=0
对应于特征空间Rn中的一个超平面S,其中w是超平面的法向量,b是超平面的截距。这个超平面将特征空间划分为两个部分。位于两部分的点(特征向量)分别被分为正、负两类。因此,超平面S称为分离超平面,如图所示:
感知机学习策略
- 数据集的线性可分性
-
感知机学习策略: 假设训练数据集是线性可分的,感知机学习的目标是求得一个能够将训练集正实例点和负实例点完全分开的分离超平面。
–损失函数选择的是误分类点到超平面S的总距离,这是感知机所采用的。为此,首先写出输入空间Rn中任一点x0到超平面S的距离:
∣∣w∣∣1∣w⋅x0+b∣
这里,∣∣w∣∣是w的L2范数。其次,对于误分类的数据(xi,yi)来说,
−yi(w⋅xi+b)>0
这样,假设超平面S的误分类点集合为M,那么所有误分类点到超平面S的总距离为
−∣∣w∣∣1xi∈M∑yi(w⋅xi+b)
不考虑∣∣w∣∣1,就得到感知机学习的损失函数。
L(w,b)=−xi∈M∑yi(w⋅xi+b)
显然,损失函数L(w,b)是非负的。如果没有误分类点,损失函数值是0.而且,误分类点越少,误分类点离超平面越近,损失函数值就越小。一个特定的样本点的损失函数:在误分类时是参数w,b的线性函数,在正确分类时是0。因此,给定训练数据集T,损失函数L(w,b)是w,b的连续可导函数。
感知机学习算法
- 感知机学习问题转化为求解损失函数式的最优化问题,最优化的方法是随机梯度下降法。
- 感知机学习算法的原始形式
- 算法的收敛性
- 感知机学习算法的对偶形式
相关文章: