这一部分说说自己看感知机学习算法的对偶形式的理解。
引用知乎用户的回答,这里搞清楚两件事情。自己看书的第一个疑惑是为什么,这其中的ni是从何而来呢?后来发现忽略一个点就是“对于一个多次被误分类的点”,也就是某个数据被使用了多次,因此出现ni这个参数。
第二个就是对于李航老师说的“实例点更新次数越多,意味着它距离分离超平面越近,也就越难正确分类。 这句话开始很难理解,后来知乎中的回答很好的让我理解了这句话的含义。
最后,再记录一下Gram矩阵的计算方式:
这一部分说说自己看感知机学习算法的对偶形式的理解。
引用知乎用户的回答,这里搞清楚两件事情。自己看书的第一个疑惑是为什么,这其中的ni是从何而来呢?后来发现忽略一个点就是“对于一个多次被误分类的点”,也就是某个数据被使用了多次,因此出现ni这个参数。
第二个就是对于李航老师说的“实例点更新次数越多,意味着它距离分离超平面越近,也就越难正确分类。 这句话开始很难理解,后来知乎中的回答很好的让我理解了这句话的含义。
最后,再记录一下Gram矩阵的计算方式:
相关文章: