本章在数学上的内容较少,下面主要是讲述思想

弱小的模型集合起来也可以变得足够强大

(LXTML笔记)集成模型
有时候可以是所有弱小模型gt,对其来一个权相同的投票模型,即G(x)=sign(t=1T1gt(x)),类似的还有不同的权重,以及更加广义的G(x)=sign(t=1Tqt(x)gt(x))

下面给出两个例子
(LXTML笔记)集成模型

第一种是左图,实际上这里弱小的gt是指纵切和横切,但是这两种切都不能将图的点完美分开,但是合起来的话却可以,这里的集成模型起到的作用是feature transform→让模型更具有powerful

第二种是右图,假设有很多条线即gt可以分开这些点,那么这里的集成模型相当于是取了平均→regularization的作用

之前学ML的时候transform是踩油门,让模型有powerful,而regularization是踩刹车,不要让模型过于强导致overfit,aggregation似乎有两者兼备!

所以最关键的一步,是产生足够多的不同的有效的gt
(LXTML笔记)集成模型
一般地方法有:
1.构造不同的模型获得g1,g2...,即如SVM,LR或者若干模型都跑一遍

2.通过不同的参数获得,比如由GD中不同的步长

3.通过不同的初始值,如PLA的初始位置

4.通过不同的数据获得,如bootstrap类的方法(下一节会重点提到)

相关文章:

  • 2021-07-13
  • 2021-08-28
  • 2022-12-23
  • 2021-10-26
  • 2021-05-20
  • 2021-07-27
  • 2021-04-23
  • 2022-01-15
猜你喜欢
  • 2021-07-31
  • 2021-09-19
  • 2021-12-18
  • 2021-05-26
  • 2021-08-19
  • 2021-08-08
  • 2022-01-21
相关资源
相似解决方案