在看adaboost算法示例的时候突然发现一个有趣的现象,每次更新完样本权值之后,分类错误的样本的权值累加都会更新到0.5.我想着可能是因为如果分类错误率为0.5,对于二分类问题来说就相当于随便猜猜了,而这里采用的弱学习器再怎么样也比随便猜猜强吧!于是学习器的性能就得到了提升.但是它是怎么做到的呢?

对分类错误的样本的权重做累加:

为何adaboost算法中每次放大权重都会使分类错误样本权重的累加达到0.5?

 

相关文章:

  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
  • 2021-09-14
  • 2022-12-23
  • 2022-12-23
猜你喜欢
  • 2021-05-20
  • 2021-10-16
  • 2021-12-25
  • 2021-10-01
  • 2022-12-23
  • 2022-12-23
  • 2022-12-23
相关资源
相似解决方案