1.简述GBDT原u理。

首先根据现有的数据训练树一棵树,然后去计算真实值和预测值的差值,也就是残差,然后下一棵树去拟合该残差,重复直至残差为0。

所有弱分类器的结果相加等于预测值,也就是说,每一个分类器拟合的是残差;
2.GBDT常用损失函数有哪些?

MAE,MSE,huber损失
3.GBDT如何用于分类?

将分类问题转化成logistic回归问题即可
4.为什么GBDT不适合使用高维稀疏特征?

难以进行特征划分
5.GBDT算法的优缺点?

优点:
      并行预测带来的速度提升
      不需要进行特殊的数据预处理。可以自动发现特征之间的高阶关系
       在稠密数据集上,泛化能力和表达能力都很好
缺点:
      在稀疏数据集上表现不如svm或神经网络
      训练过程串行,只能在决策树内部采用局部并行的手段提高训练速度
      对异常值过于敏感,所以一般回归类的损失函数会用绝对损失或者huber损失函数来代替平方损失函数

正解:

1118 day41118 day4

1118 day4

1118 day4

1118 day4

1118 day4

1118 day4

 

1118 day4

1118 day4

 

 

相关文章:

  • 2021-05-02
猜你喜欢
  • 2022-01-31
  • 2021-09-29
  • 2022-02-01
  • 2021-05-18
  • 2022-12-23
  • 2021-05-24
  • 2021-04-01
相关资源
相似解决方案