GBDT(Gradient boosting decision tree)是一种迭代的决策树算法,又叫MART,他通过构造多颗决策树,并把多颗决策树的结果累加起来作为最后的预测输出。该算法将决策树与集成做了很好的结合

梯度提升树

生成梯度提升树的案例:
梯度提升树具体步骤:
(1)根据原始数据生成回归树
梯度提升树(2)然后计算残差,用残差替代y,生成新的数据。
残差=真实值-预测值
梯度提升树梯度提升树
(3)用新生成的数据生成第2颗生成树
梯度提升树(4)然后,开始计算新残差,用新残差替换旧残差,再次生成一个新的数据。
梯度提升树梯度提升树
(5)预测
梯度提升树
具体算法流程:
(1)初始化弱分类器:估计使损失函数极小化的一个常数值,此时树只有一个根节点。
f0(x)=argmini=1NL(yi,c)f_0(x)=argmin\sum_{i=1}^{N}L(y_i,c)
梯度提升树
梯度提升树梯度提升树
梯度提升树的参数设置:
生成树的个数、生成树的高度、
设置梯度生成树–当然很重要的就是损失函数了
损失函数是平方损失和的时候,残差的计算就是真实值-测量值。
但是当损失函数是其他函数的时候,残差的计算就不一样的,可能为上面的计算公式,也可能是损失函数的负梯度。
损失函数的负梯度近似于残差,所以这个算法也叫做梯度提升算法。

相关文章: