转载自 https://blog.csdn.net/program_developer/article/details/103330758
目录:
- GBDT多分类算法
1.1 Softmax回归的对数损失函数
1.2 GBDT多分类原理
- GBDT多分类算法实例
- 手撕GBDT多分类算法
3.1 用Python3实现GBDT多分类算法
3.2 用sklearn实现GBDT多分类算法
- 总结
- Reference
本文的主要内容概览:

1. GBDT多分类算法
1.1 Softmax回归的对数损失函数
当使用逻辑回归处理多标签的分类问题时,如果一个样本只对应于一个标签,我们可以假设每个样本属于不同标签的概率服从于几何分布,使用多项逻辑回归(Softmax Regression)来进行分类:
P(Y=yi∣x)=hθ(x)⎡⎣⎢⎢⎢⎢⎢⎢⎢P(Y=1∣x;θ)P(Y=2∣x;θ)...P(Y=k∣x;θ)⎤⎦⎥⎥⎥⎥⎥⎥⎥=1∑kj=1eθTjx⎡⎣⎢⎢⎢⎢⎢⎢⎢eθT1xeθT2x...eθTkx⎤⎦⎥⎥⎥⎥⎥⎥⎥P(Y=yi∣x)=hθ(x)[P(Y=1∣x;θ)P(Y=2∣x;θ)...P(Y=k∣x;θ)]=1∑j=1keθjTx[eθ1Txeθ2Tx...eθkTx]P(Y=yi∣x)=hθ(x)⎣⎢⎢⎢⎢⎢⎢⎡P(Y=1∣x;θ)P(Y=2∣x;θ)...P(Y=k∣x;θ)⎦⎥⎥⎥⎥⎥⎥⎤=∑j=1keθjTx1⎣⎢⎢⎢⎢⎢⎢⎡eθ1Txeθ2Tx...eθkTx⎦⎥⎥⎥⎥⎥⎥⎤
相关文章: