Softmax回归
Softmax回归属于多分类c1,c2,…,ck模型,它通过估计某个样本属于k个类别的各自的概率达到多分类的目的。它是逻辑回归的一般形式,即当k=2的时候退化为逻辑回归。

Softmax回归详解
让步比
由于softmax回归更多的是逻辑回归的多分类形式,此处只给出softmax的定义及公式。
让步比可以理解成有利于某一特定事件的概率,可以定义为
1−pp
在已知二分类问题的情况下每个分类的概率分别为yi^和1−yi^,可以定义logit函数,即让步比的对数形式(log-odds)为
KaTeX parse error: No such environment: align at position 8:
\begin{̲a̲l̲i̲g̲n̲}̲
\log{it}(\hat{…
其中logit(p)函数等于事件发生的概率除以不发生的概率取对数,即表示特征值和对数概率之间的线性关系。
不同类之间的概率分布
现在假设有一个k元分类模型,即样本的输出值为c1,c2,…,ck,对于某一个实例预测为ci样本的概率总和为1,即
i=1∑kp(y=i∣x,ω)=1
该k元分类模型依据让步比的对数形式可以得到
KaTeX parse error: No such environment: align at position 8:
\begin{̲a̲l̲i̲g̲n̲}̲
& \ln{\frac{p(…
通过对上述公式化简可得
KaTeX parse error: No such environment: align at position 8:
\begin{̲a̲l̲i̲g̲n̲}̲
& {\frac{p(y=1…
KaTeX parse error: No such environment: align at position 8:
\begin{̲a̲l̲i̲g̲n̲}̲
e^{{\omega_1^T…
既得p(y=k∣x,ω)=1+∑i=1k−1eωiTx1
通过p(y=k∣x,ω)即可推出p(y=j∣x,ω)=1+∑t=1k−1eωtTxeωjTxj=1,2,…,k−1,因此可以得到k元分类模型的k个类的概率分布为
p(c=k∣x,ω)=⎩⎪⎨⎪⎧1+∑t=1k−1eωtTxeωjTxj=1,2,…,k−1if类别为1,2,…,k−11+∑i=1k−1eωiTx1if类别为k
目标函数
上一节基于ωkTx=0计算出每个分类的概率,然而现实中往往ωkTx=0,可以使用上一节的推导过程假设ωkTx=0则可以推导出k元分类模型的k个类的概率分布为
p(c=k∣x,ω)=∑t=1keωtTxeωjTxj=1,2,…,k
通过上述k个类别的概率分布可得似然函数
KaTeX parse error: No such environment: align at position 8:
\begin{̲a̲l̲i̲g̲n̲}̲
L(\omega) & = …
通过似然函数即可得对数似然函数即目标函数(注:该目标函数与交叉熵损失函数的形式一致,二元逻辑回归可以理解为交叉熵损失函数两个类变量的特殊形式,Softmax回归可以理解成交叉熵损失函数的多个类变量的特殊形式,交叉熵为
KaTeX parse error: No such environment: align at position 8:
\begin{̲a̲l̲i̲g̲n̲}̲
J_m(\omega) & …
目标函数最大化
由于Softmax回归和逻辑回归都可以使用梯度上升法使得目标函数最大化,并且方式一样,因此此处只给出目标函数对参数的偏导。
∂ωk∂J(ω)=i=1∑m(yik−p(yik∣xi,ωk))xi
Softmax回归优缺点
优点
- 基于模型本身可以处理多分类问题
缺点
- 计算极其复杂
