- 为什么逻辑回归不能用平方误差做损失函数,而要用交叉熵函数?
- 为什么生成式要比判别式的准确率低?
以为生成式要自学,它在样本少的时候将明显是class1的样本误分到class2中。
- 多分类任务softmax如何计算分类结果?
- 逻辑回归的局限(由于boundary只是一条直线)
- 做了transformation之后就可以区分开了,但是难点在于往哪个方向做transformation,这一点要让机器自己学到,所以引入了由多个逻辑回归堆叠而成的“神经网络”!!!
以为生成式要自学,它在样本少的时候将明显是class1的样本误分到class2中。
相关文章: