• 为什么逻辑回归不能用平方误差做损失函数,而要用交叉熵函数?

Machine Learning——Lecture 6

 

  • 为什么生成式要比判别式的准确率低?

以为生成式要自学,它在样本少的时候将明显是class1的样本误分到class2中。

Machine Learning——Lecture 6

 

  • 多分类任务softmax如何计算分类结果?

 Machine Learning——Lecture 6

 

  • 逻辑回归的局限(由于boundary只是一条直线)

Machine Learning——Lecture 6

 

  • 做了transformation之后就可以区分开了,但是难点在于往哪个方向做transformation,这一点要让机器自己学到,所以引入了由多个逻辑回归堆叠而成的“神经网络”!!!

Machine Learning——Lecture 6

 

相关文章:

  • 2022-01-22
  • 2021-10-22
  • 2021-08-03
  • 2021-05-23
  • 2021-04-12
  • 2022-01-16
  • 2021-11-04
  • 2021-12-07
猜你喜欢
  • 2021-12-31
  • 2021-08-17
  • 2021-09-01
  • 2021-11-29
  • 2021-11-10
  • 2021-05-11
  • 2021-09-09
相关资源
相似解决方案