从输入单元的**项开始,进行前向传播给隐藏层,计算隐藏层的**项,然后继续前向传播,并计算出输出层的**项。

简言之,按照输入层,隐藏层,输出层的顺序,依次计算不同层的**项的过程叫前向传播。

下面示范将前向传播向量化的过程:

小白的机器学习学习笔记(十一)----前向传播与向量化

小白的机器学习学习笔记(十一)----前向传播与向量化

小白的机器学习学习笔记(十一)----前向传播与向量化

小白的机器学习学习笔记(十一)----前向传播与向量化

我们进一步会发现,最后一步假设函数h(x)的计算公式就是标准的Logistic回归模型,只不过这里的特征不是直接提供的x1,x2,x3,而是通过隐藏层后计算所得的**项。并且这些**项并不是由x1,x2,x3这些输入的特征来训练得到,而是由小白的机器学习学习笔记(十一)----前向传播与向量化决定,而小白的机器学习学习笔记(十一)----前向传播与向量化的参数不同时也会得到不同的**项作为训练最后一步Logistic回归的特征。

                                                                                                                                                      BY   ZJQ

相关文章:

  • 2021-10-19
  • 2021-04-11
  • 2021-07-21
  • 2021-12-05
  • 2021-05-05
  • 2021-07-05
  • 2021-04-05
  • 2021-12-10
猜你喜欢
  • 2021-09-09
  • 2021-11-29
  • 2021-11-19
  • 2021-09-29
  • 2021-11-30
  • 2021-08-13
相关资源
相似解决方案