CNN Tomography With Caffe - Full Connected Layer


Deduction

全连接结构中的符号定义如下图:

神经网络之全连接层详解

Forward Propagation

 

 

Backward Propagation

Follow Chain Rule, define loss function , so we have:

Here we define ,下面分别介绍这两个偏导项如何计算。

 

Now we firstly get output layer . As an example, we take cross entropy as loss function, with SoftMax as output function.

 

继续由有:

还是 Chain Rule, 这个chain rule决定了BP是个递推过程。

 

So

的求解过程是是个从后往前的递推过程。

 

的求解比较简单。
由于:

则有:

 

Caffe Practice

神经网络之全连接层详解

Forward Propagation

bottom节点数。下图给出了这几个关键量在Caffe中的存在形式:

神经网络之全连接层详解
数学形式为:

 

Backward Propagation

后向还是分两部分算,一部分是计算。下图给出Caffe计算后向传播时的几个关键量。

神经网络之全连接层详解

 

则有下面的实现:

 

计算bottom_diff

 

即:
可以看出,其主要操作是GEMM和GEMV。


References

[1] http://www.jianshu.com/p/c69cd43c537a
[2] http://blog.csdn.net/walilk/article/details/50278697
[3] http://blog.sina.com.cn/s/blog_88d97475010164yn.html
[4] http://www.itnose.net/detail/6177501.html
[5] http://www.zhihu.com/question/38102762

相关文章:

  • 2021-10-29
  • 2021-07-26
  • 2021-11-30
  • 2021-05-29
  • 2021-10-31
  • 2021-12-15
  • 2021-06-26
猜你喜欢
  • 2022-12-23
  • 2021-05-22
  • 2021-08-25
  • 2022-12-23
  • 2021-11-30
  • 2021-10-24
  • 2021-11-04
相关资源
相似解决方案