1. 神经元 VS feature map VS 卷积核

   神经元:feature map 的大小

   feature map:输入图像经过卷积核卷积后的各像素点的组合

   卷积核: 属于共享参数

 

2. 权值共享

   权值共享:同一个feature map中神经元使用同一个权值,可训练参数只与卷积核大小、个数、通道有关

 

3. 感受野 and 计算量

  •    计算量: 考虑可训练参数、连接数

可训练参数:

      卷积层:(卷积核面积 + 1 )* 卷积核个数   

      下采样层:(1 + 1) * 卷积核个数      

连接数:神经元个数(feature map大小) *  [(卷积核面积 + 1)* 卷积核个数]

  • 感受野

从CNN可视化的角度来讲,就是输出feature map某个节点的响应对应的输入图像的区域就是感受野

计算方法:参考 https://blog.csdn.net/program_developer/article/details/80958716

 

4. 卷积层 VS 全连接层

CNN 基础知识

       

  • 卷积层

          假设输入图像为3*28*28,通过20个卷积核,可以得到20*24*24的卷积层,这20个卷积层是由每一个卷积核与输入图像的三通道进行卷积,然后求和。

        (参考:多通道(比如RGB三通道)卷积过程 https://blog.csdn.net/u014114990/article/details/51125776

  • 全连接层

           最后一层池化层为 20*12*12, 可以看成(20*12*12)*1的列向量,通过固定权值的行向量100*(20*12*12),得到100*1 的全连接层神经元;

        (参考:全连接层与卷积层的区别 https://blog.csdn.net/jiachen0212/article/details/82496401

 

 

相关文章:

  • 2021-05-21
  • 2021-06-12
  • 2022-12-23
  • 2021-11-27
  • 2021-10-02
  • 2021-12-06
猜你喜欢
  • 2021-06-28
  • 2021-06-28
  • 2021-12-09
  • 2021-06-18
  • 2021-12-13
  • 2022-12-23
  • 2022-01-11
相关资源
相似解决方案