主要贡献:

Ø  引入Inception结构

Ø  应用average pooling代替FC(但是在最后添加了一个线性层)

Ø  加入辅助softmax防止梯度消失(两个辅助分类器)
     该网络于2014年提出的较深的网络,网络层数达到22层,其中提出了很多新颖的结构和想法。并在ILSVRC2014中获得了分类和检测第一的好成绩。该网络的特点是提升了计算资源的利用率,可以在保持网络计算资源不变的前提下,通过工艺上的设计来增加网络的宽度和深度,基于Hebbian法则和多尺度处理来优化性能。GoogLeNet用的参数比ILSVRC2012的冠军AlexNet的参数少12倍,但准确率更高。

      自2012年Alexnet的提出以来,直到Googlenet提出来之前,大家的主流的效果突破大致是网络更深,网络更宽。但是纯粹的增大网络有两个缺点——过拟合计算量的增加。解决这两个问题的方法当然就是增加网络深度和宽度的同时减少参数。为了减少参数,那么自然全连接就需要变成稀疏连接,但是在实现上,全连接变成稀疏连接后实际计算量并不会有质的提升,因为大部分硬件是针对密集矩阵计算优化的,稀疏矩阵虽然数据量少,但是所耗的时间却是很难缺少。

    所以需要一种方法,既能保持网络结构的稀疏性,又能利用密集矩阵的高计算性能。Inception就是在这样的情况下应运而生。

2.     Inception

Inception结构的主要思想是怎样用密集成分来近似最优的局部稀疏结构?

论文首先提出如图1所示的基本结构:

GoogleNet笔记

针对结构图做以下说明:

1) 采用不同大小的卷积核意味着不同大小的感受野,最后拼接意味着不同尺度特征的融合; 

2)之所以卷积核大小采用1、3和5,主要是为了方便对齐。设定卷积步长stride=1之后,只要分别设定pad=0、1、2,那么卷积之后便可以得到相同维度的特征,然后这些特征就可以直接拼接在一起了; 

3) 论文表明pooling有效,所以Inception里面也嵌入;

4)网络越到后面,特征越抽象,而且每个特征所涉及的感受野也更大了,因此随着层数的增加,3x3和5x5卷积的比例也要增加;

但是,使用5x5的卷积核仍然会带来巨大的计算量。 为此,论文借鉴NIN结构,采用1x1卷积核来进行降维
GoogleNet笔记
                                                      Inception降维结构图

3.     Googlenet结构

针对论文提出的Inception结构设计出了Googlenet结构如图3所示。后续的训练和测试到时候实践时可以跑此网络框架时在细看和深入研究原论文。

1)       显然GoogLeNet采用了模块化的结构,方便增添和修改; 

2)       网络最后采用了average pooling来代替全连接层,想法来自NIN,事实证明可以将TOP1 accuracy提高0.6%。但是,实际在最后还是加了一个全连接层,主要是为了方便以后大家finetune; 

3)       虽然移除了全连接,但是网络中依然使用了Dropout ; 

4)       为了避免梯度消失,网络额外增加了2个辅助的softmax用于向前传导梯度。文章中说这两个辅助的分类器的loss应该加一个衰减系数,但看caffe中的model也没有加任何衰减。此外,实际测试的时候,这两个额外的softmax会被去掉。

总体结构:
1.包括Inception模块的所有卷积,都用了修正线性单元(ReLU);
2.网络的感受野大小是224x224,采用RGB彩色通道,且减去均值;
3.#3x3 reduce和#5x5 reduce分别表示3x3和5x5的卷积前缩减层中1x1滤波器的个数;pool proj表示嵌入的max-pooling之后的投影层中1x1滤波器的个数;缩减层和投影层都要用ReLU;
4.网络包含22个带参数的层(如果考虑pooling层就是27层),独立成块的层总共有约有100个;
5.网络中间的层次生成的特征会非常有区分性,给这些层增加一些辅助分类器。这些分类器以小卷积网络的形式放在Inception(4a)和Inception(4b)的输出上。在训练过程中,损失会根据折扣后的权重(折扣权重为0.3)叠加到总损失中。

GoogLeNet 网络结构图
GoogleNet笔记

相关文章:

  • 2021-09-26
  • 2022-01-22
  • 2021-12-12
  • 2021-07-02
  • 2021-10-17
  • 2022-12-23
  • 2021-08-24
  • 2021-08-09
猜你喜欢
  • 2021-10-25
  • 2021-05-29
  • 2021-06-02
  • 2021-11-14
  • 2021-10-13
  • 2021-12-09
  • 2022-12-23
相关资源
相似解决方案