1.        二维卷积模型

1.1.        Basic Convolution

2D CNN2D CNN

具体到计算中使用cublas的gemm方法。

设输入为nclhw,卷积核为c”cl’h’w’,输出为c”l”h”w”,步长s,补偿p。

输出与输入的关系:L”=(l+2p-l’)/s+1

输入与输出相等时:p=[s(l-1)+l’-l]/2

矩阵相乘:c”*cl’h’w’ 与 nl”h”w”*cl’h’w’ 相乘

1.2.        Resnet10

2D CNN2D CNN

残差结构有利于学习Identify map,bottleneck在中间降维有利于减少参数量。

例:256*3*3*256 à 256*1*1*64 + 64*3*3*64 + 64*1*1*256 = 896*64

1.3.        Inception

1.3.1.       V111

2D CNN

2D CNN

增加了网络宽度,1*1减少了参数量

2D CNN

2D CNN

Global average pooling

1.3.2.       V212

使用了batch normalization,5*5 à 3*3 + 3*3

2D CNN

2D CNN

γ和β是scale和shift操作,为了让因训练所需而加入的BN能有可能还原最初的输入。整个操作是为了防止梯度弥散,训练时是按照channel来的,而且在做test时为了使一个样本也可以用BN,往往会记录训练时的均值和方差的统计平均供这里使用。

1.3.3.       V313

2D CNN2D CNN

2D CNN      2D CNN

3*3 à 1*3 +3*1

Pool与conv分离

发现辅助分类器无用

1.3.4.       V414

增加了残差链接

2D CNN

1.3.5.       Xception15

将深度的卷积与空间卷积分离

128*3*3*256 à128*3*3*4 + 128*4*1*1*256

2D CNN

2D CNN


Reference:

10.   He,K., Zhang, X., Ren, S. & Sun, J. Deep residual learning for imagerecognition. in 770–778 (2016).

11.   Herath,S., Harandi, M. & Porikli, F. Going deeper into action recognition: Asurvey.Image Vis. Comput.60, 4–21 (2017).

12.   Ioffe,S. & Szegedy, C. Batch normalization: Accelerating deep network training byreducing internal covariate shift.ArXiv Prepr. ArXiv150203167 (2015).

13.   Szegedy,C., Vanhoucke, V., Ioffe, S., Shlens, J. & Wojna, Z. Rethinking theinception architecture for computer vision. in 2818–2826 (2016).

14.   Szegedy,C., Ioffe, S., Vanhoucke, V. & Alemi, A. A. Inception-v4, Inception-ResNetand the Impact of Residual Connections on Learning. inAAAI 4278–4284(2017).

15.   Chollet,F. Xception: Deep Learning with Depthwise Separable Convolutions.ArXiv161002357Cs (2016).



相关文章:

  • 2021-10-24
  • 2022-01-01
  • 2021-07-24
  • 2021-12-08
  • 2021-10-31
  • 2021-07-08
  • 2021-07-28
  • 2021-04-11
猜你喜欢
  • 2021-09-20
  • 2021-09-05
  • 2021-10-18
  • 2021-12-30
  • 2022-12-23
  • 2021-06-29
  • 2021-11-17
相关资源
相似解决方案