一.mobilenet v2
1.采用inverted residual,与resnet不一样的是通道1X1卷积先变宽->卷积提特征->1X1卷积变窄,因为经过1x1的卷积扩大通道数以后,可以提升抽取特征的能力,图1所示。
2.最后不采用Relu,而使用Linear代替,因为降维后特征丢失部分,如果采用Relu还会丢失,图2所示.
图1 inverted residual
图2宽窄通道relu丢失信息对比
v1使用可分离卷积的计算减少量,如果k=3,也就是3x3卷积核,能后减少9倍左右的计算量.(k^2+dj)/(k^2*dj)