解决问题:网络加速

下采样的方法达到网络加速,但是下采样会导致的信息损失而降低网络性能,WAE既能降低图像分辨率,又不损失信息,保持分类准确率。WAE借助小波分解思想,将原图分解为两个低分辨率图像:一个携带高频信息(图像细节信息或者噪声),一个携带低频信息(图像全局主要信息)

网络框架


论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks
论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

Encoding layer

输入图片通过编码层(分解层)得到IH(高频图)和Il(低频图)
具体过程:
输入图片经过3层3*3卷积核(可以比拟为7*7的卷积核的感受野)后,以步长为2作用3*3卷积进行下采样得到分辨率为原始图片1/2的高频图和低频图,通过增加一个L2范数的约束。由于通过小波变换,低频图集中大部分能量,数值较大;而高频图数值很小,能量较少。利用小波变换这一特性对图像像素值的大小进行限制,像素值小的图像就称之为高频信息图。


论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks
论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks
论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

Classification

论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks
IH和IL分别经过一个VGG的卷积部分,得出特征FH,FL;
右半部分 分为上下,先说上边,FH和FL进行“融合”,也就是按通道concat,然后输入FC层,得出一个1000维的向量 V1;
下边,FL直接输入到FC层得到向量V2;
最终的网络分类输入是 V1+V2(element-wise)

Decoding layer

通过IL和IH恢复原图像作为训练损失函数的比较


论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks
论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

目标函数

训练分为三个阶段:
**Stage 1: WAE training
Stage 2: Classification network training
Stage 3: Joint fine tuning**

整体训练Loss[3] = 分类Loss[1] + WAE Loss[2]


论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

分类Loss


论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks
论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

WAE Loss


论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

Auto-encoder(WAE)主要是看重构误差


论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

要获得“高频图”增加的一个约束,用以约束其中一个特征图的像素值的大小:


论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

计算量分析

对于CNN,所有卷积层的总计算复杂度为:


论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

d:卷积层数
n:通道数
s:卷积核尺寸
m:输出特征图尺寸
输入高频图和低频图为1/2大小,m’=m/2
融合网络中IH通过VGG时通道数n为原来的1/4
论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

实验分析

1.Wavelet+CNN


论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

2.离散小波变换(DWT:9/7实现)

将图片分解为四个分辨率减半的通道:cA(低频信息近似输入图片,IL), cH, cV, cD(高频细节IH)分别送入分类器
由于使用了更有效率的DWT进行图片分解,速度比WAE快。但是由于直接将图片的高低频信息分离(WAE通过IH能量最小化将信息集中到IL)降低了识别率

3.Decomposition+CNN

与WAE思路相同,分解为两个分辨率减半的图片,但是在分解通道上没有L2约束,只用分类损失训练


论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

(a)为输入图片
(b)(c)是使用WAE分离得到的低频图和高频图(互补信息)
(d)(e)是使用Decomposition+CNN分离得到的低频图和高频图(差不多)
证明使用L2约束最小化IH能量的有效性

4.分离通道的分析


论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

5.总体结果


论文笔记:Learning a Wavelet-like Auto-Encoder to Accelerate Deep Neural Networks

相关文章:

  • 2021-12-06
  • 2021-11-11
  • 2021-10-21
  • 2021-07-16
  • 2021-04-18
  • 2021-11-06
  • 2021-07-12
  • 2021-06-15
猜你喜欢
  • 2021-11-08
  • 2021-09-02
  • 2021-05-02
  • 2021-11-03
  • 2022-12-23
  • 2021-12-31
  • 2021-10-29
相关资源
相似解决方案