论文及代码详见:https://proteus1991.github.io/GridDehazeNet/
目录
1. 摘要
文章提出了一种端到端可训练的CNN,即GridDehazeNet。GridDehazeNet包含三个模块:预处理模块,主干模块和后处理模块。可训练的预处理模块相比手工选择的预处理方法,可以产生具有更好的多样性和更有针对性的输入。主干模块在实现了一种新的基于注意力的多尺度估计,有效缓解了传统多尺度方法中经常遇到的瓶颈问题。后处理模块有助于减少最终输出中的瑕疵。
2. GridDehazeNet
2.1 网络结构
2.2. 通道注意力的特征融合
注意到整体框架中,许多地方将水平块的输出和竖直块的输出进行融合,即图中红色圆圈圈住A的地方。此处即为通道注意力的特征融合。融合机制可以定义如下:
其中,代表通道融合后的结果,表示当前融合水平输入的第个通道,表示当前融合水平输入的第个通道的融合权重,代表当前融合竖直输入的第个通道,表示当前融合竖直输入的第个通道的融合权重。
2.3 损失函数
损失函数包括两部分:平滑损失和感知损失。
2.3.1 Smooth Loss
平滑损失定义为:
其中:
平滑损失函数的原理可以看别的博客。
2.3.2 Perceptual Loss
感知损失利用预训练模型,提去多尺度特征来量化结果和GT的视觉差异。本文用的是在ImageNet上预训练的VGG-16模型,从前三个阶段(即Conv1-2, Conv2-2,Conv3-3)的最后一层提取特征。
感知损失定义为:
其中,(),,为去雾结果(the ground truth )相关联的三个VGG-16的特征图。,,为()的尺寸。
2.3.3 Total Loss
总的损失函数为:
其中为调整两个损失相对权重的参数。本文设为。
3. 实验结果
详见论文。
4. 总结
本文提出了一个端到端可训练的CNN,名为GridDehazeNet,并展示了它在单幅图像去雾方面的竞争性能。由于其网络结构的通用性,GridDehazeNet有望适用于广泛的图像复原问题。