摘要
针对当前去雾算法效率不高、细节恢复较差等问题,提出一种改进多尺度AOD-Net(all in one dehazing network)的去雾算法。通过增加注意力机制、调整网络结构和改变损失函数这3方面的改进,增强网络的特征提取和恢复能力。模型的第1层增加空间金字塔注意力 (spatial pyramid attention,SPA)机制,使网络在特征提取过程中避免冗余信息。将网络改成拉普拉斯金字塔型结构,使模型能够提取不同尺度的特征,保留特征图的高频信息。使用多尺度结构相似性 (multi-scale structural similarity,MS-SSIM)+L1损失函数替换原有的损失函数,提高模型保留结构的能力。实验结果表明,本方法去雾效果更好,细节更丰富。在定性可视化评价方面,去雾图像效果优于原网络。在定量评估层面,与原网络相比PSNR值提升了2.55 dB,SSIM值提升了0.04,IE熵值增加了0.18,这些数值指标充分验证了本算法的出色去雾效果和稳定性。
在雾、霾等恶劣天气影响下,空气中存在大量的悬浮颗粒物,使光线在传播过程中产生折射和散射现象,造成观测到的图像颜色偏灰,大量的细节丢失。雾天条件下得到的图像难以辨认特征,严重影响各类依赖光学成像仪器的系统工作,比如:航拍系统、室外监控、智能驾驶、目标识别系统
目前的去雾算法众多,大致可以分为基于传统数字图像处理的去雾
随着发展,深度学习逐渐应用于图像去雾领域,相较于传统图像处理的方法,该方法具备更强的鲁棒性,适应各种场景的雾天图像恢复。基于深度学习的去雾算法也可以分为两类,一类是用深度学习生成大气散射模型所需要的参数,再通过该模型和训练出的参数恢复清晰图像的去雾算法,比如Cai
基于图像增强的方法效果显著,但由于复杂的去雾环境,恢复出来的颜色与真实色彩差异较大。基于物理模型的方法能去除大部分的雾气,但是受环境影响较大,常出现还原效果失真等现象。因此,选取基于物理模型的深度学习方法,对模型进行改进以还原更好的细节与色彩。在众多深度学习去雾模型中,AOD-Net的网络结构轻巧,同时相较于传统的数字图像处理去雾方法更稳定,适合与图像检测、识别等其他高级深度模型进行无缝衔接,具有较大研究价值。由于AOD-Net网络层数较浅,导致特征提取能力较弱,去雾后效果一般,细节还原较弱。针对以上问题,算法对AOD-Net进行3方面的改进。主要工作如下:
1)利用注意力机制在深度学习的任务中有优秀的效果与即插即用的便利
2)将AOD-Net的特征提取模块改进成拉普拉斯型金字塔型结
3)将原网络的MSE损失函数替换为MS-SSIM+L1损失函
雾天图像的形成主要考虑光的散射和衰减,其中大气散射模型是描述雾、霾等图像生成最经典的模型。
AOD-Net算法对图像的纹理细节等特征的恢复效果较差。本算法采取增加注意力机制,更改特征提取网络结构与更换损失函数3种方式,加强网络的去雾能力。
传统SE(squeeze-and-excitation)注意力机制仅注重通道方面的权重,得到的特征缺少结构信

图2 SPA注意力机制图
Fig. 2 SPA attention mechanism diagram
SPA注意力机制的主要流程包含以下3个步骤:
1) 输入的特征图分别进行各个尺度的自适应平均池化,生成宽和高为(1×1)(2×2)(4×4) 3个尺度的特征图。公式如下所示
, | (6) |
, | (7) |
, | (8) |
式中:代表自适应平均池化操作;X代表输入的特征图。
2) 将3个尺度的特征图进行Resize操作,使原本的4维张量变成长宽为B和D×X×W的二维张量并拼接。公式如下
, | (9) |
其中:表示拼接操作;R表示Resize操作。
3) 拼接后的张量输入全连接层得到权重1,再由RELU激活函数和全连接层进行转换,得到和原通道数一致的权重2。公式如下所示
, | (10) |
其中,FC表示全连接层。最后通过Sigmoid激活函数得到最终权重。将权重乘以原始的特征图X。最终的输出值Y就是加上空间与通道信息权重信息的特征图。公式如下所示
, | (11) |
将SPA注意力机制放在网络最初始的位置,帮助模型早期的特征提取能专注筛选有效信息。改进后的AOD-Net网络结构如

图3 加入SPA注意力机制图
Fig. 3 Incorporating the SPA attention mechanism diagram
原网络的特征提取结构为单尺度结构,对图片特征提取能力较
因此,本算法将原网络的单尺度结构结合拉普拉斯金字塔模型进行设计,保留了图像在降采样与上采样过程中提取的高频信息,与原网络的单尺度结构训练结果相比,改进后的网络结构能更好地捕获不同尺度的特征以便于恢复图像的细节与纹理信息。
模型大致分为3个步骤,如下所示:
1) 首先将输入网络的有雾原图像进行2次下采样,获得相较于原图大小为1/4和1/8的2种尺度图像,分别称为中尺度和低尺度图像。将获得的低尺度图像再进行2次上采样得到模糊的中尺度和原尺度图像,并与原图相减,获得不同尺度图的高频细节信息。最后,估计低尺度有雾图像的值,利用得到的值对该低尺度有雾图像进行去雾处理,得到低尺度的无雾图。
2) 将低尺度的无雾图像进行上采样得到中尺度的去雾图,通过通道合并的方式将中尺度的去雾图与中尺度有雾图以及中尺度残差图相加。再对合成后的图像进行值估计,并恢复出去雾后的中尺度图像。
3) 最后将去雾后的中尺度图像重复步骤二操作,得到与原图大小一致的去雾图。模型网络结构如

图4 拉普拉斯金字塔型特征提取网络结构
Fig. 4 Laplacian pyramid feature extraction network structure diagram
损失函数是用来计算真实数据与模型预测数据偏差的函数。常见的损失函数有L1损失函数、L2损失函数和SSIM损失函数等。
L2损失函数,指预测值与真实值之差的平方之和,公式如下所示
, | (12) |
, | (13) |
MSE损失函数具有连续可导、曲线光滑的特点。但是MSE通常会给予误差值极高的惩罚,使得离群点对其他正常数据的预测效果造成影响。
L1损失函数,指预测值与真实值之差的绝对值之和,公式如下
, | (14) |
将L1损失除以样本数,得到平均绝对值误差 (mean absolute error, MAE)损失函数,公式如下
, | (15) |
MAE对离群数据的处理不变,相对于MSE更具有稳健性,而MSE相比于MAE收敛速度更快。
原网络使用的MSE损失函数仅针对像素级别的损失进行计算,去雾图像的视觉特征和结构特征还原效果不好。而SSIM损失函数则从真实值与预测值的亮度、对比度和结构出发,帮助预测值更能贴近人类的视觉感受。假设有2张图像和,其结构相似性公式如下构成,其中,亮度比较公式
, | (16) |
对比度比较公式
, | (17) |
结构比较公式
, | (18) |
结构相似性就是上述3个公式的乘积,公式如下所示
, | (19) |
式中:、、,用于调整3个部分的重要程度;、表示给定的2幅图像的平均灰度;、表示2幅图像的标准差;、、是常数;SSIM函数的范围是,当值越靠近1,说明恢复效果越好。
因此,SSIM损失函数公式如下
, | (20) |
式中,表示中心点的像素,p表示当前像素。
相较于SSIM损失函数,多尺度的SSIM损失函数能针对不同分辨率的图像保持稳定性能。在计算过程中对图片进行多次下采样,最终将各个尺度的计算结果连接得出损失值,其公式如
(21) |
(22) |
式中:表示最高尺度;表示除了最高尺度外的其他尺度;用来调整权重。MS-SSIM的损失函数公式如下
。 | (23) |
MS-SSIM能够保持更多的高频信息,但是会导致目标预测值的亮度与颜色与图片产生偏差,加入L1损失函数则可以使恢复出来的图像保持亮度和颜色特征。公式如下
, | (24) |
式中:被文献[
本方案选取MS-SSIM+L1组合损失函数替换原网络的损失函数,使去雾恢复后的图像更加符合人类的视觉感受。
本实验基于pytorch框架实现,操作系统是Ubuntu 20.04,开发语言选择python3.8。训练时所使用到的GPU型号为GeFroce RTX 3090ti,显存容量为24 GB。网络初始学习率设置为0.001,使用Adam优化器。
数据集选择公开数据集RESIDE中的OTS(outdoor training set)数据集,该数据集由北京户外真实天气图组成。将该数据集按0.9:0.1的比例划分为训练集与测试集。在测试阶段将改进后训练出的模型与具有代表性的去雾算法进行比
为了评估本方法的去雾水平,选取定性可视化分析与定量评估2种评价方式对去雾后的图像进行分析。定量评估方法使用合成的雾天图像进行去雾,再与无雾的原图进行对比实验。定性可视化分析则选取自然条件下的雾天图像用各方法去雾,靠人眼判断恢复效果好坏,并借助2种无参考评价标准辅助评价去雾效果。
研究采取的图像去雾模型评价指标有4种,其中信息熵与雾气密度估计器为无参考图像质量评价标准,如下所示
1) 信息熵(information entropy,IE)
信息熵能将图像的信进行量化表示,1幅图像的信息熵值越大,说明图像所带来的信息越多,进而表示去雾效果越好。公式如下
, | (25) |
其中:是灰度级的概率密度;是图像的最大灰度级。
2) 峰值信噪比(peak signal to noise ratio,PSNR)
峰值信噪比将均方误差转换成了信号处理的分贝表达形式,峰值信噪比的值越大,则图像恢复质量越
, | (26) |
其中:是等级数,通常为255;MSE是指预测图与原始图的均方误差。
3) 结构相似性(structural similarity, SSIM)
结构相似性计算预测图与原始图在各个区域上的差异,SSIM值越大则还原效果越好,SSIM的值在0~1之
4) 雾密度估计器(fog aware density evaluator, FADE)
该方法通过计算图像中各个像素点的颜色差异以估计雾霾的程度。FADE值越低,说明图像中的雾气越
本方法选取不同自然雾天场景图片进行去雾,分别为远景浓雾、近景薄雾,人像薄雾以及雾气分布不匀这4种典型有雾图进行效果评估,如

图5 真实雾天条件下的去雾结果
Fig. 5 Dehazing results under real fog conditions
尽管暗通道先验方法还原效果较好,但是存在天空区域失真,天空与非天空区域出现色彩失真等现象。直方图均衡化的方法在还原雾气浓度与深度较浅的图像时效果较好,但是在还原远景有雾的图像时会造成色彩偏差过大,失去细节等问题,以及还原出人物脸部出现模糊以及颜色偏深的现象。DehazeNet还原的雾天图像能去除大多数雾气,但是还原后图像偏暗,细节损失严重。FFA-Net算法在真实有雾的测试图片上表现很差,几乎不能去除大部分雾气。AOD-Net原网络的去雾效果良好,但是远景有部分雾未去掉,细节还原不够丰富。改进后的算法能在AOD-Net基础上保留细节,去除远景的雾气能力提升,同时色彩自然更符合人眼对图像的观感,相较于以上算法在各个场景去除雾气的能力更具鲁棒性,且还原出的图片视觉效果更符合人眼的感受。

图6 合成雾天条件下的去雾结果
Fig. 6 Dehazing results under synthetic fog conditions
尽管从定性可视化分析视角评估,基于暗通道先验的方法在去除图像雾气方面展现出了更深的去雾效果。然而,如
定量评估是指通过测量去雾后的图片与原图片的各项数值比较去雾效果。如

图7 近景薄雾以及人像薄雾在各个方法下的IE以及FADE值对比曲线图
Fig. 7 Comparison curves of IE and FADE values for close-range fog and portrait fog under various methods
综上所述,本算法去雾能力更好且更具鲁棒性。
Method | IE | PSNR/dB | SSIM |
---|---|---|---|
DCP | 7.38 | 18.73 | 0.88 |
HIST | 7.75(1) | 17.56 | 0.81 |
DehazeNet | 7.41 | 19.20 | 0.82 |
FFA-Net | 7.41 | 30.53(1) | 0.97(1) |
AOD-Net | 7.41 | 18.94 | 0.84 |
Ours | 7.59(2) | 21.49(2) | 0.89(2) |
注: 加粗数据表示在合成雾数据集中,IE、PSNR和SSIM 3种指标中表现最优的参数,其中(1)(2)分别表示最优的2种方法。
本方法在去除合成雾的效果上均能排名前2,效果最为稳定,且在可视化表现上优秀。改进后的算法增加了细节保留能力以及颜色还原能力,在去除雾霾的同时能够最大限度保留图像的原始信息。因此,无论是在定量分析指标还是在定性可视化分析上,本算法都展现出了优越性能。
综上所述,本算法在去雾能力方面具有显著优势,不仅在量化指标上表现出色,而且在实际应用中也能够获得满意的效果。
为了验证AOD-Net网络中不同改进的有效性,在合成数据集上进行消融实验。实验展示了改进后的算法在颜色保留能力和细节还原能力上显著提升,通过具体量化指标进一步证明了本算法在图像恢复方面的优势。改进后的算法相比于原网络在颜色保留能力与去雾能力上有较大提升,IE值增加0.11,PSNR增加3.67 dB,SSIM增加0.06。说明本算法相较于原网络恢复出的图像细节更丰富,结构与原图更为相似。实验证明3种改进都对网络性能有不同的提升效果,验证了本算法在去雾任务上的稳定性和有效性。3种改进的数值如
改进算法 | IE | PSNR/dB | SSIM |
---|---|---|---|
Unchanged | 7.34 | 17.55 | 0.84 |
MS-SSIM+L1 | 7.34 | 17.44 | 0.85 |
Laplace | 7.46 | 19.61 | 0.86 |
Spa | 7.42 | 18.88 | 0.88 |
Laplace+spa+MS-SSIM+L1 | 7.45 | 21.22 | 0.90 |
注: 加粗数据表示在消融实验中IE、PSNR和SSIM 3种指标中表现最优的参数。
研究提出了一种基于AOD-Net的去雾方法,通过添加SPA注意力机制,使网络获取不同尺度的特征注意力。其次,改变特征提取网络结构为拉普拉斯金字塔型,提高网络保留细节的能力。最后,将损失函数更换为MS-SSIM+L1混合损失函数,增强了网络对颜色及结构的保留能力。
经过与多种算法进行定性可视化分析与定量评估的比较,证明改进后的AOD-Net算法性能稳定,去雾效果更加符合人眼观感。由于算法改进后参数量高于原网络,导致模型的运行速度略慢于原始网络。因此,下一步的工作是继续优化模型,减少不必要的参数达到性能的提升。
参考文献
吴迪, 朱青松. 图像去雾的最新研究进展[J]. 自动化学报, 2015, 41(2): 221-239. [百度学术]
Wu D, Zhu Q S. The latest research progress of image dehazing[J]. Acta Automatica Sinica, 2015, 41(2): 221-239. (in Chinese) [百度学术]
郭璠, 蔡自兴, 谢斌, 等. 图像去雾技术研究综述与展望[J]. 计算机应用, 2010, 30(9): 2417-2421. [百度学术]
Guo F, Cai Z X, Xie B, et al. Review and prospect of image dehazing techniques[J]. Journal of Computer Applications, 2010, 30(9): 2417-2421. (in Chinese) [百度学术]
禹晶, 徐东彬, 廖庆敏. 图像去雾技术研究进展[J]. 中国图象图形学报, 2011, 16(9): 1561-1576. [百度学术]
Yu J, Xu D B, Liao Q M. Image defogging:a survey[J]. Journal of Image and Graphics, 2011, 16(9): 1561-1576. (in Chinese) [百度学术]
Land E H, McCann J J. Lightness and retinex theory [J]. Journal of the Optical Society of America, 1971, 61(1): 1-11. [百度学术]
祝培, 朱虹, 钱学明, 等. 一种有雾天气图像景物影像的清晰化方法[J]. 中国图象图形学报, 2004, 9(1): 124-128. [百度学术]
Zhu P, Zhu H, Qian X M, et al. An image clearness method for fog[J]. Journal of Image and Graphics, 2004, 9(1): 124-128. (in Chinese) [百度学术]
禹晶, 李大鹏, 廖庆敏. 基于物理模型的快速单幅图像去雾方法[J]. 自动化学报, 2011, 37(2): 143-149. [百度学术]
Yu J, Li D P, Liao Q M. Physics-based fast single image fog removal[J]. Acta Automatica Sinica, 2011, 37(2): 143-149. (in Chinese) [百度学术]
He K, Sun J, Tang X. Single image haze removal using dark channel prior[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 33(12): 2341-2353. [百度学术]
梅英杰, 宁媛, 陈进军. 融合暗通道先验和MSRCR的分块调节图像增强算法[J]. 光子学报, 2019, 48(7): 124-135. [百度学术]
Mei Y J, Ning Y, Chen J J. Block-adjusted image enhancement algorithm combining dark channel prior with MSRCR[J]. Acta Photonics Sinica, 2019, 48(7): 124-135. (in Chinese) [百度学术]
Cai B, Xu X, Jia K, et al. Dehazenet: an end-to-end system for single image haze removal[J]. IEEE transactions on image processing, 2016, 25(11): 5187-5198. [百度学术]
Qin X, Wang Z, Bai Y, et al. FFA-Net: feature fusion attention network for single image dehazing[C]//AAAI conference on artificial intelligence. Palo Alto, California USA: AAAI, 2020, 34(7): 11908-11915. [百度学术]
Li B, Peng X, Wang Z, et al. Aod-net: all-in-one dehazing network[C]//IEEE international conference on computer vision. Venice, Italy: IEEE, 2017: 4770-4778. [百度学术]
张宸嘉, 朱磊, 俞璐. 卷积神经网络中的注意力机制综述[J]. 计算机工程与应用, 2021, 57(20): 64-72. [百度学术]
Zhang C J, Zhu L, Yu L. Review and analysis of image defogging algorithm[J]. Computer Engineering and Applications, 2021, 57(20): 64-72. (in Chinese) [百度学术]
Guo J, Ma X, Sansom A, et al. Spanet: spatial pyramid attention network for enhanced image recognition[C]//2020 IEEE International Conference on Multimedia and Expo (ICME). London, United Kingdom: IEEE, 2020: 1-6. [百度学术]
Lai W S, Huang J B, Ahuja N, et al. Deep laplacian pyramid networks for fast and accurate super-resolution[C]//IEEE Conference on Computer Vision and Pattern Recognition. Honolulu, USA: IEEE, 2017: 624-632. [百度学术]
Zhao H, Gallo O, Frosio I, et al. Loss functions for image restoration with neural networks[J]. IEEE Transactions on Computational Imaging, 2016, 3(1): 47-57. [百度学术]
McCartney E J. Optics of the atmosphere: scattering by molecules and particles[J]. Physics Today, 1977, 30(5): 76. [百度学术]
Hu J, Shen L, Sun G. Squeeze-and-excitation networks[C]//IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, USA: IEEE, 2018: 7132-7141. [百度学术]
李永福, 崔恒奇, 朱浩, 等. 一种基于改进AOD-Net的航拍图像去雾算法[J]. 自动化学报, 2022, 48(6): 1543-1559. [百度学术]
Li Y F, Cui H Q, Zhu H, et al. A defogging algorithm for aerial image with improved AOD-Net[J]. Acta Automatica, 2022, 48(6): 1543-1559. (in Chinese) [百度学术]
Wang Z, Simoncelli E P, Bovik A C. Multiscale structural similarity for image quality assessment[C]//37th Asilomar Conference on Signals, Systems & Computers. Pacific Grove, CA, USA: IEEE, 2003, 2: 1398-1402. [百度学术]
王道累, 张天宇. 图像去雾算法的综述及分析[J]. 图学学报, 2020, 41(6): 861-870. [百度学术]
Wang D L, Zhang T Y. Review and analysis of image defogging algorithm[J]. Journal of Graphics, 2020, 41(6): 861-870. (in Chinese) [百度学术]
Hore A, Ziou D. Image quality metrics: PSNR vs. SSIM[C]//2010 20th International Conference on Pattern Recognition. NW Washington, DC, United States: IEEE, 2010: 2366-2369. [百度学术]
Sara U, Akter M, Uddin M S. Image quality assessment through FSIM, SSIM, MSE and PSNR: a comparative study[J]. Journal of Computer and Communications, 2019, 7(3): 8-18. [百度学术]
Choi L K, You J, Bovik A C. Referenceless prediction of perceptual fog density and perceptual image defogging[J]. IEEE Transactions on Image Processing, 2015, 24(11): 3888-3901. [百度学术]