删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

基于多尺度密集特征融合的生成式对抗除雾网络

本站小编 Free考研考试/2024-01-15

连静1,2, 陈实1, 丁堃3, 李琳辉1,2
1. 大连理工大学 汽车工程学院,辽宁 大连 116024;
2. 大连理工大学 工业装备结构分析国家重点实验室,辽宁 大连 116024;
3. 大连海洋大学 应用技术学院,辽宁 大连 116000
收稿日期:2021-09-26
基金项目:国家自然科学基金资助项目(61976039,52172382);中央高校基本科研业务费专项资金资助项目(DUT22JC09);大连市科技创新基金资助项目(2021JJ12GX015)。
作者简介:连静(1980-),女,吉林公主岭人,大连理工大学副教授,博士生导师。

摘要:在真实雾天场景下,针对除雾网络无法去除远处雾气、天空区域容易出现噪声的问题,提出了一种基于多尺度密集特征融合的生成式对抗除雾网络,并采用制作的合成雾天数据集进行对抗训练.首先,对除雾网络进行设计,构建了网络模型;其次,从合成晴朗天气图像中利用深度标签生成逼真的雾天数据集,以适用于真实雾天除雾领域;最后,在真实雾天数据集上测试,选取近几年具有代表性的6种基于深度学习的除雾网络进行主观视觉效果,并借助除雾领域常用的无参考图像质量评价指标进行客观分析.研究结果表明:提出的除雾网络在真实场景下的除雾效果较其他网络有显著提升,主观视觉效果明显优于对比的除雾网络,在无参评价指标上综合表现优于其他除雾网络.
关键词:图像处理图像除雾生成式对抗网络多尺度密集特征融合对抗训练
Generative Adversarial Network Based on Multi-scale Dense Feature Fusion for Image Dehazing
LIAN Jing1,2, CHEN Shi1, DING Kun3, LI Lin-hui1,2
1. School of Automotive Engineering, Dalian University of Technology, Dalian 116024, China;
2. State Key Laboratory of Structural Analysis for Industrial Equipment, Dalian University of Technology, Dalian 116024, China;
3. Applied Technology College, Dalian Ocean University, Dalian 116000, China
Corresponding author: LI Linhui, E-mail: lilinhui@dlut.edu.cn.

Abstract: In view of the poor dehazed effect of the existing dehazing networks in real hazy image and the obvious noise in the sky area of the image, a generative adversarial network based on multi-scale dense feature fusion for image dehazing is proposed. The dehazing network uses the produced synthetic foggy data set for adversarial training. Firstly, the dehazing network is designed and the network model is constructed; secondly, a realistic foggy data set is directly generated from the synthetic sunny weather image using deep tags to be suitable for the dehazed field; finally, the network is tested on the real foggy day data set and selects six representative deep learning dehazing networks in recent years for comparison, and non-reference image quality evaluation indicators are used for objective analysis. The research results show that the effect of the proposed dehazing network in real scenes is significantly improved compared to the other networks. The subjective visual effect is significantly better, and the comprehensive performance is better than the other networks in non-reference image quality evaluation indicators.
Key words: image processingimage dehazinggenerative adversarial networkmulti-scale dense feature fusionadversarial training
雾霾是一种常见的大气现象,悬浮颗粒物吸收、散射光线,导致图像质量退化、成像模糊,严重影响了场景可视性和计算机视觉任务的相关应用[1-2].因此,在不丢失图像内部细节、不引入伪影、色彩不失真的前提下,如何有效去除图像中的雾气、提高图像在相关领域的应用,是除雾领域亟待解决的问题.近些年,图像除雾算法逐渐受到众多****关注,也有很多方法来解决这个富有挑战性的问题.这些方法可分为两类:基于假设先验的方法和基于深度学习的方法.
基于假设先验的方法是利用人工设计的假设或先验信息估算出大气散射模型的物理量,然后反演出无雾图像.Tan等[3]提出了一种最大化图像局部对比度的方法提高除雾图像质量.He等[4]利用暗通道得到初步大气透射率图像,再还原出除雾图像.Fattal[5]通过分析图像反射率,得出图像块像素一般为一维分布,并借此恢复无雾图像.Berman等[6]提出非局部图像除雾法,将图像RGB空间中的颜色分为簇,然后借助先验公式对图像进行线性恢复.Zhang等[7]提出了一种结合暗通道先验和亮通道先验的互补极端发射通道先验ERC来估计透射率.基于假设先验的方法以大气散射模型为基础,具有很强的针对性,简化的物理模型可能导致图像透射率的估计误差,在一些复杂的环境条件下适应性差,具有较大的场景局限性.
随着卷积神经网络的兴起,基于深度学习的方法开始应用于除雾领域.一些方法使用深度卷积神经网络来估计图像透射率[8-12],然后根据透射图进行除雾.然而,利用有雾图像估计透射图不易实现,且透射图的准确程度会严重影响除雾图像的质量.在卷积网络中加入注意力机制[13-16]可以有效提升网络的特征提取能力,对雾气分布不均的图像有针对性地调节不同尺度信息的权重.但是,基于注意力机制的除雾算法参数数量较多,计算复杂度高.Engin等[17]参考循环对抗神经网络架构,使除雾算法摆脱了需要估计大气模型参数的弊端,能达到不错的除雾效果.Dong等[18]提出了一种新的融合判别器,将频率信息作为先验信息输入判别器.Chen等[19]使用一种端到端门控上下文聚合网络直接恢复无雾图像.Dong等[20]使用了特征增强以及误差反馈模块,利用密集特征连接结构改善信息丢失问题.
现有基于深度学习的除雾网络整体特点是模型普适性差,在合成雾天数据集表现优异,但是在真实雾天数据集表现一般.通过分析发现,这是由于网络训练采用的是全监督学习,数据集中需要真实无雾图像和合成雾天图像,但现有的很多合成雾天图像数据集本身存在局限性,合成雾天图像和真实雾天图像差距较大.Li等[21]提出了一种综合数据集RESIDE,然而RESIDE数据集中合成的有雾图像并不真实,景深最大处和最小处的雾气浓度相差不大,并不符合真实场景下雾气分布.因此,制作更加贴近真实雾天雾气分布的数据集,并在此类数据集的基础上达到更好的真实场景适应性,是目前除雾工作的重点和难点.
1 基于多尺度密集特征融合的生成式对抗除雾网络为提高在真实场景下网络除雾效果和适用性,本文提出了一种基于多尺度密集特征融合的生成式对抗除雾网络(简称DFF-GAN).网络将多尺度密集特征与对抗网络的思想有机融合,将多尺度密集特征模块融入到对抗网络的生成器中,借鉴反投影技术来充分利用非相邻层之间的特征更好地还原有雾图像.将融合判别器的思想融入判别网络,把图像的频率信息作为附加先验信息融合后输入到网络中,增强判别器的鉴别能力,抑制图像出现颜色失真等问题.
1.1 生成器网络生成器网络在结构搭建时借鉴了多尺度密集特征融合的思想[20],多尺度密集特征融合模块能够将不同层级特征信息融合后进行增强,但是这种方法对于图像远处雾气特征的增强效果有限,无法有效还原出有雾图像中物体的色彩和边缘细节,在真实雾天除雾领域应用具有局限性.因此,本文将多尺度密集特征模块融入到对抗网络中,将其作为本文的生成器网络,借助对抗博弈的方法进一步提高色彩保证度、恢复更加自然的图像.生成器网络无须借助其他信息,只需输入有雾图像就能够输出相应的除雾图像,生成器网络结构如图 1所示.
图 1(Fig. 1)
图 1 生成器网络结构Fig.1 Generator network structure

生成器由三部分组成:编码器Encoder、增强解码器Decoder以及连接两部分的特征恢复模块.编码器Encoder分为5个子模块,每个模块包含2个卷积层,除第一层卷积步幅设置为1外,其余4层的步幅均设置为2.在每一个子模块后使用最大池化层进行下采样,通过不断卷积、池化来减少特征图的尺寸.解码器Decoder同样有5个子模块,除最后一层卷积的步幅设置为1外,其余4层的步幅均设置为2,反卷积层步幅设置为2.图像的分辨率通过上采样操作依次上升,直到与输入图像的分辨率一致.
网络在卷积过程中多次下采样,导致图像的局部信息损失过多,而且非相邻层之间的特征无法通过连接进行信息传递,不利于特征的提取和图像的有效还原.超分辨率的反投影技术可以用于最大限度缩小估计的高分辨率结果和多个低分辨率输入图像之间的重构误差,以生成高分辨率内容.Dai等[22]提出了用于单分辨率情景下的超分辨率反投影技术,迭代反投影算法如下:
(1)
式中:?t为第t次迭代时估计的高分辨率输出;Lob为通过下采样算子f获得的低分辨率图像;h为反投射算子.
生成器网络使用了一种基于反投影技术的多尺度密集特征融合模块.通过采集不同层级的特征信息进行融合,保证特征信息的完整性,纠正高分辨率特征中缺失的空间信息.如图 1所示,在每一层级都引入2个密集特征融合模块,并将其分别放置在编码器残差组前和解码器增强模块后.网络使用跳跃连接,将上采样结果与编码器中具有相同分辨率的子模块的输出进行连接,作为解码器中子模块的输入.在解码器中采用了特征增强模块,将潜在特征进一步增强,显著提升图像质量.解码器第n层的密集特征融合模块定义:
(2)
式中: jn为解码器第n层的增强特征;为通过特征融合的增强特征;L为网络层的数量;是来自解码器中L-n个特征融合模块的增强特征.编码器第n层的密集特征融合模块定义为
(3)
式中: in为编码器第n层的潜在特征;()是前n-1个特征融合模块增强前的特征.
多尺度密集特征融合模块通过反馈机制从高分辨率特征中提取高频信息,一方面通过逐层将这些差异融合到下采样的潜在特征,弥补了缺失的图像空间信息,另一方面利用前面所有的高频特征纠正反馈机制,改进了增强的特征.
1.2 判别器网络生成对抗网络中的判别器对生成器生成的图像进行判断,在对抗博弈中有效还原出图像的色彩、边缘等细节信息.为有效去除图像远处雾气、还原物体颜色,在多尺度密集特征模块基础上添加对抗网络,借助不同先验信息区分除雾图像和无雾图像,使除雾图像具有更加清晰的边缘和细节信息,同时抑制出现伪影、光晕等.
雾天图像和清晰图像的一个重要区别在于清晰图像通常具有更高的对比度和更清晰的边缘,因此除雾网络设计时借鉴了融合判别器的思想.首先利用Gauss滤波法处理图像得到低频部分,再利用Laplacian法锐化图像得到高频部分,最后将高低频信息作为附加先验信息融合后输入判别器进行鉴别[18].分割后的图像高频和低频部分如图 2所示.
图 2(Fig. 2)
图 2 有雾和无雾图像高频和低频对比图Fig.2 Comparison of HF and LF images with and without haze (a)—原始图像;(b)—图像低频部分;(c)—图像高频部分.

判别器与生成器进行对抗训练,其网络为二分类网络,真实图像为正样本,生成器生成的图像为反样本,判别器通过区分正、反样本进行训练.判别器的输入为图像的高频部分、低频部分以及原始图像,输出为输入图像是真实图像的概率.判别器网络除最后一层使用Sigmoid作为激活函数外,前四层均使用LeakyReLU.除首尾两层卷积之外,其余层的激活函数之间均采用批标准化对数据进行处理,网络结构如图 3所示.
图 3(Fig. 3)
图 3 判别器网络结构Fig.3 Discriminator network structure

给定有雾图I, 无雾图J及生成器除雾图G(I).然后,将G(I)对应的低频部分G(I)LF, 高频部分G(I)HFG(I)融合并标记为假样本,将J对应的JLF, JHFJ融合并标记为真样本.整个生成对抗网络的优化目标变为
(4)
式中,∞代表融合操作.将频率先验信息融合到判别器的方法能够生成更加真实、自然的除雾图像,避免除雾过程中引入光晕和伪影.
1.3 网络损失函数生成器网络的损失函数由L1范数距离函数、结构相似性损失函数、感知损失函数和对抗损失函数组成.前三种损失函数是为了保证除雾图像和原图在内容上的一致性,其中L1范数距离表示为
(5)
式中: Ii为有雾图像;Ji为真实无雾图像;G(Ii)为经过生成器除雾后的图像.结构相似性损失可以衡量2幅图像之间的结构相似度大小,其损失函数表示为
(6)
(7)
式中:μx, σx2分别为x的均值和方差;σxyxy的协方差;C1, C2为保证式子有意义的常数.感知损失函数用来衡量图像的视觉质量,避免图像过于平滑,表示为
(8)
式中,φ(x)为VGG-16网络的ReLU1_2层输出.对抗损失函数是为了使生成器生成与原图高度相似的图像,表示为
(9)
式中,Dfusion()为判别器网络的输出.
综上所述,生成器网络的损失函数表示为
(10)
其中: α1, α2, α3, α4为权重系数.
判别器网络的损失函数是一个与二元分类器相关的交叉熵损失函数,其定义如下:
(11)
2 实验设置与数据集制作2.1 实验设置本文基于PyTorch框架进行训练,采用初始学习率为1×10-4,动量衰减指数为0.5的Adam优化器.图片在输入网络前转换为256×256,提取图像低频信息采用高斯滤波法,其滑动窗口大小为5,标准差为3;提取图像高频信息采用Laplacian算子,其核大小为3.训练使用的GPU型号为NVIDIATITAN XP,batchsize设置为4,训练代数设置为400,生成器损失函数的权重系数α1, α2, α3, α4分别设置为2,1,1,0.05.
2.2 数据集制作与选取RESIDE是除雾领域应用比较广泛的雾天数据集,其中包含合成雾天以及真实雾天图像.RESIDE训练集共有13 990幅合成雾天图像,是基于室内深度数据集NYU2和室外Middlebury立体数据集的清晰图片上参考大气散射模型生成的,其中环境大气光强A∈[0.7, 1.0],大气散射系数β∈[0.6, 1.8].虽然RESIDE合成雾天数据集考虑了大气散射模型和透射率,但是整体的图像加雾效果不够真实,图像近处和远处的雾气浓度区别不明显,与真实场景下的雾气浓度分布差别很大.这也导致使用RESIDE合成数据集进行训练的除雾网络在合成雾天图像上的除雾效果表现突出,而在真实雾天图像上的效果表现不佳.
考虑上述原因,为进一步提高网络的除雾效果,需要制作更加贴近现实场景的合成雾天数据集.SYNSCAPES[23]利用与电影行业中高端视觉效果相同的物理渲染技术进行创建,包含广泛的交通场景变化和独特的交通特征组合,共有25 000张完全独特的场景.根据渲染算法获得的准确图像深度标签对原始清晰图像逐层加雾,使得景深最大区域和最小区域雾气浓度差别较大.相比RESIDE合成雾天图像,对清晰图像按景深进行逐层加雾的方法[24]能够模拟出十分贴近真实场景的雾天图像.
图 4图 5展示了RESIDE和SYNSCAPES合成雾天图像的对比.SYNSCAPES为街道街景数据集,但是考虑到除雾工作主要是面向交通图像检测、车辆安全辅助驾驶等交通场景,而道路街景图像是交通场景中最为常见的图像,包括需要进行除雾处理的监控摄像头拍摄的道路街景或小区道路.因此,本文选用SYNSCAPES作为清晰无雾图像制作合成雾天数据集用于网络训练,并在最后挑选非街道街景的图像进行除雾测试,验证SYNSCAPE数据集的普适性.
图 4(Fig. 4)
图 4 RESIDE合成雾天图像示例Fig.4 Examples of RESIDE synthetic hazy image

图 5(Fig. 5)
图 5 SYNSCAPES合成雾天图像示例Fig.5 Examples of SYNSCAPES synthetic hazy image

从制作好的合成雾天数据集中选取8 000幅图像用于网络的训练,选取1 000幅图像用于网络的验证. RESIDE中包含4 332幅真实雾天采集的图片数据集RTTS (real-world task-driven testing set),选取RTTS数据集作为网络的测试集,并将其用于对不同网络除雾效果的主观和客观评价.
3 实验结果对比除雾网络实际应用是在真实雾天除雾领域,但现有的网络对比重点大多为合成雾天图像数据集上的有参指标.在合成雾天图像上,这些除雾网络在SSIM(结构相似性)和PSNR(峰值信噪比)等全参图像质量评价指标上表现优异,但在真实雾天图像上的除雾效果不理想,无法有效去除景深较大区域的雾气,实际场景下的普适性不强.为了验证提出的网络在真实雾天除雾效果的有效性和普适性,在真实雾天数据集RTTS上进行测试,并将实验结果与近期具有代表性的6种除雾网络结果进行主观视觉效果和评价指标定量分析对比.对比的算法分别为FFA-Net[14]、PMHLD[15]、GridDehazeNet[16]、FDGAN[18]、GCA-Net[19]、MSBDN-DFF[20].
3.1 定性分析对比为了验证提出的除雾网络在真实场景下的有效性,选取RTTS数据集中的4 332幅真实雾天图像进行测试,随后将测试结果与上述6种除雾网络进行视觉效果分析对比.图 6展示了本文网络和上述6种除雾网络在真实雾天数据集上的除雾结果对比组图.
图 6(Fig. 6)
图 6 不同除雾网络在RTTS的结果Fig.6 Results of dehazing networks on RTTS (a)—有雾图;(b)—FFA-Net;(c)—PMHLD;(d)—GridDehazeNet;(e)—FDGAN;(f)—GCA-Net;(g)—MSBDN-DFF;(h)—DFF-GAN.

根据图 6所示的不同除雾网络的结果,可得出以下结论:由图 6b6d6g中的各行图像可知,FFA-Net、GridDehazeNet、MSBDN-DFF在真实场景下的除雾效果并不明显,没有去除远处雾气;由图 6c, 6f中的第二、五行图像可知,PMHLD、GCA-Net对景深较小区域的除雾效果好,能够很好地还原近处物体的细节信息,但是对远处雾气的除雾效果不佳,无法彻底去除远处的雾气,其细节还原较差;由图 6e中的第三、五、六行图像可知,FDGAN在色彩还原上表现较好,能够去除图像中景深较大区域的雾气,但在图片中容易引入伪影、光晕等,天空区域存在明显的噪声,图像除雾效果不稳定.本文提出的网络能够有效去除景深较大区域的雾气,除雾后图像中的远处物体具有更清晰边缘和色彩保真度,减少了图像中伪影、光晕等现象的出现,而且较为有效地还原了有雾图像的天空区域,天空区域的噪声较少.
为了验证本文采用的SYNSCAPES训练集进行训练是否具有普适性和一般性,在RTTS数据集中挑选出乡村、田野、景区、地下车库、体育馆等多种非街道街景下的有雾原图以及除雾后的图像,如图 7所示.从图 7中可以看出,SYNSCAPES虽然是街道街景图像数据集,但是除雾网络使用其作为训练集能够较好还原出非街道街景的有雾图像,色彩、边缘等细节信息丰富,证明该数据集比较适合作为除雾领域数据集.
图 7(Fig. 7)
图 7 RTTS中非街道街景除雾的结果Fig.7 Results of non-street images on RTTS (a)—有雾图;(b)—DFF-GAN.

3.2 定量分析对比由于无法获取真实雾天图像的清晰原图,不能选用全参考图像评价指标进行除雾效果评估.因此,借助除雾领域常用的无参考图像质量评价指标对不同网络的除雾效果进行定量分析.
选取的4种图像质量评价指标分别为:SSEQ(基于空间谱系的质量评价方法)、NIQE(自然图像质量评价方法)、BRISQUE(基于空间域的图像无参质量评价方法)和BIQI(基于小波域的自然图像统计特征方法).
SSEQ根据失真图像的局部空间熵和频域熵进行计算,分析每一个局部区域上像素的联合分布,有利于描述图像的局部结构信息[25].NIQE基于空间域多元高斯模型构建“质量感知”统计特征集合用来评价图像质量[26].BRISQUE在空间域中提取图像归一化像素值之间的统计量来构建模型,该指标比PSNR和SSIM有更好的图像质量评价效果[27].BIQI在多尺度多方向小波系数上提取一组特征,并用支持向量机训练的质量预测器进行回归预测[28].这4个指标客观评价与主观评价之间的一致性较好,符合人眼的主观视觉感知.在真实雾天数据集RTTS上测试,分别计算4种指标在除雾图像上的平均分数,分数越高说明图像还原的质量越差.
表 1列出了本网络和对比的网络在真实雾天数据集RTTS上的无参考质量评价指标,由表 1可知,本算法在SSEQ、NIQE指标上均优于其他算法,在BRISQUE和BIQI指标上排名第二,综合表现优于其他网络.分析根据SYNSCAPES制作的雾天数据集对除雾效果提升的贡献,本文利用提出的网络进行了消融实验.在不修改网络结构的前提下,利用RESIDE数据集进行训练,同样在真实雾天RTTS数据集上进行测试,并计算4种无参考图像评价指标.
表 1(Table 1)
表 1 不同除雾网络在RTTS的无参考图像评价指标对比Table 1 Comparison of no-reference quality evaluation indicators of dehazing networks on RTTS
评价指标 FFA-Net PMHLD Grid FDGAN GCA-Net MSBDN-DFF DFF-GAN
SSEQ 37.32 38.77 37.83 33.40 32.90 35.45 32.52
NIQE 4.93 4.73 4.86 4.61 4.37 5.13 4.20
BRISQUE 33.29 28.83 29.68 26.71 24.46 29.93 25.69
BIQI 30.94 29.91 30.64 28.20 29.64 32.19 29.48


表 1 不同除雾网络在RTTS的无参考图像评价指标对比 Table 1 Comparison of no-reference quality evaluation indicators of dehazing networks on RTTS

表 2列出了SYNSCAPES和RESIDE作为数据集的评价指标计算分数.由表 2可知,使用SYNSCAPES数据集对网络除雾效果的提升有一定的积极作用,在SSEQ、NIQE、BRISQUE三个评价指标上均得到提升,尤其是SSEQ指标提升了9.51 %,效果明显,而在BIQI指标上虽有下降,但两者相差不大,对其影响较小.
表 2(Table 2)
表 2 训练数据集在RTTS的无参考图像评价指标对比Table 2 Comparison of no-reference quality evaluation indicators of training dataset on RTTS
指标 SYNSCAPES RESIDE 提升效果/%
SSEQ 32.52 35.94 9.51
NIQE 4.20 4.39 4.32
BRISQUE 25.69 26.51 3.08
BIQI 29.48 29.08 -1.36


表 2 训练数据集在RTTS的无参考图像评价指标对比 Table 2 Comparison of no-reference quality evaluation indicators of training dataset on RTTS

4 结论1) 针对真实雾天图像,本文提出的方法能够有效地去除图像上的雾气,对景深较大区域的除雾效果尤为明显,远处物体的色彩保真度和边缘细节还原度较高,提高了浓雾图像中物体的对比度和清晰度,真实雾天场景下具有更强的适用性.这为计算机视觉和场景可视性等领域提供了可靠的图像依据,对提高大雾天气下交通图像检测、车辆安全辅助驾驶等具有重要意义.
2) 本文提出的方法取得了较好的图像还原效果,但是仍需要清晰图像和合成雾天图像来进行全监督学习.使用合成图像作为训练数据集存在一定的局限性,例如合成的有雾图像与真实雾天图像存在差距,影响网络模型的训练,进而影响除雾效果.接下来的工作是深入研究不使用合成雾天图像进行训练,例如采用无监督的训练方式,直接输入真实的清晰图像来还原有雾图像.
参考文献
[1] Sakaridis C, Dai D, Gool L V. Semantic foggy scene understanding with synthetic data[J]. International Journal of Computer Vision, 2018, 126(9): 973-992. DOI:10.1007/s11263-018-1072-8
[2] Dai D, Sakaridis C, Hecker S, et al. Curriculum model adaptation with synthetic and real data for semantic foggy scene understanding[J]. International Journal of Computer Vision, 2020, 128(5): 1182-1204. DOI:10.1007/s11263-019-01182-4
[3] Tan R T. Visibility in bad weather from a single image[C]//IEEE Conference on Computer Vision and Pattern Recognition. Anchorage, 2008: 1-8.
[4] He K, Sun J, Tang X. Single image haze removal using dark channel prior[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2010, 33(12): 2341-2353.
[5] Fattal R. Single image dehazing[J]. ACM Transactions on Graphics, 2008, 27(3): 1-9.
[6] Berman D, Avidan S. Non-local image dehazing[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Las Vegas, 2016: 1674-1682.
[7] Zhang Y, Gao K, Wang J, et al. Single-image dehazing using extreme reflectance channel prior[J]. IEEE Access, 2021, 9: 87826-87838. DOI:10.1109/ACCESS.2021.3090202
[8] Cai B, Xu X, Jia K, et al. DehazeNet: an end-to-end system for single image haze removal[J]. IEEE Transactions on Image Processing, 2016, 25(11): 5187-5198. DOI:10.1109/TIP.2016.2598681
[9] Sakaridis C, Dai D, Van Gool L. Semantic foggy scene understanding with synthetic data[J]. International Journal of Computer Vision, 2018, 126(9): 973-992. DOI:10.1007/s11263-018-1072-8
[10] Zhang H, Patel V M. Densely connected pyramid dehazing network[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. Salt Lake City, 2018: 3194-3203.
[11] Ren W, Si L, Hua Z, et al. Single image dehazing via multi-scale convolutional neural networks[C]// European Conference on Computer Vision. Cham: Springer, 2016: 154-169.
[12] Li B, Peng X, Wang Z, et al. Aod-net: all-in-one dehazing network[C]// Proceedings of the IEEE International Conference on Computer Vision. Venice, 2017: 4770-4778.
[13] Wang N, Cui Z, Su Y, et al. RGNAM: recurrent grid network with an attention mechanism for single-image dehazing[J]. Journal of Electronic Imaging, 2021, 30(3): 033026.
[14] Qin X, Wang Z, Bai Y, et al. FFA-Net: feature fusion attention network for single image dehazing[C]// Proceedings of the AAAI Conference on Artificial Intelligence. New York, 2020: 11908-11915.
[15] Chen W T, Fang H Y, Ding J J, et al. PMHLD: patch map-based hybrid learning DehazeNet for single image haze removal[J]. IEEE Transactions on Image Processing, 2020, 29: 6773-6788. DOI:10.1109/TIP.2020.2993407
[16] Liu X, Ma Y, Shi Z, et al. Grid dehazenet: attention-based multi-scale network for image dehazing[C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. Seoul, 2019: 7314-7323.
[17] Engin D, Genc A, Ekenel H K. Cycle-dehaze: enhanced cycleGAN for single image dehazing[C]// Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. Salt Lake City, 2018: 825-833.
[18] Dong Y, Liu Y, Zhang H, et al. FD-GAN: generative adversarial networks with fusion-discriminator for single image dehazing[C]// Proceedings of the AAAI Conference on Artificial Intelligence. New York, 2020: 10729-10736.
[19] Chen D, He M, Fan Q, et al. Gated context aggregation network for image dehazing and deraining[C]// 2019 IEEE Winter Conference on Applications of Computer Vision(WACV). Waikoloa, 2019: 1375-1383.
[20] Dong H, Pan J, Xiang L, et al. Multi-scale boosted dehazing network with dense feature fusion[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle, 2020: 2157-2167.
[21] Li B Y, Ren W Q, Fu D P, et al. Benchmarking single-image dehazing and beyond[J]. IEEE Transactions on Image Processing, 2019, 28(1): 492-505. DOI:10.1109/TIP.2018.2867951
[22] Dai S, Han M, Wu Y, et al. Bilateral back-projection for single image super resolution[C]// 2007 IEEE International Conference on Multimedia and Expo. Beijing, 2007: 1039-1042.
[23] Wrenninge M, Unger J. Synscapes: a photorealistic synthetic dataset for street scene parsing[EB/OL][2018-12-01]. arXiv preprint arXiv: 1810.08705.
[24] Hahner M, Dai D, Sakaridis C, et al. Semantic understanding of foggy scenes with purely synthetic data[C]// 2019 IEEE Intelligent Transportation Systems Conference(ITSC). Auckland, 2019: 3675-3681.
[25] Liu L, Liu B, Huang H, et al. No-reference image quality assessment based on spatial and spectral entropies[J]. Signal Processing: Image Communication, 2014, 29(8): 856-863. DOI:10.1016/j.image.2014.06.006
[26] Mittal A, Soundararajan R, Bovik A C. Making a "completely blind" image quality analyzer[J]. IEEE Signal Processing Letters, 2012, 20(3): 209-212.
[27] Mittal A, Moorthy A K, Bovik A C. No-reference image quality assessment in the spatial domain[J]. IEEE Transactions on Image Processing, 2012, 21(12): 4695-4708. DOI:10.1109/TIP.2012.2214050
[28] Moorthy A K, Bovik A C. A two-step framework for constructing blind image quality indices[J]. IEEE Signal Processing Letters, 2010, 17(5): 513-516. DOI:10.1109/LSP.2010.2043888

相关话题/

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19