删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

基于DLatLRR与VGG Net的红外与可见光图像融合*

本站小编 Free考研考试/2021-12-25

图像融合作为信息融合技术的一个重要分支,能够整合多幅图像所包含的有效信息,得到空间分辨率与光谱分辨率较高的融合图像[1]。可见光传感器所成图像空间分辨率高、背景信息丰富,但是成像易受环境影响;红外传感器所成的图像虽然质量差,但是成像稳定。二者在时空上的相关性与场景描述时的信息互补性为其融合提供了可能[2-3]
目前,国内外众多****对红外与可见光图像融合算法进行了研究。基于滤波的图像融合采用滤波算法将图像分解为不同的图像层,通过分层融合实现红外与可见光图像的融合。Kumar[4]采用交叉双边滤波提取源图像的细节图像,根据其水平与垂直方向的信息强度计算归一化权重系数,可用于多种类型图像的融合。Li等[5]采用均值滤波将图像分解为基础层与细节层,结合引导滤波获取的权重图进行分层融合,融合图像具有良好的视觉效果。基于变换域的图像融合采用多尺度几何变换将图像分解为不同的子带,通过子带的融合实现红外与可见光图像的融合。蔡怀宇等[6]通过非下采样轮廓波变换(NSCT)对图像进行分解,结合直觉模糊集与区域对比度设定融合规则,能够有效保留图像的边缘信息。江泽涛等[7]通过非下采样剪切波变换(NSST)对图像进行分解,结合脉冲耦合神经网络(PCNN)设计融合算法,解决了融合图像背景缺失的问题。邓辉等[8]提出非下采样双树复轮廓波变换(NSDTCT)对图像进行分解,结合空域分块法进行图像融合,弥补了融合系数选择易出错的缺陷。吴东鹏等[9]构造非下采样剪切波-对比度变换(NSSCT)对图像进行分解,通过信息互补与显著性增强对子带进行融合,克服了融合图像对比度低的缺点。基于稀疏域的图像融合采用学习字典对图像进行稀疏表示,通过稀疏向量的融合实现红外与可见光图像的融合。Liu等[10]提出卷积稀疏表示,指导图像的细节层进行融合,达到保留图像细节的目的。Zhang等[11]对联合稀疏表示算法的过完备字典获取方式进行改进并制定新的融合规则,可实现多模态图像融合。Liu等[12]在联合稀疏表示算法框架下,整合全局显著图与局部显著图指导图像融合,取得了不错的融合效果。
随着深度学习的兴起,新型的卷积神经网络已逐渐渗透到图像融合领域,以其强大的自主学习能力提取图像的深层次特征辅助图像的融合[13]。Liu等[14]将卷积神经网络与拉普拉斯金字塔相结合设计融合算法,通过参数共享、结构相同的孪生网络提取到的图像特征构建权重图指导图像融合,降低了权重策略设计的复杂度。Li和Wu[15]基于密集连接的方式搭建一种DenseFuse深度学习模型,通过编码-解码过程实现红外与可见光图像的融合,减少了融合过程中信息的丢失。
为了有效融合红外与可见光图像,并进一步提升融合效果,本文提出基于潜在低秩表示分解(Latent Low-Rank Representation Decomposition, DLatLRR)与VGG Net的融合算法,即通过DLatLRR将源图像分解为低秩部分、显著部分及稀疏噪声。为了更好地融合图像的深层次特征,提出基于VGG Net的特征提取算法对低秩部分进行融合;为了突出场景中的感兴趣区域,提出显著度-区域能量联合特征加权算法对显著部分进行融合;为了降低噪声对融合图像的影响,舍弃二者的稀疏噪声。对融合后的低秩部分和显著部分进行图像重建得到融合图像,相对于其他方法具有较为明显的优势。
1 基本理论 1.1 潜在低秩表示分解 2010年,Liu等[16]提出低秩表示(Low-Rank Representation,LRR)理论,在确定学习字典的情况下,将原始数据矩阵表示为字典矩阵下的线性组合且表示系数矩阵低秩(一般选择原始数据本身作为字典),以达到数据的空间分割与特征提取的目的。但是,当原始数据的抽样不足且噪声影响较大时,该算法的有效性将会有所下降。因此,在LRR的基础上提出潜在低秩表示(Latent Low-Rank Representation,LatLRR)[17],通过考虑隐藏的数据信息对学习字典的影响,可以提取数据的全局结构和局部结构,相较于LRR具有更强的特征信息提取能力。
LatLRR的数学模型可分为2种情况:
1) 原始数据无噪声。
(1)

2) 原始数据含噪声。
(2)

式中:Q为原始数据矩阵;Z为原始数据最优的LRR系数矩阵;L为显著系数矩阵;E为稀疏噪声矩阵;‖·‖*为核范数;‖·‖1为L1范数;λ>0为正则化平衡参数。当λ→+∞时,式(2)无限趋近于式(1)。
式(1)和式(2)均可看作带有核范数的凸优化问题,由增广拉格朗日乘子(ALM)算法求解。
当原始数据为红外与可见光图像时,本文分别对式(2)所得的QZLQ进行双极性优化处理,计算公式如下:
(3)

式中:X为处理前的数据;Y为处理后的数据。
经过式(3)处理后得到图像的低秩部分QZ、显著部分LQ,结合稀疏噪声E,实现红外与可见光图像的DLatLRR。DLatLRR对图像的处理结果如图 1所示。
图 1 DLatLRR处理结果 Fig. 1 DLatLRR results
图选项




1.2 VGG Net 经典的卷积神经网络由卷积层(Conv)、池化层(Pool)和全连接层(FC)组成,通过卷积、池化操作得到特征图,而后将其转换成一维向量输入全连接层,经分类层实现二分类或多分类。VGG Net由牛津大学Visual Geometry Group提出,相较于之前的网络,VGG Net探索了网络深度与性能之间的关系,通过反复堆叠3×3的卷积核和2×2的最大池化层(Max-Pool),成功构筑了16~19层深的网络[18]
VGG Net采用5段卷积结构,每段包含2~3个卷积层,相邻卷积层之间没有连接池化层,仅在每段卷积的末尾处连接一个最大池化层。所有的卷积层均采用小卷积核,不仅可以减少网络参数的数量,还能够增加网络中的非线性单元,从而捕获来自不同方向上像素的变化,使得网络学习特征的能力更强,同时还可以避免大卷积核带来的参数爆炸的影响。图像输入VGG Net后,按顺序经过一系列的卷积核和池化核,提取图像中的主要特征信息并对其进行压缩,以简化网络的计算复杂度;经过5个连续的卷积组后,用3个全连接层来综合卷积层提取到的图像特征,每个全连接层之间添加随机失活,以防止过拟合与梯度消散等问题,最终经softmax输出结果。凭借其独特的网络结构,VGG Net在2014年的ImageNet视觉挑战赛上分别获得定位任务第一名与分类任务第二名。
VGG 16为VGG Net的一种,其网络深度为16层,5个卷积组依次包含2、2、3、3、3个卷积层,共13个卷积层,每个卷积组后接一个最大池化层,共5个池化层,第5个池化层之后跟3个全连接层,最后一个全连接层之后接softmax分类器。当输入VGG 16的图像大小为N×N时,各个卷积层的参数及池化后输出的特征图大小如表 1所示。
表 1 VGG 16结构参数 Table 1 VGG 16 structure parameters
卷积组 卷积 通道数 池化 输出
1(1_1, 1_2) 3×3, 1 64 Max, 2×2 N×N
2(2_1, 2_2) 3×3, 1 128 Max, 2×2 N/2×N/2
3(3_1, 3_2) 3×3, 1 256 Max, 2×2 N/4×N/4
4(4_1, 4_2, 4_3) 3×3, 1 512 Max, 2×2 N/8×N/8
5(5_1, 5_2, 5_3) 3×3, 1 512 Max, 2×2 N/16×N/16


表选项






2 图像融合 2.1 融合步骤 设待融合的红外图像为IR,可见光图像为VIS,融合后的图像为F。利用DLatLRR+VGG 16算法对图像融合时,大致可分为图像分解、图像各部分融合、图像重建等步骤,算法的大致流程如图 2所示。
图 2 本文算法流程 Fig. 2 Proposed algorithm flowchart
图选项




2.2 基于VGG 16的低秩部分融合算法 低秩部分类似于源图像的平滑版本,包含图像的大部分有效信息,为了更好地对其进行融合,引入VGG 16卷积神经网络提取图像的深度特征辅助设计融合规则。卷积层作为卷积神经网络的基本结构之一,能够通过卷积运算提取图像的特征,且随着卷积层数的加深,提取到的图像特征也越来越抽象。
根据表 1可知,VGG 16网络的第5个卷积组所提取的图像特征过于抽象,且输出的特征图尺寸与源图像细节内容图差距过大,因此本文算法以前4个卷积组的输出为基础构建权重图,指导红外图像与可见光图像的低秩部分融合,权重图的获取流程如图 3所示。具体融合步骤如下:
图 3 联合特征权重图获取流程 Fig. 3 Joint feature weighting map acquisition process
图选项




步骤1??将红外与可见光图像的低秩部分{ GVIS, GIR}分别输入VGG 16网络,提取第i个卷积组的输出{OVISi, m, OIRi, m},i=1, 2, 3, 4分别代表第1、2、3、4个卷积组,m为第i个卷积组输出特征图的通道数,根据卷积核的数量决定,m∈{1, 2, …, M},M=64×2i-1。根据表 1中所示VGG 16网络中各卷积层所包含的卷积核数量可知,Oi, 1:M是一个M维的向量,Oi, 1:M(x, y)表示Oi, m在位置(x, y)处的值,根据L1范数对输出的多通道特征图进行压缩,得到单通道特征图{ CVISi, CIRi},计算公式如下:
(4)

步骤2??为了使融合后的图像更加自然,引入3×3的均值滤波对单通道特征图进行平滑,而后计算初始的归一化自适应权重{wVISi, wIRi},公式如下:
(5)

步骤3??卷积神经网络中的池化层是一种数据下采样操作,池化后的特征图大小变为原来的1/ss为池化算子的步长。VGG 16中的池化步长固定为2,不同的卷积组输出的特征图大小为原图的1/2i-1。根据图像融合的尺寸一致原则,采用上采样对权重图{wVISi, wIRi}进行尺寸重整,得到尺寸大小与原始低秩部分一致的4组权重图{WVISi, WIRi|i=1, 2, 3, 4},并以此分别对红外与可见光图像的低秩部分进行融合,计算公式如下:
(6)

步骤4??通过4组权重融合后的低秩部分,每个位置(x, y)处都有4个值,根据绝对值最大准则对同一位置的4个值进行选取,得到融合的低秩部分GF
(7)

根据式(7)可知,通过综合VGG 16多个卷积组的特征提取结果指导图像低秩部分进行融合,相较于单一的利用网络模型的最终输出进行融合的算法,能够尽量减少图像细节的丢失,更加全面地提取并保留图像的深度特征与有效信息,提升融合效果。
2.3 基于联合特征的显著部分融合算法 显著部分{SIR, SVIS}的融合分为3个阶段:第1阶段主要通过红外与可见光源图像的显著图构建显著度权重,第2阶段主要通过源图像显著部分的区域能量构建能量权重,第3阶段是将前两阶段所得权重进行整合,并对显著部分进行融合。
1) 阶段1
视觉显著图可以识别图像的显著结构、区域或对象,广泛应用于计算机视觉和计算机图形等领域[19]。基于视觉显著图能够反映图像显著特征的特性,本文提出以视觉显著图作为联合权重的组成部分。设图像I,在像素p处的显著度V(p)可根据该像素的强度Ip与其余像素间的整体差异进行计算,公式如下:
(8)

式中:j代表图像的像素;T为像素总数;Ij为像素j处的灰度等级。
Camp红外与可见光图像的显著图及其对应的灰度直方图如图 4所示。
图 4 源图像、显著图及灰度直方图 Fig. 4 Source image, saliency map and gray histogram
图选项




构建显著度权重时,先根据式(9)遍历计算源图像IR与VIS各个像素点的显著度,输出两者的显著图{ VIR, VVIS}(见图 4(b)4(d));再在其基础上结合改进的均值加权规则计算显著度权重{α1, α2},计算公式如下:
(9)

根据式(9)可知,如果在某个位置的显著度VIRVVIS相等,则式(9)退变为传统的均值加权;如果VIR相对于VVIS较大,则该位置的显著度权重α1大于0.5,相应的红外图像对显著度权重的贡献较大,反之,当显著度VIR相对于VVIS较小时,该位置的α2大于0.5,则可见光图像的贡献较大。
2) 阶段2
基于区域的图像融合算法大体分为基于区域能量、基于区域梯度和基于区域方差等3类。基于区域梯度和方差的融合均未充分考虑像素间的相关性,无法体现图像的局部特征,具有片面性;只有基于区域能量的融合规则考虑到图像特征是由该区域内多个像素共同表征,且同一区域内的像素具有较强的相关性[20]。因此,本文以区域能量理论结合自适应性准则计算区域能量权重系数,根据区域中心像素及其所对应区域能量的不断变化,调整加权系数自适应的变化,达到融合图像的本身特征并充分保留细节的目的。Camp红外与可见光图像的显著部分、对应的能量图及灰度直方图如图 5所示。
图 5 显著部分、能量图及灰度直方图 Fig. 5 Saliency part, energy map and gray histogram
图选项




构建能量权重时,先以滑动窗口分别对图像IR、VIS的显著部分{ SIR, SVIS}进行区域分割,求得以像素(m, n)为中心的区域能量EIR(m, n)和EVIS(m, n),计算公式如下:
(10)

式中:(m′, n′)为区域窗口内的像素相对于中心像素的相对偏移量;X′Y′为区域窗口的最大行、列坐标,窗口大小一般取3×3;ω=× 为窗口系数。
通过中心像素的不断移动,得到显著部分的能量分布图{EIR, EVIS}(见图 5(b)5(d));根据区域能量自适应准则构建能量权重{β1, β2},计算公式如下:
(11)

根据式(11)可知,若某一区域的能量越大,则与之相对应的加权系数就越大,在最终的能量权重图中所占的比例就越高;反之,较小的区域能量对应较小的加权系数,对能量权重图的贡献也就越小,符合图像本身特征对权重系数的影响。
3) 阶段3
根据阶段1获得的显著度权重图{α1, α2}与阶段2获得的能量权重图{β1, β2},结合自适应准则计算联合权重图{γ1, γ2},计算公式如下:
(12)

通过自适应联合权重对显著部分{ SIR, SVIS}进行加权融合,得到融合后的显著部分SF,计算公式如下:
(13)

根据式(13)可知,在图像显著度与区域能量的双重约束下,不仅能够保留图像本身的特征,而且能够突显显著性特征,提升场景的辨识度。
2.4 图像重建 根据不同的融合规则得到融合后的低秩部分GF与显著部分SF后,舍弃稀疏噪声{N1, N2},进行图像重建,得到融合后的图像F,计算公式如下:
(14)

2.5 算法实现 输入:红外图像IR,可见光图像VIS。
输出:融合图像F
步骤1??将图像IR与VIS输入DLatLRR模型,输出二者的低秩部分、显著部分和稀疏噪声。
步骤2??基于VGG 16的图像低秩部分融合。
步骤2.1??将低秩部分输入VGG 16网络,提取其深度特征。
步骤2.2??取前4个卷积组的多通道特征图,以L1进行压缩。
步骤2.3??单通道特征图3×3平滑滤波,计算归一化权重图。
步骤2.4??对4组权重图进行上采样,指导低秩部分进行融合。
步骤2.5??以最大值准则选择融合系数,得到融合低秩部分。
步骤3??基于联合特征的图像显著部分融合。
步骤3.1??计算源图像显著度,通过均值加权法构建显著性权重。
步骤3.2??计算显著部分区域能量,通过自适应加权构建能量权重。
步骤3.3??根据显著性权重和能量权重构建联合权重。
步骤3.4??以联合权重指导显著部分融合,得到融合显著部分。
步骤4??舍弃稀疏噪声,将融合低秩部分与融合显著部分进行叠加,得到融合图像F
3 实验评估 3.1 实验设置 为验证DLatLRR+VGG 16算法的可行性与有效性,从TNO Image Fusion Dataset中选取5组经过配准的红外与可见光图像进行融合实验。实验仿真平台采用配置为Intel Core i7-9700K CPU,主频3.6 GHz,运行内存64 GB,搭载64位Windows 10系统的台式机,编程环境为MATLAB 2018b,结合MatConvNet深度学习工具包,其版本为1.0-beta 25,C++编译环境为VS 2015。在DLatLRR+VGG 16算法中,DLatLRR的正则化平衡参数λ=0.8,分解层数为1,VGG 16参数源于MatConvNet官方发布的VGG 16预训练模型。
此外,将本文算法的融合图像与交叉双边滤波算法(CBF)[4]、引导滤波算法(GF)[5]、卷积稀疏表示算法(CSR)[10]、联合稀疏表示算法(JSR、JSRSD)[11-12]、非下采样轮廓波变换结合稀疏表示算法(NSCT+SR)、非下采样剪切波变换结合脉冲耦合神经网络算法(NSST+PCNN)、孪生卷积神经网络算法(SCNN)[14]及DenseFuse算法[15]的融合结果对比。
3.2 实验分析 实验结果的分析包括主观评价和客观评价2部分。主观评价根据人眼视觉对融合结果的优劣进行直观地判断。5组红外与可见光图像的融合结果如图 6所示,(a)为红外图像,主要用于描述场景中的热源目标等的轮廓,(b)为可见光图像,用于呈现场景的背景信息并捕捉场景的细节特征,(c)~(k)为各种对比算法的融合图像,(c)、(d)、(e)、(f)、(g)、(j)、(k)分别为文献[4]、[5][10][11][12][14][15]算法的融合图像,(h)、(i)分别为NSCT+SR、NSST+PCNN算法的融合图像,(l)为本文算法的融合图像。
图 6 图像融合 Fig. 6 Image fusion
图选项




通过图 6的对比可知,CBF算法得到的多组融合图像受噪声的干扰较大,GF算法得到的融合图像整体上可满足场景认知的需求,但是在局部细节的表达上略有不足,CSR算法的融合图像中存在融合不完全引起的黑色斑块,与CBF算法类似,融合图像的视觉效果较差,JSR、JSRSD算法得到的图像中融合不完全的区域较小,但在一定程度上影响图像的视觉效果,NSCT+SR算法的融合图像略显模糊,整体对比度低,图像的可理解性较差,NSST+PCNN算法融合图像的亮度偏低,在场景中的物体融合区域出现了较为明显的黑色重影,SCNN算法的融合图像虽然信息丰富度高,但是图像中显著目标的轮廓不够突出,场景辨识度一般,DenseFuse算法的融合图像在视觉效果上与SCNN类似,而且在图像中人物轮廓的融合处出现了锯齿波纹。综上所述,仅有本文算法的融合图像不仅清晰度高,层次鲜明,细节信息丰富,受噪声影响小,而且图像的对比度较高,场景中的显著区域、显著目标相对更加突出。
主观评价虽然能够较为直接地判定融合结果的优劣,但是不同的人视觉敏感度存在差异,其评判结果具有片面性,因此综合客观评价指标对融合结果进行综合评判。实验采用结构相似性(SSIM)[21]、线性相关度(CC)、峰值信噪比(PSNR)、相关差异和(SCD)[22]及噪声产生率(Nab/f)[23] 5种评价指标进行客观评价。SSIM用于衡量融合图像与源图像的结构相似度,CC用于衡量融合图像与源图像的线性相关程度,PSNR用于衡量融合图像在融合过程中的失真程度,SCD用于衡量融合图像与源图像总的相关性,Nab/f用于衡量图像融合过程中所产生的噪声或伪影,反映图像的清晰程度。其中,除Nab/f之外,其余均为正向指标,数值越大越好,Nab/f值越小越好。5组图像的各项指标如图 7所示。
图 7 客观评价指标 Fig. 7 Objective evaluation index
图选项




通过图 7可以看出,本文算法所得融合图像的SSIM、CC指标较之对比算法均有较大的领先,说明融合图像与源图像在亮度、对比度等方面具有较高的相似度,在图像的自身结构上高度统一。本文算法的融合图像具有较小的Nab/f值,表明在融合过程中所产生的噪声较小,这是由于算法在融合时舍弃了稀疏噪声部分,使得融合图像的清晰度更高。经测算,本文算法的SCD、SSIM、CC等指标的最大提升值为0.73、0.15、0.1,Nab/f的最大缩减值为0.041 2。对于PSNR指标,本文算法的领先幅度不太大,甚至出现低于对比算法的情况,这是由于PSNR是由2幅图像对应像素点之间的误差决定,并未考虑到人眼的视觉特性,且人眼对误差的敏感度并不是绝对的,因而会出现评价结果与人的主观感觉不一致的情况。综上所述,结合视觉效果评价得出的结论,本文算法确能较好地实现红外与可见光图像的融合。
4 结论 1) DLatLRR算法可较好地对红外与可见光图像进行分解,有效地分离图像的背景信息、提取图像的特征信息并滤出图像的稀疏噪声。
2) DLatLRR+VGG 16算法可实现红外与可见光图像的融合,融合图像的对比度较高、视觉效果好,能够保留源图像的大部分有效信息,更有利于场景辨识;融合图像在SCD、SSIM等评价指标上的提高可达到10%~20%。
为使本文算法能处理各种类型的图片,仍需要优化图像的分解及分解后各部分融合算法的各项参数。

参考文献
[1] JIN X, JIANG Q, YAO S W, et al. A survey of infrared and visual image fusion methods[J]. Infrared Physics & Technology, 2017, 85: 478-501.
[2] MA J Y, MA Y, LI C. Infrared and visible image fusion methods and applications: A survey[J]. Information Fusion, 2018, 45: 153-178.
[3] LI S T, KANG X D, FANG L Y, et al. Pixel-level image fusion: A survey of the state of the art[J]. Information Fusion, 2016, 33: 100-112.
[4] KUMAR B K S. Image fusion based on pixel significance using cross bilateral filter[J]. Signal, Image and Video Processing, 2015, 9(5): 1193-1204. DOI:10.1007/s11760-013-0556-9
[5] LI S T, KANG X D, HU J W. Image fusion with guided filtering[J]. IEEE Transactions on Image Processing, 2013, 22(7): 2864-2875. DOI:10.1109/TIP.2013.2244222
[6] 蔡怀宇, 卓励然, 朱攀, 等. 基于非下采样轮廓波变换和直觉模糊集的红外与可见光图像融合[J]. 光子学报, 2018, 47(6): 0610002.
CAI H Y, ZHUO L R, ZHU P, et al. Fusion of infrared and visible images based on non-subsampled contourlet transform and intuitionistic fuzzy set[J]. Acta Photonica Sinica, 2018, 47(6): 0610002. (in Chinese)
[7] 江泽涛, 吴辉, 周哓玲. 基于改进引导滤波和双通道脉冲发放皮层模型的红外与可见光图像融合算法[J]. 光学学报, 2018, 38(2): 0210002.
JIANG Z T, WU H, ZHOU X L. Infrared and visible image fusion algorithm based on improved guided filtering and dual-channel spiking cortical model[J]. Acta Optica Sinica, 2018, 38(2): 0210002. (in Chinese)
[8] 邓辉, 王长龙, 胡永江, 等. 基于非下采样双树复轮廓波与自适应分块的红外与可见光图像融合[J]. 光子学报, 2019, 48(7): 0710006.
DENG H, WANG C L, HU Y J, et al. Fusion of infrared and visible images based on non-subsampled duak tree complex contourlet and adaptive block[J]. Acta Photonica Sinica, 2019, 48(7): 0710006. (in Chinese)
[9] 吴冬鹏, 毕笃彦, 何林远, 等. 基于NSSCT的红外与可见光图像融合[J]. 光学学报, 2017, 37(7): 0710003.
WU D P, BI D Y, HE L Y, et al. A fusion algorithm of infrared and visible image based on NSSCT[J]. Acta Optica Sinica, 2017, 37(7): 0710003. (in Chinese)
[10] LIU Y, CHEN X, WARD R K, et al. Image fusion with convolutional sparse representation[J]. IEEE Signal Processing Letters, 2016, 23(12): 1882-1886. DOI:10.1109/LSP.2016.2618776
[11] ZHANG Q, FU Y, LI H, et al. Dictionary learning method for joint sparse representation-based image fusion[J]. Optical Engineering, 2013, 52(5): 057006. DOI:10.1117/1.OE.52.5.057006
[12] LIU C H, QI Y, DING W R. Infrared and visible image fusion method based on saliency detection in sparse domain[J]. Infrared Physics & Technology, 2017, 83: 94-102.
[13] LIU Y, CHEN X, WANG Z F, et al. Deep learning for pixel-level image fusion: Recent advances and future prospects[J]. Information Fusion, 2018, 42: 158-173. DOI:10.1016/j.inffus.2017.10.007
[14] LIU Y, CHEN X, CHENG J, et al. Infrared and visible image fusion with convolutional neural networks[J]. International Journal of Wavelets, Multiresolution and Information Processing, 2018, 16(3): 1850018. DOI:10.1142/S0219691318500182
[15] LI H, WU X J. DenseFuse: A fusion approach to infrared and visible images[J]. IEEE Transactions on Image Processing, 2019, 28(5): 2614-2623. DOI:10.1109/TIP.2018.2887342
[16] LIU G C, LIN Z C, YU Y. Robust subspace segmentation by low-rank representation[C]//Proceedings of the 27th International Conference on Machine Learning, 2010: 663-670.
[17] LIU G C, YAN S C. Latent low-rank representation for subspace segmentation and feature extraction[C]//IEEE International Conference on Computer Vision. Piscataway: IEEE Press, 2011: 1615-1622.
[18] KAREN S, ANDREW Z. Very deep convolutional networks for large-scale image recognition[C]//International Conference on Learning Representations, 2015, 5(3): 345-358.
[19] MA J L, ZHOU Z Q, WANG B, et al. Infrared and visible image fusion based on visual saliency map and weighted least square optimization[J]. Infrared Physics & Technology, 2017, 82: 8-17.
[20] SRIVASTAVA R, PRAKASH O, KHARE A. Local energy-based multimodal medical image fusion in curvelet domain[J]. IET Computer Vision, 2016, 10(6): 513-527. DOI:10.1049/iet-cvi.2015.0251
[21] WANG Z, BOVIK A C. A universal image quality index[J]. IEEE Signal Processing Letters, 2002, 9(3): 81-84. DOI:10.1109/97.995823
[22] ASLANTAS V, BENDES E. A new image quality metric for image fusion: The sum of the correlations of differences[J]. International Journal of Electronics and Communications, 2015, 69(12): 1890-1896. DOI:10.1016/j.aeue.2015.09.004
[23] KUMAR B K S. Multifocus and multispectral image fusion based on pixel significance using discrete cosine harmonic wavelet transform[J]. Signal, Image and Video Processing, 2013, 7(6): 1125-1143. DOI:10.1007/s11760-012-0361-x


相关话题/图像 信息 网络 计算 结构

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19
  • BP神经网络预测复合材料热压罐成型均匀性*
    复合材料具有比强度、比刚度高、材料力学性能可设计性等优点,是轻质高效结构设计的理想材料。由于其优良的特性,复合材料被广泛应用于航空航天和军工等领域。常见的复合材料成型工艺有热压罐成型。热压罐成型指将单层预浸料按预定方向铺叠成的复合材料坯料放在热压罐内,在给定温度和压力下完成固化过程的工艺方法。固化过 ...
    本站小编 Free考研考试 2021-12-25
  • 空域扇区网络结构特性分析及韧性评估*
    近十年来,中国国内航空运输量连续保持高速增长态势,主要运输指标实现逐年快速增长。与此带来的航班延误、空域拥挤等问题也日益严重,加重了管制员的工作负荷,增加了安全隐患。而扇区是依据空域内的航路结构及通信导航监视能力,为减轻管制员工作负荷、提高运行安全和效率而划设的空域单元。因此,研究扇区网络特性及在外 ...
    本站小编 Free考研考试 2021-12-25
  • 复合材料飞机接地回流网络建模与阻抗分析*
    大规模使用复合材料是现代飞机发展的一个重大趋势,复合材料用量是当今全球航空业衡量飞机先进性的重要指标[1-2]。与传统的金属材料相比,先进的复合材料对于飞机的减重、增加强度、耐腐蚀、简化维护都大有益处,但相应地也会在飞机电力系统的接地系统设计方面带来一系列问题。传统的全金属机身导电性能优良,在飞机电 ...
    本站小编 Free考研考试 2021-12-25
  • 基于结构分区与应变电桥解耦的支柱式主起落架载荷测量*
    飞机在起降和地面运行过程中,飞行员需适时实施滑行、转弯、回转、刹车、滑跑起飞、着陆等各种操作和动作,加上跑道不平度、道面突风及飞机离地或接地姿态变化等因素,综合导致飞机起落架的受载和传载复杂多变,对飞机起落架的实际受载进行测量具有极其重要的工程意义。应变电测法是国内外飞行实测飞机载荷的常用方法[1- ...
    本站小编 Free考研考试 2021-12-25
  • 基于乙炔基封端酰亚胺和氰酸酯树脂的互穿网络聚合物*
    氰酸酯(BADCy)是一类性能优异的热固性树脂,具有较高的玻璃化转变温度和力学性能,较低的介电常数和介电损耗,吸湿率低,固化过程无副产物释放,与各种增强材料的相容性好。因此,氰酸酯作为一种高性能基体树脂在航空航天和微电子等领域得到了广泛的应用。在氰酸酯的分子结构中,苯环和三嗪环之间有一个柔性醚键,使 ...
    本站小编 Free考研考试 2021-12-25
  • 软件定义时间触发网络的调度算法优化*
    在具有时间、任务和安全等多关键性需求下的航空电子系统中,网络一直是体系架构的核心技术之一。时间触发以太网(Time-TriggeredEthernet,TTE)是一种基于802.3以太网的确定性组网方案,增加了时间触发(Time-Trigger,TT)机制,提高了高关键级别任务的消息传输确定性[1- ...
    本站小编 Free考研考试 2021-12-25
  • 基于异构网络表示学习的评分预测模型*
    近年来,电商业蓬勃发展使得网络购物及在线评论已经完全融入人们的生活。这些电商拥有大量的用户,多年来也积累了丰富的用户购物信息。将这些数据应用到推荐系统上,不仅能够帮助用户选择、发现符合用户兴趣的商品,还能够为商家发现潜在用户,提供商业价值。推荐效果的好坏依赖于用户对商品感兴趣程度的预测,评分预测就是 ...
    本站小编 Free考研考试 2021-12-25
  • 基于时空图卷积网络的无人机网络入侵检测方法*
    近年来,无人机在军事和民用领域的网络化应用日益广泛。无人机网络多部署和应用于恶劣、无人值守的环境中,更易遭受各种网络攻击,如虫洞攻击、拒绝服务攻击和泛洪攻击等[1]。网络入侵检测技术作为一种主动网络防御技术,通过监视网络运行状态,能够识别并有效应对各种网络攻击行为,确保网络可靠运行[2]。传统的网络 ...
    本站小编 Free考研考试 2021-12-25
  • 函数调用网络的结构属性及其静态鲁棒性*
    自然界有许多复杂系统都可以用复杂网络来描述[1],如蛋白质网[2]、铁路网[3]、航空网[4]等。复杂网络为研究软件系统的结构提供了一种有力的工具[5]。2002年,Valverde等[6]首次将复杂网络理论应用到软件系统的拓扑结构中。Valverde[7]和Myers[8]等分析了开源软件,用有向 ...
    本站小编 Free考研考试 2021-12-25
  • 基于信息素决策的无人机集群协同搜索算法*
    随着无人机(UAV)技术的蓬勃发展,无人机在侦察探测、搜索救援等方面大量运用。由于无人机集群在机载功能和抗未知因素能力等方面具有优势[1-2],在执行对地目标搜索任务时效率更高、抗毁性更强。针对搜索问题,国内外****进行了深入而广泛的研究。从搜索模型来看,最早开始研究的模型是穷举覆盖航路规划模型, ...
    本站小编 Free考研考试 2021-12-25