删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

基于SIFT字典学习的引导滤波多聚焦图像融合

本站小编 哈尔滨工业大学/2019-10-24

基于SIFT字典学习的引导滤波多聚焦图像融合

陈蔓1,2,钟勇1,李振东1,2

(1.中国科学院 成都计算机应用研究所, 成都 610041;2.中国科学院大学,北京 100049)



摘要:

目前多数多聚焦图像融合算法仅仅针对解决某一类问题,如融合结果的局部细节保留能力差、空间连续性不足和对未配准的源图像鲁棒性差等.为能够同时解决以上问题,提出了一种基于SIFT字典学习的引导滤波多聚焦图像融合算法.该算法通过学习子字典克服了图像低秩表示具有全局性而局部细节描述不足的缺陷,同时子字典的分类利用图像SIFT特征的平移不变、尺度不变等特性,消除了未配准源图像融合结果出现伪影的现象.此外,在源图像的低秩表示系数融合过程中引入引导滤波,增加了融合图像的空间连续性.引导滤波的窗口大小是根据特征内容和非特征内容进行自适应选取,即属于特征内容的点选取较小的窗口,而属于非特征内容的点选取较大的窗口.为验证算法的有效性,实验过程中选取6组数据,包括3组广泛应用于研究的多聚焦图像以及3组实际拍摄的多聚焦图像.实验结果表明,该算法从主观视觉效果的定性分析和客观融合质量评价的定量分析都优于当前主流的多聚焦图像融合算法.

关键词:  图像融合  SIFT  低秩表示  字典学习  引导滤波

DOI:10.11918/j.issn.0367-6234.201806014

分类号:TP399

文献标识码:A

基金项目:四川省科技厅科技成果转化项(2014CC0043); 四川省科技创新苗子工程项目(SCMZ2006012)



Multi-focus image fusion based on SIFT dictionary learning and guided filtering

CHEN Man1,2,ZHONG Yong1,LI Zhendong1,2

(1. Chengdu Institute of Computer Applications, Chinese Academy of Sciences, Chengdu, 610041; 2. University of Chinese Academy of Science, Beijing 100049)

Abstract:

In order to solve the problem that the local detail retention ability, spatial continuity and non-registration problems of most multi-focus image fusion algorithms cannot be improved at the same time, this paper proposes a multi-focus image fusion algorithm based on SIFT dictionary learning and guided filtering. The algorithm overcomes the problem that the low rank representation of image can capture the global structure but could not preserve the local structure by learning sub-dictionaries. The classification of the sub-dictionaries utilizes the translation invariance and the scale invariance etc. of SIFT to eliminate the fusion artifacts of unregistered images. In addition, the adaptive-window guided filtering is performed during the low rank representation coefficients fusion progress, which increases the spatial continuity of fused image. Pixels with rich texture assign to small window, while weak texture pixels choose large window. We select 6 groups of data, including 3 groups of widely used images and 3 groups of real-world images for verifying the validity of the proposed algorithm. Experimental results show that this algorithm outperforms the current mainstream multi-focus image fusion algorithms from qualitative analysis and quantitative analysis.

Key words:  image fusion  SIFT  low rank representation  dictionary learning  guided filtering


陈蔓, 钟勇, 李振东. 基于SIFT字典学习的引导滤波多聚焦图像融合[J]. 哈尔滨工业大学学报, 2018, 50(11): 59-66. DOI: 10.11918/j.issn.0367-6234.201806014.
CHEN Man, ZHONG Yong, LI Zhendong. Multi-focus image fusion based on SIFT dictionary learning and guided filtering[J]. Journal of Harbin Institute of Technology, 2018, 50(11): 59-66. DOI: 10.11918/j.issn.0367-6234.201806014.
基金项目 四川省科技厅科技成果转化项(2014CC0043);四川省科技创新苗子工程项目(SCMZ2006012) 作者简介 陈蔓(1991—),女,博士研究生;
钟勇(1966—),男,研究员,博士生导师 通信作者 陈蔓,chenman13@mails.ucas.edu.cn 文章历史 收稿日期: 2018-06-04



Contents            -->Abstract            Full text            Figures/Tables            PDF


基于SIFT字典学习的引导滤波多聚焦图像融合
陈蔓1,2, 钟勇1, 李振东1,2    
1. 中国科学院 成都计算机应用研究所,成都 610041;
2. 中国科学院大学,北京 100049

收稿日期: 2018-06-04
基金项目: 四川省科技厅科技成果转化项(2014CC0043);四川省科技创新苗子工程项目(SCMZ2006012)
作者简介: 陈蔓(1991—),女,博士研究生;
钟勇(1966—),男,研究员,博士生导师
通信作者: 陈蔓,chenman13@mails.ucas.edu.cn


摘要: 目前多数多聚焦图像融合算法仅仅针对解决某一类问题,如融合结果的局部细节保留能力差、空间连续性不足和对未配准的源图像鲁棒性差等.为能够同时解决以上问题,提出了一种基于SIFT字典学习的引导滤波多聚焦图像融合算法.该算法通过学习子字典克服了图像低秩表示具有全局性而局部细节描述不足的缺陷,同时子字典的分类利用图像SIFT特征的平移不变、尺度不变等特性,消除了未配准源图像融合结果出现伪影的现象.此外,在源图像的低秩表示系数融合过程中引入引导滤波,增加了融合图像的空间连续性.引导滤波的窗口大小是根据特征内容和非特征内容进行自适应选取,即属于特征内容的点选取较小的窗口,而属于非特征内容的点选取较大的窗口.为验证算法的有效性,实验过程中选取6组数据,包括3组广泛应用于研究的多聚焦图像以及3组实际拍摄的多聚焦图像.实验结果表明,该算法从主观视觉效果的定性分析和客观融合质量评价的定量分析都优于当前主流的多聚焦图像融合算法.
关键词: 图像融合    SIFT    低秩表示    字典学习    引导滤波    
Multi-focus image fusion based on SIFT dictionary learning and guided filtering
CHEN Man1,2, ZHONG Yong1, LI Zhendong1,2    
1. Chengdu Institute of Computer Applications, Chinese Academy of Sciences, Chengdu, 610041;
2. University of Chinese Academy of Science, Beijing 100049


Abstract: In order to solve the problem that the local detail retention ability, spatial continuity and non-registration problems of most multi-focus image fusion algorithms cannot be improved at the same time, this paper proposes a multi-focus image fusion algorithm based on SIFT dictionary learning and guided filtering. The algorithm overcomes the problem that the low rank representation of image can capture the global structure but could not preserve the local structure by learning sub-dictionaries. The classification of the sub-dictionaries utilizes the translation invariance and the scale invariance etc. of SIFT to eliminate the fusion artifacts of unregistered images. In addition, the adaptive-window guided filtering is performed during the low rank representation coefficients fusion progress, which increases the spatial continuity of fused image. Pixels with rich texture assign to small window, while weak texture pixels choose large window. We select 6 groups of data, including 3 groups of widely used images and 3 groups of real-world images for verifying the validity of the proposed algorithm. Experimental results show that this algorithm outperforms the current mainstream multi-focus image fusion algorithms from qualitative analysis and quantitative analysis.
Keywords: image fusion    SIFT    low rank representation    dictionary learning    guided filtering    
图像融合是计算机视觉中的一个重要领域,其目标在于提取2幅及以上源图像的有效信息,合成为1幅包含所有有效信息的图像.图像融合技术应用广泛,如遥感图像融合[1],医学图像融合[2],多聚焦图像融合[3-4]等.本文主要针对的是金属表面纹理的多聚焦图像融合.由于镜头景深受到限制,使CCD图像传感器获得的图像呈现部分位置聚焦、其他位置虚焦的状态.因此需要使用图像融合算法提取出所有聚焦的部分合成一幅完全聚焦的图像,使其能够更加方便人眼观察或者计算机处理.

常用的图像融合算法主要分为2大类:基于空间域和基于变换域.基于空间域的算法主要通过提取图像的空间特征得到对应的权重,然后加权源图像得到最终的融合图像.其代表算法有形态学滤波图像融合[3]、引导滤波图像融合[4]、脉冲耦合神经网络图像融合[5]等.其优点在于能够保持较好的空间连续性,但是细节还原能力较差.基于变换域的算法,其基本思想在于通过对源图像进行多尺度变换,然后对细节部分和近似部分采用不同的融合规则得到融合系数,再进行逆变换得到融合图像.其代表算法有基于Laplacian金字塔分解[6]、基于离散小波变换[7]、基于非下采样轮廓波变换[8]的图像融合等.近年来,基于稀疏表示[9-11]图像融合的出现,使得图像融合效果有了进一步的提升,但是稀疏表示不具有全局性,容易产生块效应.具有全局性的低秩表示算法[12],能够有效解决块效应的问题,但是局部细节保持能力欠缺.

结合已有算法的优缺点,提出一种基于SIFT字典学习的引导滤波图像融合算法.图像的低秩表示具有全局表示能力,但是局部细节描述不足,本文通过学习不同类别的子字典,增强了融合图像中的细节部分,并且能够适用于未配准的源图像.基于SIFT字典学习的引导滤波图像融合算法首先使用滑动窗口技术对图像进行分块,再提取每个块的SIFT特征,接着使用k-means对SIFT特征进行聚类,然后对每个类别学习子字典,最后合成一个整体字典.得到字典之后,首先将每幅源图像进行低秩表示,按列向量取1范数最大者为融合图的低秩表示系数,最后乘以字典得到融合图像.为增加融合图的空间连续性,在融合阶段引入引导滤波[13],并使用熵对内容(特征内容和非特征内容)进行区分,根据不同内容类别选取不同大小的引导滤波窗口.实验结果表明,基于SIFT字典学习的引导滤波图像融合在局部细节保留能力、空间连续性和未配准问题方面都取得了非常好的结果.

1 相关技术 1.1 低秩表示低秩表示[12](Low-Rank Representation, LRR)是将数据集S表示为字典D和一个系数矩阵W的乘积,即S = DW.其中W是低秩的,则称W是数据集S在字典D下的低秩表示,可转换为求解如下的优化问题

$\mathop {\min }\limits_{W,E} \left( {{{\left\| \mathit{\boldsymbol{W}} \right\|}_ * } + \lambda {{\left\| \mathit{\boldsymbol{E}} \right\|}_{2,1}}} \right),{\rm{s}}.{\rm{t}}.\;\mathit{\boldsymbol{S}} = \mathit{\boldsymbol{DW}} + \mathit{\boldsymbol{E}}.$ (1)

式中:λ>0为平衡因子,E为误差矩阵,‖ X*X的核范数,即求X奇异值之和,‖ X2, 1为21范数,其计算公式如下

${\left\| \mathit{\boldsymbol{X}} \right\|_{2,1}} = \sum\nolimits_{j = 1}^n {\sqrt {\sum\nolimits_{i = 1}^m {{{\left[ \mathit{\boldsymbol{X}} \right]}_{ij}}^2} } } .$ (2)

式中XRm×n.式(1)由拉格朗日乘子相关算法[14]计算即可.

1.2 引导滤波引导滤波[13](Guided Filtering, GF)是一种线性移可变的滤波操作,并希望输出图像能与原始图像尽量接近.假设引导图像G和输出图像q间是一种局部线性关系,即

${\mathit{\boldsymbol{q}}_i} = {a_k}{\mathit{\boldsymbol{G}}_i} + {b_k},{\forall _i} \in {\mathit{\boldsymbol{\omega }}_k}.$ (3)

式中:akbk为线性系数,ωk是以像素k为中心的局部窗口,可见在局部窗口内,线性系数为常量.为求解线性系数,需要最小化如下的误差函数Er.

${E_r}\left( {{a_k},{b_k}} \right) = \sum\limits_{i \in {\omega _k}} {\left( {{{\left( {{a_k}{\mathit{\boldsymbol{G}}_i} + {b_k} - {\mathit{\boldsymbol{p}}_i}} \right)}^2} + \varepsilon {a_k}^2} \right)} .$ (4)

式中:p为输入图像,ε为衰减系数,εak2为衰减项,防止参数过大.由求解结果可知,当引导图像G为输入图像本身时,引导滤波则起到边缘保持滤波的作用,即图像平滑的同时,边缘能够保持不变.

2 本文算法 2.1 基于SIFT的字典学习基于SIFT的字典学习方法主要包括以下几个部分:基于滑动窗口技术分块、SIFT特征提取、k-means聚类、子字典学习和字典合成.

1) 分块.将源图像Ii(i=1, 2, ..., N)使用滑动窗口技术进行分块,N为源图像总数.设W, H分别为源图像宽高,s为滑动窗口大小,步长为t,则每幅源图像有$Q=\left( \left\lfloor \left( W\text{-}s \right)/t \right\rfloor +1 \right)\times (\left\lfloor \left( H-s \right)/t \right\rfloor +1) $个块用于字典学习,即学习总块数为NQ,其中参数st的选取将在实验部分进行说明.

2) SIFT特征提取.计算第j块的SIFT特征,记为Bj(j=1, 2, ..., NQ).为能够满足k-means聚类输入要求,每个块的SIFT特征维度应该保持一致.提取SIFT特征前需先提取每个块的关键点,即为DoG尺度空间共26个邻域(见图 1)的极大、极小值点,并去除部分不合格的点所剩下的特征点. DoG有效层数S=3,初始尺度δ0=1.6,参数和去除条件均参考文献[15].由于每个块的关键点个数不一致,SIFT特征提取将分为以下3种情况:

Figure 1
图 1 DoG尺度空间及26个邻域 Figure 1 DoG scale space and 26 neighborhoods


情况1:无关键点.

若第j块无关键点,则直接将其分为第0类,记Uj=0,Uj为第j块的类别.

情况2:关键点个数为1.

若第j块只有1个关键点,则直接使用该关键点的特征作为第j块的特征,即

${\mathit{\boldsymbol{B}}_j} = {\mathit{\boldsymbol{P}}_1}.$ (5)

式中: Pj为第j′个关键点的SIFT特征,PjRTT为SIFT特征的维度,本文采用8个方向和统计16个小块的梯度方向直方图,因此T=128.

情况3:关键点个数大于1.

若第j块大于1个关键点,则取特征最明显的关键点,本文使用了1范数,SIFT特征的1范数越大表示方向越多或越明显,即

${\mathit{\boldsymbol{B}}_j} = \mathop {\max }\limits_{{\mathit{\boldsymbol{P}}_{j'}}} {\left\| {{\mathit{\boldsymbol{P}}_{j'}}} \right\|_1}.$ (6)

情况2、3的块将用于第3)步的聚类算法.

3) k-means聚类.假设聚类总数为K,若按照SIFT特征方向进行聚类,则有K=8,具体流程如下:

S1:首先初始化K个聚类中心,分别为$ \left\{ {\mathit{\boldsymbol{\mu }}_1^0, {\rm{ }}\mathit{\boldsymbol{\mu }}_2^0, ..., {\rm{ }}\mathit{\boldsymbol{\mu }}_K^0} \right\}$,并设置迭代次数it=0和最大迭代次数Tmax=100.

S2:使用欧氏距离作为特征向量间距离的度量标准,并对所有特征向量进行初始划分

$\mathit{\boldsymbol{U}}_j^{it} = \mathop {\min }\limits_k {\left\| {{\mathit{\boldsymbol{B}}_j} - \mathit{\boldsymbol{\mu }}_k^{it}} \right\|_2},$ (7)

$\mathit{\boldsymbol{C}}_k^{it} = \mathit{\boldsymbol{C}}_k^{it} \cup \left\{ {{\mathit{\boldsymbol{B}}_j}} \right\}.$ (8)

式中:k={1, 2, ..., K}为类别标签,μkit为第k类的聚类中心在第it次迭代的结果,Ujit为第j块在第it次迭代的类别,Ckit为第k类的特征向量在第it次迭代的集合.

S3:it+1→it,更新每个类别样本的聚类中心为

$\mathit{\boldsymbol{\mu }}_k^{it} = \frac{1}{{\left| {\mathit{\boldsymbol{C}}_k^{it - 1}} \right|}}\sum\limits_{{\mathit{\boldsymbol{B}}_j} \in \mathit{\boldsymbol{C}}_k^{it - 1}} {{\mathit{\boldsymbol{B}}_j}} .$ (9)

如果*为标量,则| *|为求绝对值; 若*为向量,则|* |为求向量元素个数.

S4:如果满足式(10)或者itTmax,则聚类结束,否则转到S2继续执行.

${\left\| {\mathit{\boldsymbol{\mu }}_k^{it} - \mathit{\boldsymbol{\mu }}_k^{it - 1}} \right\|_2} < \zeta ,$ (10)

式中ζ为误差允许范围,取ζ=10-6.

4) 子字典学习和字典合成

采用一种标准无监督字典学习方法K奇异值分解算法[16](K-Singular Value Decomposition, K-SVD)对K+1(包括无关键点的块)个类别的块分别进行字典学习.学习之前,先将每个块按照行优先顺序展开成列向量的形式.通过K-SVD算法学习之后分别得到子字典D0, D1, ..., DK,最终合成一个完整的字典D = {D0, D1, ..., DK},字典大小设置为256,字典学习过程见图 2.

Figure 2
图 2 基于SIFT的字典学习过程 Figure 2 SIFT-based dictionary learning process


2.2 引导滤波低秩系数融合字典学习完毕之后,对单张源图像Ii进行低秩表示.即将求取的Ii的分块向量化,得到对应的Vi,然后结合式(1)得到如下优化公式

$\mathop {\min }\limits_{{\mathit{\boldsymbol{W}}_i},{{\mathit{\boldsymbol{\tilde E}}}_i}} \left( {{{\left\| {{\mathit{\boldsymbol{W}}_i}} \right\|}_ * } + \lambda {{\left\| {{{\mathit{\boldsymbol{\tilde E}}}_i}} \right\|}_{2,1}}} \right),{\rm{s}}.{\rm{t}}.\;{\mathit{\boldsymbol{V}}_i} = \mathit{\boldsymbol{D}}{\mathit{\boldsymbol{W}}_i} + {{\mathit{\boldsymbol{\tilde E}}}_i}.$ (11)

式中:i={1, 2, ..., N},Wi为第i幅图像的低秩表示系数,$\mathit{\boldsymbol{\tilde E}}{_i} $为第i幅图像的误差矩阵,若误差较小则λ取较大值,否则取较小值[12],取λ =4.5.使用拉格朗日乘子法即可求解式(11),得到每幅源图像的低秩表示,然后对其使用引导滤波相关的融合规则,具体流程如下:

S1:构建输入图像.若Wi的第q列的1范数沿着z轴方向取得最大值,则该列置1,否则置0,公式为

${\mathit{\boldsymbol{G}}_i}\left( {:,q} \right) = \left\{ \begin{array}{l}1,\;\;\;\;{\rm{s}}.{\rm{t}}.\;i = \mathop {\max }\limits_{i'} \left\{ {{{\left\| {{\mathit{\boldsymbol{W}}_{i'}}\left( {:,q} \right)} \right\|}_1}} \right\};\\0,\;\;\;\;其他.\end{array} \right.$ (12)

式中Gi为输入图像,Gi(:, q)为Gi的第q列.

S2:进行引导滤波.以Gi作为输入图像,对应的Wi作为引导图像进行引导滤波,得到引导滤波后的结果ri

${\mathit{\boldsymbol{r}}_i} = {f_{{s_\mathit{\boldsymbol{\omega }}},\varepsilon }}\left( {{\mathit{\boldsymbol{G}}_i},{\mathit{\boldsymbol{W}}_i}} \right).$ (13)

式中:f为引导滤波操作,sω, εf的输入参数,sω是引导滤波的窗口大小,即式(3)中的ωk的大小,ε=0.01对应式(4)中的衰减系数.

S3:计算窗口自适应条件. sω会根据内容(特征内容和非特征内容)进行自适应变化,规则如下:沿着z轴方向求各列的熵(本文使用列的2范数),然后设置阈值,大于阈值者为非特征内容,引导滤波时使用较大窗口; 否则为特征内容,引导滤波时使用较小窗口.熵计算公式为

${\mathit{\boldsymbol{\varphi }}_i}\left( {:,q} \right) = {\left\| {{\mathit{\boldsymbol{W}}_i}\left( {:,q} \right)} \right\|_2}/\sum\limits_{j = 1}^{j = N} {{{\left\| {{\mathit{\boldsymbol{W}}_j}\left( {:,q} \right)} \right\|}_2}} ,$ (14)

${\mathit{\boldsymbol{E}}_{\rm{n}}}\left( {p,q} \right) = \sum\limits_{i = 1}^{i - N} { - {\varphi _i}\left( {p,q} \right)\log {\varphi _i}\left( {p,q} \right)} .$ (15)

式中:φ为概率,是直接将第q列的低秩表示系数的2范数沿z轴方向归一化得到,‖*‖2为2范数,p, q为低秩系数的坐标,En为熵.将En除以最大值进行归一化:

${E_{\max }} = \max \left( {{\mathit{\boldsymbol{E}}_{\rm{n}}}} \right),$ (16)

${\mathit{\boldsymbol{E}}_{\rm{n}}}\left( {p,q} \right) = {\mathit{\boldsymbol{E}}_{\rm{n}}}\left( {p,q} \right)/{E_{\max }},$ (17)

式中EmaxEn的最大值. sω将满足如下等式

${s_\mathit{\boldsymbol{\omega }}}\left( {p,q} \right) = \left\{ \begin{array}{l}{s_{\rm{b}}},\;\;\;{\rm{s}}.{\rm{t}}.\;\;{\mathit{\boldsymbol{E}}_{\rm{n}}}\left( {p,q} \right) > \tau ;\\{s_{\rm{s}}},\;\;\;{\rm{s}}.{\rm{t}}.\;\;{\mathit{\boldsymbol{E}}_{\rm{n}}}\left( {p,q} \right) \le \tau .\end{array} \right.$ (18)

式中:τ为阈值,取τ=0.95,ss, sb为两个正整数,分别为特征内容和非特征内容区域引导滤波的窗口大小,并满足ss < sb,取ss=3, sb=7.

S4:求取融合系数.使用ri作为权重对Wi进行加权,得到最终的融合低秩表示系数Wf

${\mathit{\boldsymbol{W}}_{\rm{f}}}\left( {p,q} \right) = \sum\nolimits_{i = 1}^{i = N} {{\mathit{\boldsymbol{r}}_i}\left( {p,q} \right){\mathit{\boldsymbol{W}}_i}\left( {p,q} \right)} .$ (19)

S5:获取融合图.结合式(1),可求出融合图的块向量展开形式Vf

${\mathit{\boldsymbol{V}}_{\rm{f}}} = \mathit{\boldsymbol{D}}{\mathit{\boldsymbol{W}}_{\rm{f}}}.$ (20)

Vf还原成图像的形式,重叠部分取平均值即可,得到融合图F.图像融合的整体流程图见图 3.

Figure 3
图 3 整体图像融合框架 Figure 3 The framework of proposed algorithm


3 实验及分析实验使用Genie Nano系列的200万像素的黑白相机,分辨率5.5 μm,同轴光照明. Mitutoyo的物镜和目镜,物镜放大倍率为20X,景深1.8 μm.日本Oriental Motor公司的PMM33BH2步进电机,每次步进1 μm.连续拍摄100帧图像,图像大小为1 472×1 472像素,实验装置见图 4.实验运行环境为MATLAB R2016a,2.4 GHz,16 GB内存.

Figure 4
图 4 实验装置 Figure 4 Experimental device


3.1 实验数据和相关设置为验证提出算法的有效性,使用6组实验数据,包括3组广泛用于研究的多聚焦图像(2帧/组,见图 5)和3组使用图 4装置实际拍摄的图像(100帧/组,见图 6).为说明本文算法的有效性,将其与以下算法进行对比分析:基于引导滤波的图像融合[4](Image Fusion based on Guided Filtering, IF-GF)、基于离散小波变换的图像融合[7](Image Fusion based on Discrete Wavelet Transform, IF-DWT)、基于轮廓波变换的图像融合[8](Image Fusion based on Non-Subsampled Contourlet Transform, IF-NSCT)、基于稀疏表示的图像融合[10](Image Fusion based on Sparse Representation, IF-SR).

Figure 5
图 5 广泛应用于研究的多聚焦图像数据 Figure 5 Examples of widely used multi-focus images


Figure 6
图 6 实际拍摄的多聚焦图像数据 Figure 6 Examples of real-world multi-focus images


3.2 参数设置为给块大小s和步长t设置一个合理的值,本节随机选取1组图像进行仿真实验分析,为方便计算,参数都取2的幂次方.表 1显示了子字典的块数分布,0~8分别代表 9个子字典.块越小越能学习更多的细节,但是块太小不能有效提取SIFT特征,从表 1中可看出,取s=4, 8基本不能提取块的SIFT特征,当s=16, t=1, 2块数分布已经基本合理(如黑体字),而s=16, t=4块数太少,不符合学习条件.若块数过于冗余,会导致字典求解过程中冗余信息反复迭代,使图像有用信息不能完整表达,表 2显示了s=16, t=1, 2重构子字典的误差分布,t=2误差更小(如黑体字).综上,s=16, t=2为较为合理的选择.

表 1
表 1 分块大小对子字典学习的块数分布比较 Table 1 The comparison of block size on the distribution of sub-dictionary learning blocks 分块大小pixel 步长pixel 子字典块数块

0 1 2 3 4 5 6 7 8

1 518 162 0 0 0 0 0 0 0 0

4 2 130 050 0 0 0 0 0 0 0 0

4 32 768 0 0 0 0 0 0 0 0

1 506 526 189 214 1 447 44 129 238 745 518

8 2 126 859 188 196 490 56 43 53 77 56

4 31 957 19 69 24 14 9 142 17 7

1 412 710 10 253 14 148 9 373 8 329 11 535 9 877 9 948 7 845

16 2 104 917 3 032 2 335 3 354 1 946 1 796 2 297 2 311 2 014

4 26 424 699 409 440 515 690 896 796 381



表 1 分块大小对子字典学习的块数分布比较 Table 1 The comparison of block size on the distribution of sub-dictionary learning blocks


表 2
表 2 步长对子字典学习的残差分布比较 Table 2 The comparison of step size on the distribution of sub-dictionary learning residual 步长pixel 子字典块数块

0 1 2 3 4 5 6 7 8

1 1.200 9 1.322 0 2.215 2 2.085 0 1.518 6 1.626 2 2.288 8 1.132 6 1.635 0

2 0.977 3 0.964 3 0.246 6 0.422 8 0.444 4 0.878 5 0.517 0 0.811 6 0.053 3



表 2 步长对子字典学习的残差分布比较 Table 2 The comparison of step size on the distribution of sub-dictionary learning residual


3.3 融合图像质量评价为更加直观的说明实验的效果,使用5类质量评价函数[17](以2幅源图像为例,可推广到多幅),每类评价函数都是值越大,表示融合质量越好.

1) 归一化的互信息(Normalized Mutual Information, QNMI)来源于信息论,是测量源图像的信息在融合图像中的保留程度,式(21)使用其改进形式

${Q_{{\rm{NMI}}}} = 2\left[ {\frac{{MI\left( {{\mathit{\boldsymbol{S}}_1},\mathit{\boldsymbol{F}}} \right)}}{{H\left( {{\mathit{\boldsymbol{S}}_1}} \right) + H\left( \mathit{\boldsymbol{F}} \right)}} + \frac{{MI\left( {{\mathit{\boldsymbol{S}}_2},\mathit{\boldsymbol{F}}} \right)}}{{H\left( {{\mathit{\boldsymbol{S}}_2}} \right) + H\left( \mathit{\boldsymbol{F}} \right)}}} \right].$ (21)

式中:$ H\left( {{\rm{ }}\mathit{\boldsymbol{S}}{_1}} \right)、H({\rm{ }}\mathit{\boldsymbol{S}}{_2})、H\left( {{\rm{ }}\mathit{\boldsymbol{F}}{\rm{ }}} \right)$分别为源图像S1S2和融合图像F的信息熵,MI(Si, F)为SiF间的互信息,其计算公式如下:

$MI\left( {{\mathit{\boldsymbol{S}}_i},\mathit{\boldsymbol{F}}} \right) = H\left( {{\mathit{\boldsymbol{S}}_i}} \right) + H\left( \mathit{\boldsymbol{F}} \right) - H\left( {{\mathit{\boldsymbol{S}}_i},\mathit{\boldsymbol{F}}} \right),$ (22)

式中i={1, 2},H(Si, F)为SiF的联合熵.

2) 梯度相关性(Gradient-based Fusion Metric, QG)是度量图像间边缘信息的相关性为

${Q_{\rm{G}}} = \frac{{\sum\limits_{x = 1}^H {\sum\limits_{y = 1}^W {\left[ {Q_{xy}^{{\mathit{\boldsymbol{S}}_1}\mathit{\boldsymbol{F}}}\omega _{xy}^{{\mathit{\boldsymbol{S}}_1}} + Q_{xy}^{{\mathit{\boldsymbol{S}}_2}\mathit{\boldsymbol{F}}}\omega _{xy}^{{\mathit{\boldsymbol{S}}_2}}} \right]} } }}{{\sum\limits_{x = 1}^H {\sum\limits_{y = 1}^W {\left[ {\omega _{xy}^{{\mathit{\boldsymbol{S}}_1}} + \omega _{xy}^{{\mathit{\boldsymbol{S}}_2}}} \right]} } }},$ (23)

式中:x, y为图像中的坐标,$ Q{^{{\mathit{\boldsymbol{S}}_i}F}}, i = \left\{ {1, 2} \right\}$为边缘信息保留值,ωSi为对应的权重,反映了QSiF的重要程度.

3) 相位一致性(Phase Congruency, QP)定义了和矩相关的度量,因为矩包含角点和边缘的信息,定义如下:

${Q_{\rm{P}}} = {\left( {{P_{\rm{p}}}} \right)^\alpha }{\left( {{P_{\rm{M}}}} \right)^\beta }{\left( {{P_{\rm{m}}}} \right)^\gamma }.$ (24)

式中:$ {P_*}, \{ * = {\rm{p, M, m}}\} $和相关系数有关,下标$ {\rm{p, M, m}}$分别为相位一致、最大和最小矩,$\alpha , \beta , \gamma $分别为3个部分的重要程度.

4) 结构相似度(Structural Similarity, QS)的测量能够近似的反映出图像的形变情况,公式如下:

$\begin{array}{l}{Q_{\rm{S}}} = \frac{1}{{\left| {\mathit{\boldsymbol{\dot W}}} \right|}}\sum\limits_{w \in \dot W} {\left[ {{\lambda _\mathit{\boldsymbol{w}}}Q\left( {{\mathit{\boldsymbol{S}}_1},\mathit{\boldsymbol{F}}\left| \mathit{\boldsymbol{w}} \right.} \right) + \left( {1 - } \right.} \right.} \\\;\;\;\;\;\;\;\left. {\left. {{\lambda _\mathit{\boldsymbol{w}}}} \right)Q\left( {{\mathit{\boldsymbol{S}}_2},\mathit{\boldsymbol{F}}\left| \mathit{\boldsymbol{w}} \right.} \right)} \right].\end{array}$ (25)

式中:$ {\mathit{\boldsymbol{\dot W}}}$为所有局部窗口的集合,λw为局部窗口显著度的比值,$ Q\left( {{\mathit{\boldsymbol{S}}_i}, {\rm{ }}\mathit{\boldsymbol{F|w}}} \right), i = \left\{ {1, 2} \right\}$为通用质量指数(Universal Image Quality Index, UIQI).

5) Chen-Blum度量法(Chen-Blum Metrics, QCB)计算对比度特征在融合图像中的保留程度,公式如下:

${Q_{{\rm{CB}}}} = \frac{1}{{HW}}\sum\limits_{x = 1}^H {\sum\limits_{y = 1}^W {\left[ {\lambda _{xy}^{{\mathit{\boldsymbol{S}}_1}}Q_{xy}^{{\mathit{\boldsymbol{S}}_1}\mathit{\boldsymbol{F}}} + \lambda _{xy}^{{\mathit{\boldsymbol{S}}_2}}Q_{xy}^{{\mathit{\boldsymbol{S}}_2}\mathit{\boldsymbol{F}}}} \right]} } ,$ (26)

式中:x, y为图像中的下标,${\lambda ^{{\mathit{\boldsymbol{S}}_i}}}, i = \left\{ {1, 2} \right\} $为源图像Si的显著特征,$ Q{^{{\mathit{\boldsymbol{S}}_i}F}}$为信息保留值.

3.4 融合结果分析将实验结果分成2部分进行分析:广泛用于研究的多聚焦图像和实际拍摄的多聚焦图像.前者验证提出算法的有效性,后者说明提出算法的泛化能力及有效性.

3.4.1 广泛用于研究的多聚焦图像分析图 5中每组图都是左幅图左部分清晰,右幅图右部分清晰,其中第3组为2幅未完全配准的图像.

图 7分别显示了IF-GF、IF-DWT、IF-NSCT、IF-SR和本文算法对3组图像的融合结果.为便于分析,图 8显示了对应的部分细节放大图(图 8的列对应图 7的行).从放大的细节图中可看出IF-GF的空间连续性较好,没有明显的块效应,但是细节部分较其他变化域算法更为模糊,由A1的“倒影字母”可明显看出. IF-DWT整体较差,融合图基本不能反映出源图像的有效信息. IF-NSCT和本文算法对未配准图像鲁棒性较高,从A13、A15的头发边缘可明显看出,而IF-GF、IF-DWT、IF-SR都有明显的伪影产生,对应矩形框所示. IF-SR因为不具备全局性,所以边缘部分产生了块效应,A9较明显.综上,IF-NSCT和本文算法在细节保留和克服未配准问题都取得了较好的结果,但是IF-NSCT在空间连续性上比较欠缺,如A13矩形框所示.

Figure 7
(a)IF-GF (b) IF-DWT (c) IF-NSCT (d) IF-SR (e)本文算法图 7 广泛应用于研究的多聚焦图像融合结果 Figure 7 Widely used multi-focus image fusion results


Figure 8
图 8 部分细节放大图A Figure 8 Magnified partial details A


表 3用具体的数据进行客观质量评价,利用5个融合质量评价函数,其中加粗的数字为所有算法中的最大值.表中的数据可看出,本文算法除了第2组的QS不是最大值,其他都保持领先,说明该算法在原始信息保留、细节保留、结构保持、对比度保持等方面都比其他主流融合算法更好.此外,IF-GF在QNMIQS指标下取得较好结果,说明基于空域的算法在空间连续性和结构保持方面更占优势.而IF-NSCT在QGQCB指标下的值更高,说明细节保持能力更强.因此,实验结果与理论分析基本达成一致.

表 3
表 3 不同融合算法的融合质量比较A Table 3 Comparison of fusion quality of 5 fusion algorithms A 指标 IF-GF IF-DWT IF-NSCT IF-SR 本文算法

QNMI 0.99 0.90 0.95 0.96 1.04

QG 0.65 0.64 0.74 0.66 0.76

QP 0.74 0.41 0.83 0.63 0.84

QS 0.97 0.90 0.91 0.95 0.97

QCB 0.60 0.52 0.61 0.63 0.70

QNMI 1.13 0.91 0.96 1.05 1.15

QG 0.59 0.50 0.65 0.58 0.66

QP 0.68 0.37 0.73 0.52 0.78

QS 0.96 0.91 0.95 0.95 0.95

QCB 0.67 0.54 0.70 0.71 0.73

QNMI 1.05 0.93 1.01 1.01 1.13

QG 0.65 0.51 0.66 0.56 0.71

QP 0.70 0.42 0.72 0.59 0.78

QS 0.96 0.91 0.96 0.95 0.96

QCB 0.62 0.53 0.64 0.68 0.69



表 3 不同融合算法的融合质量比较A Table 3 Comparison of fusion quality of 5 fusion algorithms A


3.4.2 实际拍摄图像分析实际拍摄图像的每1组都是由凹坑部分(前景)和平面部分(背景)组成,由于拍摄是从上至下进行的,因此都呈现平面部分先聚焦,凹坑后聚焦的状态.

图 9显示了3组图像使用不同融合算法的融合结果图,图 10则显示了对应的部分细节放大图(分别选择边缘、凹坑和平面).从整体融合图中可发现IF-DWT算法存在明显模糊,同广泛应用于研究的图像结果达成一致.图 10的B1~B5选择边缘进行分析,其中B1整体比较平滑,但是细节存在丢失的现象,从边缘附近平面的纹理较明显看出. B3整体对比度非常强烈,但是由边缘旁边的“光晕”可看出(矩形框所示)IF-NSCT算法的结果并不符合人眼的主观视觉感受. B4~B5则表现较好,但是B4仍存在局部块效应(矩形框所示). B6~B10、B11~B15分别选择凹坑细节部分和平面部分进行分析,结果与B1~B5保持一致,需要补充的是B10、B15较B6、B11分别在凹坑和平面上细节更加丰富,且都保持着较高的空间连续性.

Figure 9
(a)IF-GF (b) IF-DWT (c) IF-NSCT (d) IF-SR (e)本文算法图 9 实际拍摄多聚焦图像融合结果 Figure 9 Real-world multi-focus image fusion results


Figure 10
(a) IF-GF (b) IF-DWT (c) IF-NSCT (d) IF-SR (e)本文算法图 10 部分细节放大图B Figure 10 Magnified partial details B


表 4对5种不同的融合算法在5个质量评价指标下的结果进行比较分析,其中加粗的数字为所有算法中的最大值.本文算法在大多数情况下都取得了最优的结果,其他算法的趋势也与广泛应用于研究的图像结果高度一致,验证了本文提出算法在细节保留能力和空间连续性方面的有效性以及对多幅实际拍摄图像具有较好的泛化能力.

表 4
表 4 不同融合算法的融合质量比较B Table 4 Comparison of fusion quality of 5 fusion algorithms B 指标 IF-GF IF-DWT IF-NSCT IF-SR 本文算法

QNMI 47.78 42.51 44.14 47.53 52.98

QG 0.25 0.20 0.30 0.25 0.35

QP 0.39 0.28 0.51 0.41 0.60

QS 0.50 0.34 0.43 0.50 0.55

QCB 0.34 0.30 0.36 0.35 0.37

QNMI 43.71 36.99 40.73 42.89 46.75

QG 0.23 0.18 0.28 0.24 0.29

QP 0.39 0.24 0.50 0.44 0.59

QS 0.49 0.26 0.42 0.47 0.49

QCB 0.34 0.33 0.36 0.36 0.37

QNMI 57.31 42.36 46.77 51.58 56.22

QG 0.22 0.15 0.28 0.24 0.33

QP 0.40 0.27 0.51 0.49 0.58

QS 0.46 0.35 0.45 0.45 0.48

QCB 0.39 0.19 0.44 0.40 0.45



表 4 不同融合算法的融合质量比较B Table 4 Comparison of fusion quality of 5 fusion algorithms B


4 结论本文提出了一种基于SIFT字典学习的引导滤波图像融合算法.该算法使用低秩表示,使融合图像具有全局性,并且通过SIFT进行分类学习子字典,克服了低秩表示局部细节保持能力弱和对未配准源图像鲁棒性差的缺点.另外,通过加入自适应窗口的引导滤波,增强了融合图像的空间连续性.通过选取3组广泛应用于研究的多聚焦图像和3组实际拍摄的多聚焦图像,使用5类质量评价指标验证了提出算法在细节保留、空间连续性和克服未配准问题方面的有效性.


参考文献
[1] GHASSEMIAN H. A review of remote sensing image fusion methods[J]. Information Fusion, 2016, 32(PA): 75. DOI:10.1016/j.inffus.2016.03.003


[2] EL-GAMAL E Z A, ELMOGY M, ATWAN A. Current trends in medical image registration and fusion[J]. Egyptian Informatics Journal, 2016, 17(1): 99. DOI:10.1016/j.eij.2015.09.002


[3] LI S, KANG X, HU J, et al. Image matting for fusion of multi-focus images in dynamic scenes[J]. Information Fusion, 2013, 14(2): 147. DOI:10.1016/j.inffus.2011.07.001


[4] LI S, KANG X, HU J. Image fusion with guided filtering[J]. IEEE Transactions on Image Processing A Publication of the IEEE Signal Processing Society, 2013, 22(7): 2864. DOI:10.1109/TIP.2013.2244222


[5] XU X, SHAN D, WANG G, et al. Multimodal medical image fusion using PCNN optimized by the QPSO algorithm[J]. Applied Soft Computing, 2016, 46: 588. DOI:10.1016/j.asoc.2016.03.028


[6] WANG W, CHANG F. A multi-focus image fusion method based on laplacian pyramid[J]. Journal of Computers, 2011, 6(12): 2559. DOI:10.4304/jcp.6.12.2559-2566


[7] PAJARES G, CRUZ J M D L. A wavelet-based image fusion tutorial[J]. Pattern Recognition, 2004, 37(9): 1855. DOI:10.1016/S0031-3203(04)00103-7


[8] ZHANG Q, GUO B L. Multifocus image fusion using the nonsubsampled contourlet transform[J]. Signal Processing, 2009, 89(7): 1334. DOI:10.1016/j.sigpro.2009.01.012


[9] YIN H, LI S, FANG L. Simultaneous image fusion and super-resolution using sparse representation[J]. Information Fusion, 2013, 14(3): 229. DOI:10.1016/j.inffus.2012.01.008


[10] NEJATI M, SAMAVI S, SHIRANI S. Multi-focus image fusion using dictionary-based sparse representation[J]. Information Fusion, 2015, 25: 72. DOI:10.1016/j.inffus.2014.10.004


[11] LIU Y, CHEN X, WARD R K, et al. Image fusion with convolutional sparse representation[J]. IEEE Signal Processing Letters, 2016, 23(12): 1882. DOI:10.1109/LSP.2016.2618776


[12] LIU G, LIN Z, YAN S, et al. Robust recovery of subspace structures by low-rank representation[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2010, 35(1): 171. DOI:10.1109/TPAMI.2012.88


[13] HE K, SUN J, TANG X. Guided image filtering[C]// European Conference on Computer Vision. Springer-Verlag, 2010: 1. DOI: 10.1109/TPAMI.2012.213


[14] LIN Z, CHEN M, MA Y. The augmented lagrange multiplier method for exact recovery of corrupted low-rank matrices[J]. Eprint Arxiv, 2010, 9. DOI:10.1016/j.jsb.2012.10.010


[15] LOWE D G. Distinctive image features from scale-invariant keypoints[J]. International Journal of Computer Vision, 2004, 60(2): 91. DOI:10.1023/B:VISI.0000029664.99615.94


[16] AHARON M, ELAD M, BRUCKSTEIN A. -SVD: An algorithm for designing overcomplete dictionaries for sparse representation[J]. IEEE Transactions on Signal Processing, 2006, 54(11): 4311. DOI:10.1109/TSP.2006.881199


[17] LIU Z, BLASCH E, XUE Z, et al. Objective assessment of multiresolution image fusion algorithms for context enhancement in night vision: a comparative study[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2011, 34(1): 94. DOI:10.1109/TPAMI.2011.109



相关话题/图像 实验 空间 数据 中国科学院大学

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19
  • 深度学习在材料显微图像分析中的应用与挑战
    深度学习在材料显微图像分析中的应用与挑战班晓娟1,2,3,宿彦京1,4,谢建新1,4(1.北京科技大学北京材料基因工程高精尖创新中心,北京100083;2.材料领域知识工程北京市重点实验室(北京科技大学),北京100083;3.北京科技大学计算机与通信工程学院,北京100083;4.北京科技大学新材 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 基于问题导向的生物信息学综合实验教学设计
    基于问题导向的生物信息学综合实验教学设计霍颖异1,2,徐程2,吴敏1,2,陈铭2(1.浙江大学国家级生物实验教学示范中心,杭州310058;2.浙江大学生命科学学院,杭州310058)摘要:针对生物信息学相关课程的实验教学需求,结合前沿科研问题和成果,设计了基于问题导向的生物信息学综合实验。实验以宏 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 空间薄壁弹性伸杆力学特性分析
    空间薄壁弹性伸杆力学特性分析郭一竹1,杨皓宇2,郭宏伟3,刘荣强3,罗阿妮2(1.中国空间技术研究院总体部,北京,100094;2.哈尔滨工程大学机电学院,哈尔滨,150001;3.哈尔滨工业大学机器人与系统国家重点实验室,哈尔滨,150000)摘要:为研究弹性伸杆的力学性能,对其压平、拉平过程中的 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 电极丝前置式射流电解加工仿真及初步实验研究
    电极丝前置式射流电解加工仿真及初步实验研究李飘庭1,2,荆奇1,3,张勇斌1,李建1,傅波2(1.中国工程物理研究院机械制造工艺研究所,四川绵阳621900;2.四川大学机械工程学院,成都610065;3.复旦大学光科学与工程系,上海200438)摘要:射流电解加工技术在航天、仪器、电子和医疗设备等 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 桥梁伸缩缝跳车冲击荷载计算方法与模型实验
    桥梁伸缩缝跳车冲击荷载计算方法与模型实验丁勇1,2,王佩1,游玖昂1,诸葛萍1(1.宁波大学土木工程系,浙江宁波315211;2.桥梁工程结构动力学国家重点实验室(重庆交通科研设计院),重庆400067)摘要:为实测移动车辆对桥梁伸缩缝的冲击荷载,防止桥梁伸缩缝在这种冲击荷载作用下发生早期损坏,制作 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 变分模态分解与稀疏SURE的电子图像噪声抑制
    变分模态分解与稀疏SURE的电子图像噪声抑制李庆1,StevenY.Liang1,2(1.东华大学机械工程学院,上海201620;2.佐治亚理工学院乔治-伍德拉夫机械工程学院,佐治亚州亚特兰大30332-0405)摘要:为解决电子微结构图像在摄取、传输或存储的过程中易被外界噪声干扰、图像保真度差的问 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 利用拉普拉斯能量和CNN的多聚焦图像融合方法
    利用拉普拉斯能量和CNN的多聚焦图像融合方法翟浩,庄毅(南京航空航天大学计算机科学与技术学院,南京211106)摘要:多聚焦图像融合技术的目的是生成一幅全聚焦图像.所谓全聚焦图像,就是将不同源图像的清晰区域集成到一幅单一的图像中.传统的图像融合方法通常存在块伪影、人造边、晕轮效果、振铃效果以及对比度 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 面向空间机械臂操作任务的模仿学习策略
    面向空间机械臂操作任务的模仿学习策略李重阳,蒋再男,刘宏,蔡鹤皋(机器人技术与系统国家重点实验室(哈尔滨工业大学),哈尔滨150001)摘要:为提高空间机械臂克服空间扰动的能力,降低关节力矩波动和能量消耗,提出了一种基于动力学约束的空间机械臂模仿学习策略.该策略分为两个阶段:第一阶段为基于高斯过程的 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 大气感应耦合等离子体炬管的设计与仿真实验
    大气感应耦合等离子体炬管的设计与仿真实验余德平1,吴杰1,2,涂军1,张仕杨2,辛强2,万勇建2(1.四川大学机械工程学院,成都610065;2.中国科学院光电技术研究所,成都610209)摘要:为提高大气感应耦合等离子体射流加工装置的工作稳定性,设计一种依靠单一零件定位各层介质管的分体式炬管,并研 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 边界数据浸入法在弱可压缩流动中的应用
    边界数据浸入法在弱可压缩流动中的应用赵体豪1,赵欣2(1.北京理工大学机械与车辆学院,北京100081;2.北京理工大学宇航学院,北京100081)摘要:受限于计算机的计算能力与计算的成本,实际的计算过程中,往往要对流体做出一些物理假设,如无粘流体、不可压缩流体等,但是这将给计算带来不同程度的误差. ...
    本站小编 哈尔滨工业大学 2020-12-05