假设类别C服从均匀分布,则根据贝叶斯公式,最大后验概率等价于最大似然概率.式(1)可以改写为
图像Q的特征描述子分别记为d1,d2,…,dn,假设di符合独立同分布,则
对式(3)取对数运算(底数大于1),则分类准则如下:
p(di|C)可以通过Parzen窗核函数进行估计:
式中,d1C,d2C,…,dLC为类别C中所有训练图像中的特征描述子,L为特征描述子的个数;Kf为高斯核函数,其值非负并且和为1,如式(6)所示.随着L的逐渐增大,函数的尺度参数σ逐渐减小,(di|C)最终趋于p(di|C)的真实分布.
基于最大后验概率的朴素贝叶斯分类器需要计算每个特征d在类别C中的概率分布,虽然可以采用Parzen窗进行估计,但是从每幅图像中提取的局部特征数量巨大,特别是为了获得更高的准确率,需要尽可能多的djC即类别C中所有图像的局部特征,由于需要计算d和djC之间的距离,因此算法的时间复杂度较高.考虑特征分布的特性,特征空间中大部分区分性能高的特征相对孤立,类别C内各图像局部特征的分布更是如此.因此随着d与djC之间距离的增加,式(5)中大部分Kf(di-djC)项是可以忽略的,仅小部分项(即与d距离足够近的那一部分)起到决定性作用.因此,只需计算Kf(di-djC)前K项即d在类别C中的K最近邻特征,式(5)改写为
原始NBNN算法中取K为1,即对检索图像中的特征在类别C中寻找其最近邻用于分类决策,实验取得不错的分类性能. 3 朴素贝叶斯K近邻分类NBNN算法简单有效、分类性能好,并且不需要额外训练学习的过程,避免了参数学习等带来的相关问题.但算法运行速度较慢并仅利用最近邻进行分类识别,这方法类似于BoVW模型中的硬赋值编码方式,尽管取得了不错的分类效果,但没有充分利用其他近邻特征的信息.结合NBNN算法的原理和软赋值编码的思想,本文提出一种朴素贝叶斯K近邻分类算法记为NBKNN算法,分类过程中利用了特征的K近邻信息并去除背景信息对分类性能的影响,算法采用FLANN[21]搜索近似K近邻,提高了高维特征近邻的搜索速度.给定测试图像Q以及训练图像库,定义图像Q对于类别C的区分性能RC如下式所示,其中C表示不是C的其他类别:
对式(8)取对数运算得
式(9)将图像Q对类别C的区分性能转化为图像中局部特征对类别C的区别性能,因此分类决策可以表示为
假设类别C的先验概率服从均匀分布,则式(10)中为常数值,对于分类不起任何贡献,分类决策最终表示为
式中,p(di C)∝exp(-||di-NNC(di)||2)即p(di C)正比于检索图像中局部特征di到类别C中的最近邻距离;p(di C)正比于di到C中的最近邻距离,di在C中的最近邻称为次近邻;NNC表示检索图像中局部特征di在类别C中的最近邻.因此最终的分类决策可认为由各局部特征区分性能的增量所决定,NBNN利用测试图像中每个特征的最近邻更新类别的后验概率,由前面分析可知,此过程并不需要对每个特征更新类别的后验概率;特别是文献[16]指出特征之间的距离超过一定范围时,欧式距离不能有效地反应特征间的真实距离,因此可以认为距离较远范围内的特征对于类别后验概率的更新影响不大,可以忽略不计.鉴于此,本文选择特征邻域内的K近邻更新类别的后验概率,为了减少背景信息对分类性能的影响,采用第K+1个最近邻估计背景信息的概率密度.原始NBNN算法的时间复杂度为O(NQNClog(NTrNT)),其中NTr表示每类别中训练图像的数目,NC表示训练图像集中的类别数目,NQ和NT分别表示测试图像和训练图像中的特征数目,数量众多的特征中很大一部分表征了图像中的背景信息和噪声信息,虽然这些特征对于分类没有起到实质性的作用,但却在很大程度上影响着算法的运行速度.本文采用特征选择的方式从测试图像及训练图像集中选择区分性能高的特征用于分类识别,一方面提高了算法的运行速度,另一方面减少了算法的内存开销,为其应用于规模更大的图像库中提供了可能.算法基于特征的统计分布性质度量特征间的相关性并进行特征选择,计算公式如下所示:
式中,ui表示特征的均值;σi表示特征的方差.通过实验发现,Fi在一定程度上度量了特征的区分性能,其数值越高表明特征的区分性能越高,其数值越低则表明区分性能越低.结合上述分析,本文提出的快速NBKNN算法可以描述为:1) 提取测试图像与C类训练图像中的局部特征,分别记为di∈Q和dCi.2) 根据式(12)计算测试图像和训练图像集中特征的Fi值,保留前M个最大Fi值对应的特征,其中测试图像中的前M个特征记为dM.3) 对每个dM在类别C中搜索其K近邻,分别记为{N1C,N2C,…,NCK},在其他类别中搜索其最近邻并计算其均值UC.4) 计算dM到各类别K-1近邻的距离之和,以及第K近邻及UC的距离,分别记为
5) 对每个dM在各类别C中计算TC,TC=D1-D2-D3,最终的分类决策为: 4 实验结果与分析 4.1 实验设置为了验证本文所提算法的有效性,选择在Caltech-101图像库和Caltech-256图像库中进行分类识别实验,其中Caltech-101图像库包含了101种类型的图像,如动物、家具、车辆、花朵等类别,每类图像包含31~800张图像.Caltech-256图像库包含了256种类型的图像,每类包含至少80张图像.相比于Caltech-101图像库,Caltech-256图像库更具复杂性.实验采取图像分类领域中的一般性做法,将图像集中的每类图像随机划分为训练图像集和测试图像集.与基于学习的分类方法不同,非参数化的分类算法没有学习的过程,因此不需要训练样本训练分类器,但是为了便于比较与表述,仍使用训练样本表示带有类别标签的参考图像,使用测试图像表示检索图像.本文采用稠密SIFT特征表示图像,提取特征的图像块大小为16×16,步长为8,实验中限制所有图像的长和宽不超过300像素.特别地,本文采用FLANN进行近似近邻搜索,实验中设置随机KD-tree的个数为5. 4.2 Caltech-101图像库的实验结果 4.2.1 近邻个数K对分类性能的影响首先衡量近邻个数K对分类性能的影响,实验中测试图像与训练图像均没有经过特征选择操作.实验结果如图 1所示,当K取1时(不考虑背景信息的影响)本文算法退化为原始NBNN算法,图像分类正确率为62.32%.当K取10时,算法取得了最优分类性能,图像分类正确率达到65.18%,比原始NBNN算法的正确率提高了2.86%.相比于原始NBNN算法,本算法在分类决策中充分利用了特征的K近邻信息并且去除了背景信息对分类的影响,因此分类性能较优.从实验结果还可以发现当K在相对较小的范围(5~20)中取值时,算法获得了相对较好的分类效果.K值过小,图像的分类性能较差;K值过大,分类性能并没有显著的提高,但在一定程度上增加了算法的复杂性.在文献[16]提出的LLC中,当最近邻个数K为5时取得最佳效果,本文实验结果与其具有一致性,在后续实验中取K=10.
图 1 近邻个数K对分类性能的影响Fig. 1 Influence of number of nearest neighbors K for classification performance |
图选项 |
表 1给出了本文算法与其他一些分类算法的对比结果,从表中可以看出,在各种非参数化的分类算法中本文算法优于SPM-NN,GB-NN[8],GB Vote NN[22],SVM-KNN[18]以及NBNN1算法,NBNN1表示仅仅使用SIFT特征的原始NBNN算法;但算法分类性能低于Local NBNN 和NBNN5[9],NBNN5不仅使用了SIFT特征描述子,而且还结合了亮度、颜色、形状以及自相似描述子,因此能够更丰富、更加鲁棒地表示图像信息;Local NBNN算法选择局部近邻特征用于分类决策.虽然上述算法获取的分类性能较高,但也存在运行速度较慢、内存开销大等问题;表 1中后4种算法是基于参数化分类算法的实验结果,算法包含了学习的过程.从实验结果可以看出,本文算法优于SPM[5],LLC[16],NBNN-Kernel[10],但分类性能低于SCSPM[6]及LSC[7],LSC采用局部软赋值编码的思想,这种思想与本文算法相似,充分利用了各邻域的信息,在一定程度上避免了量化过程中的信息损失,结合SVM分类器算法取得了较为理想的分类效果.虽然本文算法的分类性能低于ScSPM和LSC,但本算法不需要训练学习的过程,避免了学习过程中引起的诸多问题.表 1 不同算法在Caltech-101中的分类正确率比较 Table 1 Classification accuracy comparison on Caltech-101 of different algorithms
分类算法 | 正确率/% | 是否需要参数学习 |
SPM-NN | 42.10±0.81 | 否 |
GB-NN | 45.20±0.96 | 否 |
GB Vote-NN | 52.00±0.75 | 否 |
SVM-KNN | 59.10±0.56 | 否 |
NBNN1 | 62.30±2.53 | 否 |
NBNN5 | 72.80±0.39 | 否 |
Local NBNN | 66.10±1.10 | 否 |
NBKNN | 65.18±1.72 | 否 |
NBNN-Kernel | 61.30±0.20 | 是 |
SPM | 62.50±0.90 | 是 |
ScSPM | 67.00±0.45 | 是 |
LLC | 65.13±0.39 | 是 |
LSC | 68.37±0.62 | 是 |
表选项
4.2.2 基于朴素贝叶斯K近邻的快速分类算法原始NBNN算法运行速度慢,文献[9]给出在Caltech-101图像库中当训练样本个数为30时,采用NBNN算法对每张图像进行分类的平均时间约为140s,当每类测试图像个数为15时,图像库共包含1530张图像(共102类),对所有图像进行分类所需时间约为59h.本文上述实验中对每张图像进行分类的平均时间约为41s,实验使用一台Core(TM)CPU 3.1GHz,8GB内存的计算机. 对测试图像中的每个特征在训练图像集中搜索其最近邻并计算I2C距离占据着算法主要的运行时间,为了进一步提高算法的运行速度并减少近邻搜索中的内存开销,本文采用特征选择的方式分别减少测试图像、训练图像,并尝试同时减少二者中的特征数目,分析对分类性能的影响. 按照本文算法计算测试图像和训练图像集中各特征的Fi值并从大到小排序,分别保留测试图像和训练图像集中前90%,80%,…,10%的特征用于分类决策.NBNN主要的思想之一是采用I2C距离度量方式,因此需要提取训练图像集合中每幅图像的特征,并将所有图像的特征融合为一个整体再进行特征选择.实验结果如图 2和图 3所示,其中图 2给出了不同情况下图像的平均分类正确率,图 3给了相应情况下图像的平均分类时间,其中并不包括图像特征提取的时间.从实验结果可以看出,随着测试图像和训练图像集中特征的减少,图像的分类正确率均出现不同程度的下降,而运行速度越来越快.当选择测试图像90%和80%的特征用于分类决策时,图像分类正确率分别为63.75%和62.34%,平均分类时间分别为38.52s和37.26s;选择训练图像集90%和80%的特征时,图像分类正确率分别为64.14%和62.82%,平均分类时间分别为37.19s和 33.41s.上述方法在保证图像分类正确率的情况下,有效地降低了分类时间,均优于原始NBNN算法,特别是分类速度有了很大的提高.
图 2 Caltech-101中特征选择对分类正确率的影响Fig. 2 Influence of feature selection for classification accuracy in Caltech-101 |
图选项 |
图 3 Caltech-101中特征选择对分类时间的影响Fig. 3 Influence of feature selection for classification time in Caltech-101 |
图选项 |
从图 2可看出当测试图像和训练图像集分别选择相同特征数目百分比时,前者所获得的分类正确率均小于后者,并且当测试图像和训练图像集中的特征数目从100%降低到10%时,减少测试图像特征数目所引起图像分类正确率的下降多于训练图像集所引起分类正确率的下降,由此可见,在基于NBNN思想的图像分类中,减少测试图像中的特征对分类正确率影响较大;从图 3可发现减少训练图像集中的特征对分类时间影响较大,随着训练图像集中特征数目的减少,算法的运行速度越来越快,主要原因是减少各类训练图像集(本实验中共102类)中的特征数目很大程度上减少了FLANN中索引的创建时间及最近邻搜索的时间.以上分别通过特征选择的方式有效地减少了测试图像及训练图像集中的特征密度并分析了对分类性能的影响.通过实验结果可知,基于NBNN思想的图像分类算法应该尽可能地保留测试图像中的特征信息,虽然测试图像中包含了大量区分性能较低的特征,但是由于其数量较多,当把它们看作一个整体时仍然具有较强的区分性能;而对于训练图像集中的特征,应尽可能地去除那些信息量少的特征以及噪声点[23].基于上述实验分析,为了进一步提高算法的运行速度和减少算法的内存开销,尝试同时在测试图像和训练图像集中进行特征选择.为了保证算法的分类正确率,分别选择在测试图像90%和80%特征的情况下,逐渐减少训练图像集中的特征数目并比较图像的分类正确率和分类时间.为了表示方便,记原始测试图像与训练图像集的特征数目分别为NQ和NT,经过特征选择之后的特征数目分别为FQ和FT.图 4和图 5分别给出了两种情况下的实验结果,可以看出在训练图像库相同的情况下选择测试图像90%的特征用于分类可以获得较高的分类正确率,但其分类速度稍低于后者,这与理论分析相一致.当FQ=90%NQ,FT=90%NT时,图像分类正确率为62.98%,分类时间为36.04s,分类正确率虽然稍低于NBKNN算法,但其分类速度更快并且明显优于NBNN算法.当FQ=90%NQ,FT=80%NT及FQ=80%NQ,FT=90%NT时图像分类正确率分别为62.02%和61.77%,分类时间分别为32.53s和34.94s,虽然分类性能稍低于原始NBNN算法,但是分类速度明显优于原始算法.因此选择合适的方式同时对测试图像和训练图像集进行操作可以平衡分类正确率和分类时间之间的矛盾,将最近邻分类器用于实际大规模图像分类任务中.
图 4 Caltech-101中FQ=90%NQ与FQ=80%NQ时减少训练图像集特征数目对分类正确率的影响Fig. 4 Influence of reducing feature numbers of training sets while FQ=90%NQ and FQ=80%NQ for classification accuracy in Caltech-101 |
图选项 |
图 5 Caltech-101中FQ=90%NQ与FQ=80%NQ时减少训练图像集特征数目对分类时间的影响Fig. 5 Influence of reducing feature numbers of training sets while FQ=90%NQ and FQ=80%NQ for classification time in Caltech-101 |
图选项 |
4.3 Caltech-256图像库的实验结果为了进一步验证算法的有效性,本文在Caltech-256图像库上进行分类实验.在分类过程中分别从每类图像中随机选取15张图像作为训练图像和测试图像,每组实验分别执行5次,实验结果为数据集中所有类别图像的平均分类正确率.与前述实验设置相一致,当选取最近邻个数K为10时算法取得比较理想的分类正确率,后续实验中K的值均取10.表 2给出了本文算法与其他一些分类算法在Caltech-256图像库上的结果.表 2 不同算法在Caltech-256中分类正确率比较Table 2 Classification accuracy comparison on Caltech-256 of different algorithms
分类算法 | 正确率/% | 是否需要参数学习 |
NBNN | 30.50±2.80 | 否 |
NBKNN | 33.40±2.61 | 否 |
Local NBNN | 33.50±0.90 | 否 |
KSPM | 23.34±0.42 | 是 |
ScSPM | 27.73±0.51 | 是 |
LLC | 34.36±0.32 | 是 |
表选项
从实验结果可以看出本文算法取得的分类正确率比原始NBNN算法提高了近3%,与Local NBNN算法取得的分类正确率相当.从表 2还可以看出,非参数化分类算法在Caltech-256图像库上所取得的识别正确率普遍优于基于学习过程分类算法,主要原因是Caltech-256图像库包括了更多种类的图像,图像数据更加丰富,并且图像类内差距更加明显,变化更具多样性,在基于学习过程的分类算法中,训练器学习过程中容易产生过拟合等问题,并且上述算法中字典学习与特征编码等过程带来了一定的量化误差,从而影响了最终的分类正确率.对规模更大的Caltech-256图像库进行分类所需时间更长,并且在近邻搜索中占用了大量的内存空间,因此这种局限性限制了基于NBNN思想的分类方法在实际大规模甚至中等规模图像库中的应用.采用本文提出的快速NBKNN算法分别计算测试图像和训练图像集中各特征的Fi值并从大到小排序,分别保留测试图像和训练图像集前90%,80%,…,10%的特征用于分类决策.实验结果如图 6和图 7所示,其中图 6给出了不同情况下图像的平均分类正确率,图 7给了相应情况下图像的平均分类时间.从实验结果可以看出减少测试图像中的特征对分类正确率影响较大,减少训练图像集中的特征对分类时间影响较大,这与前面实验结果分析相一致.
图 6 Caltech-256中特征选择对分类正确率的影响Fig. 6 Influence of feature selection for classification accuracy in Caltech-256 |
图选项 |
图 7 Caltech-256中特征选择对分类时间的影响Fig. 7 Influence of feature selection for classification time in Caltech-256 |
图选项 |
为了进一步提高算法的运行速度和减少算法的内存开销,尝试同时在测试图像和训练图像集中进行特征选择.为了保证算法的分类正确率,分别选择在测试图像90%和80%特征的情况下,逐渐减少训练图像集中的特征数目并比较图像的分类正确率和分类时间,实验结果如图 8和图 9所示.当FQ=90%NQ,FT=90%NT时,图像分类正确率为32.21%,分类时间为92.21s,分类正确率与分类速度明显优于NBNN算法.当FQ=90%NQ,FT=80%NT及FQ=80%NQ,FT=90%NT时图像分类正确率分别为31.28%和30.59%,分类时间分别为83.71s和88.20s,分类性能与NBNN算法相接近,但是分类速度明显优于原始算法.
图 8 Caltech-256中FQ=90%NQ与FQ=80%NQ时减少训练图像集特征数目对分类正确率的影响Fig. 8 Influence of reducing feature numbers of training sets while FQ=90%NQ and FQ=80%NQ for classification accuracy in Caltech-256 |
图选项 |
图 9 Caltech-256中FQ=90%NQ与FQ=80%NQ时减少训练图像集特征数目对分类时间的影响Fig. 9 Influence of reducing feature numbers of training sets while FQ=90%NQ and FQ=80%NQ for classification time in Caltech-256 |
图选项 |
5 结 论本文在分析朴素贝叶斯分类算法的基础上,结合K近邻原理提出一种新的图像分类算法,经实验验证表明:1) 采用K近邻(K=10)用于分类决策并去除背景信息对分类正确率的影响,提高了原始NBNN算法的分类正确率; 2) 针对NBKNN分类算法,比较分别在测试图像和训练图像集上采用特征选择的方式减少用于分类决策的特征数目对分类性能的影响,减少测试图像的特征数目对分类正确率影响较大,而减少训练图像集的特征数目对分类时间影响较大. 3) 在NBKNN分类算法中选择测试图像90%的特征与训练图像集80%的特征用于分类决策,取得了与原始NBNN分类算法相近的分类正确率,但比原始NBNN算法快了近5倍,平衡了分类正确率与分类时间之间的矛盾,为最近邻分类器应用于实际提供了可能.基于最近邻的图像分类算法与基于BoVW模型的图像分类算法各具优缺点,如何结合二者之间的优点在大数据背景下学习更有效、更合理的分类模型是本文后续工作的重点.
参考文献
[1] | Hong R, Wang M,Gao Y,et al.Image annotation by multiple-instance learning with discriminative feature mapping and selection[J].IEEE Trans System,Man and Cybernetics Part:B,2014,44(5): 669-680. |
Click to display the text | |
[2] | Hong R, Tang J,Tan H,et al.Beyond search:event driven summarization for web videos[J].ACM Trans on Multimedia Computing,Communications,and Applications,2011,7(4):35-53. |
Click to display the text | |
[3] | Sivic J, Zisserman A.Video google:a text retrieval approach to object matching in videos[C]//Proceedings of the IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE,2003:1470-1477. |
Click to display the text | |
[4] | Yang J, Jiang Y G,Hauptmann A G,et al.Evaluating bag-of-visual-words representations in scene classification[C]//Proceedings of the International Workshop on Workshop on Multimedia Information Retrieval.New York:ACM,2007:197-206. |
[5] | Lazebnik S, Schmid C,Ponce J.Beyond bags of features:spatial pyramid matching for recognizing natural scene categories[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE,2006,2:2169-2178. |
Click to display the text | |
[6] | Yang J, Yu K,Gong Y,et al.Linear spatial pyramid matching using sparse coding for image classification[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE,2009:1794-1801. |
Click to display the text | |
[7] | Liu L, Wang L,Liu X.In defense of soft-assignment coding[C]//Proceedings of the IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE,2011:2486-2493. |
Click to display the text | |
[8] | Varma M, Ray D.Learning the discriminative power-invariance trade-off[C]//Proceedings of the IEEE 11th International Conference on Computer Vision.Piscataway,NJ:IEEE,2007:1-8. |
Click to display the text | |
[9] | Boiman O, Shechtman E,Irani M.In defense of nearest-neighbor based image classification[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE,2008:1-8. |
Click to display the text | |
[10] | Tuytelaars T, Fritz M,Saenko K,et al.The NBNN kernel[C]//Proceedings of the IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE,2011:1824-1831. |
Click to display the text | |
[11] | Wang Z, Feng J,Yan S,et al.Linear distance coding for image classification[J].IEEE Transactions on Image Processing,2013,22(2):537-548. |
Click to display the text | |
[12] | McCann S, Lowe D G.Local naive bayes nearest neighbor for image classification[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE,2012:3650-3656. |
Click to display the text | |
[13] | Yang X, Zhang T,Xu C.Locality discriminative coding for image classification[C]//Proceedings of the Fifth International Conference on Internet Multimedia Computing and Service.New York:ACM,2013:52-55. |
Click to display the text | |
[14] | Tommasi T, Caputo B.Frustratingly easy nbnn domain adaptation[C]//Proceedings of the IEEE International Conference on Computer Vision.Piscataway,NJ:IEEE,2013:897-904. |
Click to display the text | |
[15] | Wang Z, Hu Y,Chia L T.Improved learning of I2C distance and accelerating the neighborhood search for image classification[J].Pattern Recognition,2011, 44(10):2384-2394. |
Click to display the text | |
[16] | Wang J, Yang J,Yu K,et al.Locality-constrained linear coding for image classification[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE,2010:3360-3367. |
Click to display the text | |
[17] | Tuytelaars T, Schmid C.Vector quantizing feature space with a regular lattice[C]//Proceedings of the IEEE 11th International Conference on Computer Vision.Piscataway,NJ:IEEE,2007: 1-8. |
Click to display the text | |
[18] | Zhang H, Berg A C,Maire M,et al.SVM-KNN:discriminative nearest neighbor classification for visual category recognition[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE,2006,2:2126-2136. |
Click to display the text | |
[19] | Zhang H, Berg A C,Maire M,et al.SVM-KNN:discriminative nearest neighbor classification for visual category recognition[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Piscataway,NJ:IEEE,2006,2:2126-2136. |
Click to display the text | |
[20] | Rematas K, Fritz M,Tuytelaars T.The pooled NBNN kernel:beyond image-to-class and image-to-image[C]//Lecture Notes in Computer Science (Including Subseries Lecture Notes in Artificial Intelligence and Lecture Notes in Bioinformatics).Heidelberg:Springer Verlag,2013:176-189. |
Click to display the text | |
[21] | Muja M, Lowe D G.Fast approximate nearest neighbors with automatic algorithm configuration[C]//International Conference on Computer Vision Theory and Applications.Piscataway,NJ:IEEE,2009:331-340. |
Click to display the text | |
[22] | Berg A C, Malik J.Shape matching and object recognition[M].Berlin Heidelberg:Springer,2006. |
[23] | Hong R, Pan J,Hao S,et al.Image quality assessment based on matching pursuit[J].Information Sciences,2014,273:196-211. |
Click to display the text |