由于纹理本身的微观异构、复杂性、不明确性等特点,纹理的准确描述与识别是一个复杂和困难的问题[2]。杨俊俐等[3]结合纹理特征、颜色特征与条件随机场中的自相关势能来描述遥感图像的区域特征及上下文分布信息,实现了遥感图像的准确自动标注。Muller和Niekerk[4]从高分辨率卫星图像中提取出25维混合纹理特征,用于调查不同高度的高空间分辨率在检测盐碱化受影响区域的重要性,能产生较好的回归模型。针对遥感图像中云的自动探测问题,曹琼等[5]分别采用分形纹理特征和灰度共生矩阵(GLCM)纹理特征描述云区域和下垫面区域,并用这2种纹理特征构建最小二维分类空间,实现了高效的云自动检测。上述研究成果表明,采用纹理特征进行图像分析,一方面证明了用纹理表征图像的重要作用;另一方面对于不同应用,需要结合其他特征描述才能达到更好的效果,说明研究具有更强描述性能及鉴别能力的纹理特征仍需进一步探索。
特征词袋(BoF)模型通过统计区域特征的全局相似性来表示图像,是一种新颖有效的图像内容表征算法[6],近年来,BoF模型已在计算机视觉与模式识别领域获得诸多突出成果,但传统BoF模型的无序表达方式没有体现区域空间关系,亦丢失了区域特征的尺度、方向和位置信息[7]。Santos等[8]提出一种新的基于6种最先进纹理特征的描述符集合并应用于病毒分类,同时指出BoF是一种特别有效的纹理特征融合方法。Nanni和Melucci[9]提出了一种基于投影的纹理描述新方法,对词袋特征、局部相位量化特征和局部三值模式特征设置了不同的权值,该方法有效提高了纹理描述性能。Yuan等[10]提出了一种改进的词袋模型用于内镜图像的自动息肉检测,该模型使用完备局部二值模式(CLBP)和尺度不变特征转换(SIFT)得到最佳分类性能。Cao等[11]在用BoF描述手势姿态图像表面纹理特征的基础上,实现了3种异构特征的融合,再利用多核分类器取得了更高的识别率。上述算法将基于BoF模型的各种纹理分类算法应用到不同领域中并验证了该模型的有效性,但均较少甚至没有考虑到BoF模型忽略了纹理图像的空间及几何信息,同时传统BoF模型的区域纹理特征描述单一,在图像的理解、图像内容表述方面仍有较大提升空间。
虽然基于BoF模型的图像特征描述及分类技术研究已取得较大进展,但是BoF模型缺乏空间与几何信息,对纹理图像内容表达不明显等问题仍然是困扰该项研究进一步发展的瓶颈。针对以上问题,本文提出一种基于BoF模型的多特征融合纹理分类(PBoFF)算法。该算法首先将不同特征进行特征重要性加权融合,选择含有图像空间及几何特征的灰度梯度共生矩阵(GGCM)为区域融合纹理特征之一,以弥补BoF特征缺失空间及几何信息的问题。同时BoF的全局统计特性,能提升对较大纹理基元图像的描述效果,增强纹理表述能力。其次,提出了基于鉴别能量分析的融合特征词典生成算法,分辨能力强的特征单词具有更高的鉴别能量,更有利于纹理分类。以上2点使得PBoFF算法具有更强的鲁棒性,性能更优。
1 BoF模型及其缺陷分析 BoF模型是由Joachims[12]在1997年提出,其用一组无序的有代表性的特征单词来表示视觉内容,并使用给定图像中单词出现的频率来表达图像。由于需要生成特征词典,因此传统的BoF模型需要大量的训练图像。如图 1所示,首先对训练图像进行区域选取,并计算各区域的特征描述子,则每个区域用一个特征向量表示,由此产生大量的区域特征描述信息,即特征向量集;然后对特征向量聚类,每个聚类中心即为具有代表性的特征单词,所有的特征单词即构成特征词典。如图 2所示,计算一个特定图像的BoF向量,首先将所有提取的区域描述为特征词典中对应的若干特征单词,构成该特定图像的特征词袋;然后计算每个单词的出现频率,并规范化形成统一的BoF向量。关于图像区域选择、区域特征描述、聚类方法生成特征单词及BoF向量相似度测量与量化均有多种实现技术,文献[13-14]证明这些选择会对最终分类性能产生影响。
图 1 生成特征词典 Fig. 1 Feature dictionary generation |
图选项 |
图 2 生成图像BoF向量 Fig. 2 Image BoF vector generation |
图选项 |
虽然BoF模型是一个简单有效的基于区域层次的图像描述,但其在处理复杂纹理图像分类时也存在明显的不足:
1) 作为一个非结构化表示,BoF向量没有空间分布信息和几何信息,因此可以使用空间/几何信息增强BoF模型的表征性能。较典型的方法有空间金字塔BoF和分层BoF[15]等,但这些方法显著增加了算法复杂度,且空间金字塔或分层结构与图像本身特征点的空间关系关联度较弱。
2) 大多数自然纹理通常是规则纹理和随机纹理的复杂组合,而BoF模型的区域特征描述多采用单一特征,对自然纹理的表示比较困难。鉴于不同特征往往彼此互补,多特征描述符组合通常比使用单一特征描述符有更好的表示结果,因此,采用多特征融合的方法描述区域特征能够获得更好的表示效果。
3) 聚类通常被用于构造特征单词,更适合构建密集的区域特征空间,稀疏区域则很容易被忽略。克服这个缺陷的方法需要改善特征单词的区别度,文献[14]利用验收半径来确保特征单词更均匀分布,但也削弱了强描述单词的鉴别能力。
2 PBoFF多特征融合纹理分类 纹理可以认为是纹理基元的重复[16],则纹理图像可以表示为统计纹理基元出现的频率,这符合词袋模型描述图像的思想。本文针对BoF模型的不足提出PBoFF算法,选择含空间几何信息的GGCM和BoF模型的区域特征SIFT进行融合,弥补BoF表征图像时空间与几何信息缺失的问题,增强纹理表述能力。进一步采用动态权重鉴别能量分析方法对聚类生成的特征单词进行最优参数选择,改善特征单词的区别度,提升词袋模型的鉴别性能。
2.1 融合纹理特征表示 BoF模型首先需要对训练图集的每一幅图像进行区域选取,一种重要的选取方法是SIFT关键点检测技术,较适用于内部信息丰富、特征变化大的图像;另一种易实现的选取方法是区域划分法,但该方法受基元大小、灰度级数等影响较大。PBoFF算法选择SIFT关键点检测方法选取区域,然后获取基于特征重要性加权融合的区域纹理特征描述。
2.1.1 灰度梯度共生矩阵 GGCM通过统计空间上灰度梯度对出现的频度,清晰描述了图像中各像素点灰度和梯度的分布规律,也描述了邻域像素点的空间关系及图像的几何特征信息,能一定程度弥补BoF模型图像表示缺乏空间信息的弱点。
由GGCM导出的纹理特征具有良好的鉴别能力,其元素H(x, y)定义为在分别归一的灰度和梯度图像中具有灰度值x和梯度值y的像点数[17]。本文采用平方求和计算图像GGCM,为提高算法运行效率,对图像灰度级离散化,将灰度级从原图的256级线性变换到32级[18],并归一化GGCM,归一变换为
(1) |
式中:
2.1.2 SIFT特征 SIFT是一种基于尺度空间,对图像旋转、缩放、平移、仿射变换保持不变性的局部特征描述子[19],能允许光照变化、视角变化、较大局部形状变形等变化[20]。SIFT使用高期核函数产生多尺度空间,并利用高斯差分(DoG)算子做极值检测得到稳定独特的关键点。再计算每个关键点邻域像素的梯度方向信息,假设图像尺度空间函数为S(x, y),则梯度g(x, y)和方向θ(x, y)计算公式分别为
(2) |
(3) |
在获取图像关键点的梯度方向信息后,根据文献[19]对SIFT描述子的定义,本文通过统计梯度方向直方图计算关键点的特征描述子,直方图峰值代表关键点的主方向。首先设定关键点为中心的窗口大小为16×16,窗口内种子点区域大小为4×4,然后分别计算每个种子点8方向的梯度累加信息,并计算梯度方向直方图,最后得到4×4×8=128维的SIFT纹理特征参数。
2.1.3 特征重要性加权融合 使用不同特征提取算法获得的特征信息通常数据维数增多,且有特征冗余,合理选择特征信息并对不同特征进行重要性加权,在聚类效果上往往优于简单的特征联合方法。文献[18]对图像特征采用FIW(Feature Important Weight)算法进行特征重要性加权融合,明显降低了纹理特征的维数,减少了后续分类算法的复杂度。为减少特征冗余,采用FIW算法对2种特征进行特征重要性加权融合,步骤如下:
步骤1??设提取的SIFT和GGCM特征为FSIFT和FGGCM,运用改进ReliefF算法[18]计算SIFT和GGCM的特征权值WSIFT和WGGCM。
步骤2??选择WSIFT和WGGCM中大于0的权值并进行排序,对应的特征向量FSIFT和FGGCM同步对应更新,即特征向量筛选为权值大于0的所有特征,并按权值由大到小进行排序。此步骤将权值为负不利于分类的特征去除,记所得特征为FSIFT(1)和FGGCM(1),特征权值为WSIFT(1)和WGGCM(1)。
步骤3??采用相关性度量方法计算2个特征之间的相关性,去除相关系数大于0.6的强相关或极强相关冗余特征,并将对应的特征权值向量去除, 记所得特征向量为FSIFT(2)和FGGCM(2),特征权值向量为WSIFT(2)和WGGCM(2)。
步骤4??将SIFT和GGCM剩余的特征权值向量使用均方根进行归一化处理,得到特征重要性权值向量,假设由步骤3得到的SIFT特征向量维度为mSIFT,GGCM特征向量维度为mGGCM,则
(4) |
(5) |
式中:W(FSIFT(2)(i))和W)(FGGCM(2)(j))分别为由步骤3得到的第i维SIFT特征权值向量和第j维GGCM特征权值向量。
步骤5??最后计算融合特征矩阵FIWSG,公式如下:
(6) |
2.2 特征词典构建 设数据库中有C×Nim个训练样本,其中C为种类数,Nim为每类训练样本数,对训练图像采用关键点检测技术进行采样,假设采样数为No,用FIWSG融合特征作为特征描述子,简记为F,则所有特征描述子构成特征集F*为
(7) |
对每一类特征集Fi*聚类产生特征单词,生成特征子词典Di,得到融合特征词典集为D={Di}(i=1, 2, …, C)。词典大小应与图像数据库中图像种类的数量、每种图像样本的数量及关键点检测的区域数量等密切相关,但目前还没有确定合适且有理论依据的K值设定方法,为方便计算,根据前期的实验及经验数据拟合,设计了词典特征单词量的自动生成公式,假设每幅图像碎片数为Np,使用的特征词典容量K的生成公式为
(8) |
式中:ε为特殊控制系数,默认值为1。为改善特征单词区别度,采用动态鉴别能量分析(DWDPA)方法进一步对单词进行优选加权生成新的融合特征词典。DWDPA是一种能自适应进行特征选择和加权调节的有效方法,可以作为算法的后处理优化方式以提高算法的鉴别性能,且对于不同数据库有较好的鲁棒性[21]。
DWDPA对图像离散余弦变换后的系数矩阵计算鉴别能量(P),再由P分量所占比重进行动态加权,实现系数优选。P系数取决于2个因素:类间变化和类内变化。如果类间变化大而类内变化小,则P大,因此鉴别能量可以用类间方差和类内方差的比来估计,大的P值意味更好的鉴别能力。假设特征词典有C类共U个单词,每个单词维度为V,每一类单词的方差为Vij(C),则全部类别方差的均值Vij(W)计算公式如下:
(9) |
P系数计算公式如下:
(10) |
式中:Vij(B)为全部单词的方差。根据P大小排序,选取前n个具有更高鉴别能量的单词,再依据P分量的比重对单词动态加权。建立了具有鉴别能量的融合特征词典后,就可以用词典中的特征单词表征图像,得到融合特征能量词袋,词袋模型表征图像的方法与传统BoF模型一致,不再累述。
2.3 PBoFF算法 根据以上分析,本文提出的PBoFF算法能产生具有鉴别能量的强纹理描述特征单词,这些单词包含了图像的空间、几何特征和统计特征等,对各类复杂纹理图像如旋转扭曲纹理、边缘模糊纹理、光照变化纹理及杂乱纹理等具有较好的表征能力。该算法主要分为3个部分:融合特征提取与表示、构建特征词典得到图像的词袋模型和纹理分类,其流程如图 3所示。首先进行区域采样,选取局部纹理图像,提取所有区域的GGCM特征和SIFT特征,并对不同特征进行重要性加权融合;其次,对融合特征聚类产生特征单词,并使用动态加权鉴别能量分析(GWDPA)对单词优选和加权,再对融合特征向量使用优选和加权后的特征单词进行指派,形成训练集融合BoF模型;最后,采用相同方法获得待测试图像的融合BoF,并用支持向量机训练并得到分类结果。PBoFF算法训练生成纹理分类器具体步骤如下:
图 3 基于BoF和多特征融合的纹理图像分类算法流程图 Fig. 3 Flowchart of texture image classification algorithm based on BoF and multi-feature fusion |
图选项 |
输入:纹理图库训练集
输出:Classifier
Begin
1) 纹理特征提取。
a) 采用关键点检测法,分别提取每张训练图像所有区域的GGCM和SIFT特征,形成初步的区域特征描述。
b) 按2.1.3节方式将2组特征进行重要性加权融合,得到融合特征向量,获得区域特征描述。
2) 构建融合特征词典。
a) 采用矢量量化方法对融合特征向量聚类,每个聚类中心表示一个特征单词,所有聚类中心形成初步的特征词典。
b) 对高低频单词区别对待,采用GWDPA进行最优参数特征单词的优选与加权,获得最终的融合特征词典。
3) 图像表示。将各训练图像的区域特征分配给融合特征词典中与其距离最近的特征单词,然后统计特征单词对应的词频,构建BoF向量。
4) 对BoF用支持向量机进行训练,利用训练集合建立分类模型。
5) 提取每个测试图像的区域特征描述,利用分类模型进行预测,得到分类结果。
End
3 实验结果与分析 实验使用UIUC[22]纹理库,库中包含了不同物体表面的25类自然纹理,每类40幅灰度图像,每幅图像尺寸为640像素×480像素,图 4为部分纹理图像。从图 4可以看出图像拍摄的视点和焦距不同,图像存在光照、尺度及旋转变化,图像纹理有的清晰、有的边缘模糊、有的平缓、有的杂乱、有的扭曲,且存在不同纹理相似性较高,相同纹理有较大差异的情况,能从人眼感官角度对纹理进行定性分析从而较全面地测试算法的性能。
图 4 实验用部分纹理图像示例 Fig. 4 Partial texture image samples in experiments |
图选项 |
3.1 PBoFF算法分类性能分析 为了分析使用融合特征描述区域纹理及词典大小对PBoFF算法分类性能的影响,仿真测试实验分为2组:分别使用不同大小特征词典的PBoFF算法分类性能分析,单一特征结合BoF模型与PBoFF算法分类正确率比较。
进行分组实验前首先分析单一特征结合BoF模型是否比使用单一特征具有更好的分类效果,实验将每类图像的一半20张用于训练,另一半用于测试,词典大小设置为300。表 1数据显示,在本实验方案下GGCM相比GLCM能更好地辨识UIUC库中图像,其分类正确率更为理想;结合BoF模型,分别采用GLCM、GGCM描述区域纹理特征,分类的正确率比用单一特征进行分类的正确率均要高,说明使用了词袋模型后,在大幅降低特征数据量的情况下,进行纹理图像分类仍保有更好的效果。
表 1 单一特征及其结合BoF模型分类正确率比较 Table 1 Comparison of classification accuracy of single feature and its BoF model
% | ||
特征 | 分类正确率 | |
GLCM | GGCM | |
单一特征 | 75.8 | 87.8 |
结合BoF模型 | 78.3 | 90.6 |
表选项
为了分析特征词典大小对PBoFF算法分类性能的影响,依据式(8)设置不同的特殊控制系数ε,分别取0.1、0.2、0.5、1,则词典大小分别为58、116、290、580,第1组实验在每类图像中选择30幅图像训练,剩余10幅作测试,分类工具箱使用LIBSVM[20],在UIUC数据集上的实验结果如表 2所示。实验数据显示随着词典容量的增大,分类正确率(CCR)稳步提升,但计算时间也成倍增长。在词典容量较小时,相似纹理图像的特征可能聚集为相似的特征单词,以致算法分类性能降低,随着词典容量增大,分类性能也在稳步提高,但当特征单词数量达到一定程度时,相似纹理的特征单词与同一纹理的不同特征单词均有增加,性能提升会减缓甚至减退。比较词典容量为58和580的分类正确率,仅相差3.7%,可以看出当词典容量成倍缩小时,分类正确率下降不多,较为稳定。
表 2 特征词典容量对PBoFF算法分类性能的影响 Table 2 Effect of feature dictionary capacity on classification performance of PBoFF algorithm
词典容量 | 分类正确率/% | 时间/s |
58 | 94.4 | 3.688 821 |
116 | 96.5 | 5.364 589 |
290 | 98.4 | 15.394 532 |
580 | 98.1 | 33.014 725 |
表选项
此次实验的时间计算为完整运算流程的执行时间,其中包含了分类器的生成时间,但实际应用中分类器一般不需要重新计算,而测试分类的计算时间数量级则在10-2 s,完全可以满足应用需要。测试运行环境为:MATLAB R2016b、Intel(R) Core(TM)2 Quad CPU Q9400 2.66GHz和8GB的RAM。
第2组实验训练与测试图像数不变,取ε= 0.2,特征词典容量则为290,采用不同种支持向量机分类方法,依次为径向基核支持向量机(rbf-svm)、直方图交叉核支持向量机(hik-svm)、空间金字塔匹配径向基核支持向量机(Prbfsvm)、空间金字塔匹配直方图交叉核支持向量机(Phiksvm),单一特征分别为灰度共生矩阵GLCM、灰度梯度共生矩阵GGCM、灰度平滑矩阵GSCM、尺度不变特征转换SIFT。
图 5的实验结果显示hik-svm的分类效果最好,而加入了空间金字塔划分的Prbfsvm和Phiksvm分类方法,其性能有的微降或不变,少数有提高。比如对于已经含有空间特征的GGCM词袋,rbf-svm的分类正确率为92.8%,加入空间金字塔划分后的Prbfsvm只有90%;而对于SIFT词袋,hik-svm的分类正确率为91.7%,而加入空间金字塔划分后的Phiksvm达到96.7%。此实验数据说明对于不具有空间信息的SIFT词袋特征,加入空间金字塔划分后分类性能有提高,但对于已具有空间信息的GGCM词袋特征,在相同的实验方案下加入空间金字塔划分后分类性能没有提高,而算法复杂度却是增加了。实验结果也表明使用PBoFF算法比区域纹理描述为单一特征的BoF算法的分类正确率要高,其中采用hik-svm的分类效果比较好,平均分类正确率提高12.8%。
图 5 单一特征BoF模型与PBoFF算法分类正确率比较 Fig. 5 Comparison of classification accuracy between single feature BoF model and PBoFF algorithm |
图选项 |
3.2 PBoFF算法分类性能比较 在UIUC数据集上,比较当前分类正确率较高的文献[23]中的凹凸局部二值模式算法,其结果如图 6所示。凹凸局部二值模式算法采用凹凸划分(CCP)方法分别在凹凸邻域中统计每一类特征再组合用于纹理分类,在(24,3)邻域条件下,经CCP改进的凹凸局部三值模式(CCLTP)、凹凸完备二值计算(CCCLBC)、凹凸完备二值模式(CCCLBP)算法获得更好的效果,CCCLBC在训练图像数量为20时正确率可达到86.5%。本文提出的PBoFF算法在训练样本数为15时就已经获得了更高的分类正确率,训练图像数量为20时分类正确率为92.6%,不同样本数量下,PBoFF算法均表现出更好的分类性能,平均分类正确率提高7.9%。
图 6 本文算法与文献[23]的结果比较 Fig. 6 Comparison of results between proposed algorithm and Ref.[23] |
图选项 |
综合分析本节实验结果,GGCM对细纹理及模糊边缘图像显现出较好的性能,SIFT在解决发生旋转、缩放、平移、光照影响及杂乱等问题上有良好表现。本文提出的PBoFF算法将2种特征融合描述区域纹理及对特征单词赋予鉴别能量的方法构建特征能量词袋,在UIUC自然纹理库上的分类正确率达到了98.4%,分类正确率都有较大提升,且具备较好的稳定性,体现出本文算法更好的纹理分类性能。
4 结论 针对BoF作为一种非结构化模型,存在缺乏空间和几何信息的明显缺陷及对图像内容表述不明显等问题,本文提出一种结合BoF和多特征融合的纹理图像分类方法——PBoFF算法。
1) PBoFF算法在BoF模型中使用特征重要性加权算法融合GGCM纹理特征,利用不同特征的优势互补,有效弥补了BoF特征缺失空间和几何信息的问题,并通过BoF的全局统计特点弥补了GGCM对较大纹理描述欠佳的弱点。
2) PBoFF算法采用GWDPA计算融合特征单词的鉴别能量系数,赋予鉴别能力高的单词更大的系数,然后优选生成具有强纹理描述能力的特征单词,构建出能量词袋,提升了词袋特征的鉴别性能。
3) 实验结果表明PBoFF算法对各类复杂纹理图像均能取得较好的分类效果,相比传统BoF模型及CCP等方法分类正确率均有不同程度的提高,说明本文算法针对纹理分类具有较高的精度和较好的鲁棒性。
参考文献
[1] | 周莉, 胡德文, 周宗潭. 综合结构和纹理特征的场景识别[J].中国科学:信息科学, 2012, 42(6): 687–702. ZHOU L, HU D W, ZHOU Z T. Scene recognition combining structural and textural features[J].Scientia Sinica Informationis, 2012, 42(6): 687–702.(in Chinese) |
[2] | 刘丽, 匡纲要. 图像纹理特征提取方法综述[J].中国图象图形学报, 2009, 14(4): 622–635. LIU L, KUANG G Y. Overview of image textural feature extraction methods[J].Journal of Image and Graphics, 2009, 14(4): 622–635.(in Chinese) |
[3] | 杨俊俐, 姜志国, 周全, 等. 基于条件随机场的遥感图像语义标注[J].航空学报, 2015, 36(9): 3069–3081. YANG J L, JIANG Z G, ZHOU Q, et al. Remote sensing image semantic labeling based on conditional random field[J].Acta Aeronautica et Astronautica Sinica, 2015, 36(9): 3069–3081.(in Chinese) |
[4] | MULLER S J, NIEKERK A V. Identification of WorldView-2 spectral and spatial factors in detecting salt accumulation in cultivated fields[J].Geoderma, 2016, 273: 1–11.DOI:10.1016/j.geoderma.2016.02.028 |
[5] | 曹琼, 郑红, 李行善. 一种基于纹理特征的卫星遥感图像云探测方法[J].航空学报, 2007, 28(3): 661–666. CAO Q, ZHENG H, LI X S. A method for detecting cloud in satellite remote sensing image based on texture[J].Acta Aeronautica et Astronautica Sinica, 2007, 28(3): 661–666.DOI:10.3321/j.issn:1000-6893.2007.03.029(in Chinese) |
[6] | ZHANG X, YANG Y H, HAN Z, et al. Object class detection:A survey[J].ACM Computing Survey, 2013, 46(1): 1–53. |
[7] | 梁晔, 于剑, 刘宏哲. 基于BoF模型的图像表示方法研究[J].计算机科学, 2014, 41(2): 36–44. LIANG Y, YU J, LIU H Z. Study of BoF model based image representation[J].Computer Science, 2014, 41(2): 36–44.DOI:10.3969/j.issn.1002-137X.2014.02.008(in Chinese) |
[8] | SANTOS F L C D, PACI M, NANNI L, et al. Computer vision for virus image classification[J].Biosystems Engineering, 2015, 138(1): 11–22. |
[9] | NANNI L, MELUCCI M. Combination of projectors, standard texture descriptors and bag of features for classifying images[J].Neurocomputing, 2016, 173(1): 1602–1614. |
[10] | YUAN Y, LI B, MENG Q H. Improved bag of feature for automatic polyp detection in wireless capsule endoscopy images[J].IEEE Transactions on Automation Science & Engineering, 2015, 13(2): 1–7. |
[11] | CAO J, YU S, LIU H, et al. Hand posture recognition based on heterogeneous features fusion of multiple kernels learning[J].Multimedia Tools & Applications, 2015, 75(19): 1–20. |
[12] | JOACHIMS T.A probabilistic analysis of the rocchio algorithm with TFIDF for text categorization[C]//International Conference on Machine Learning, 1997: 143-151.http://www.mendeley.com/catalog/probabilistic-analysis-rocchio-algorithm-tfidf-text-categorization/ |
[13] | MAJI S, BERG A C, MALIK J.Classification using intersection kernel support vector machines is efficient[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition DBLP.Piscataway, NJ: IEEE Press, 2008: 1-8.http://www.mendeley.com/research/classification-using-intersection-kernel-support-vectormachines-efficien/ |
[14] | JURIE F, TRIGGS B.Creating efficient codebooks for visual recognition[C]//Proceedings of 10th IEEE International Conference on Computer Vision.Piscataway, NJ: IEEE Press, 2005: 604-610.http://www.mendeley.com/catalog/creating-efficient-codebooks-visual-recognition/ |
[15] | 罗会兰, 郭敏杰, 孔繁胜. 一种基于多级空间视觉词典集体的图像分类方法[J].电子学报, 2015, 43(4): 684–693. LUO H L, GUO M J, KONG F S. An image classification method based on multiple level spatial visual dictionary ensemble[J].Acta Electronica Sinica, 2015, 43(4): 684–693.DOI:10.3969/j.issn.0372-2112.2015.04.009(in Chinese) |
[16] | JULESZ B. Textons, the elements of texture perception, and their interactions[J].Nature, 1981, 290(5802): 91–97.DOI:10.1038/290091a0 |
[17] | 洪继光. 灰度-梯度共生矩阵纹理分析方法[J].自动化学报, 1984, 10(1): 22–25. HONG J G. Gray level-grandient cooccurrence matrix[J].Acta Automatica Sinica, 1984, 10(1): 22–25.(in Chinese) |
[18] | 黎明, 鲁方波, 陈昊. 基于QWT和GLCM的多特征双重加权纹理分割[J].模式识别与人工智能, 2014, 27(3): 263–271. LI M, LU F B, CHEN H. Dual weighted multi-feature texture segmentation based on QWT and GLCM[J].Pattern Recognition and Artificial Intelligence, 2014, 27(3): 263–271.(in Chinese) |
[19] | LOWE D. Distinctive image features from scale-invariant keypoints[J].International Journal of Computer Vision, 2004, 60(2): 91–110.DOI:10.1023/B:VISI.0000029664.99615.94 |
[20] | CHANG C C, LIN C J. LIBSVM:A library for support vector machines[J].ACM Transactions on Intelligent Systems and Technology, 2011, 2(3): 1–25. |
[21] | LENG L, ZHANG J, XU J, et al.Dynamic weighted discrimination power analysis in DCT domain for face and palmprint recognition[C]//International Conference on Information and Communication Technology Convergence.Piscataway, NJ: IEEE Press, 2010: 467-471.http://ieeexplore.ieee.org/document/5674791 |
[22] | HOSSAIN S, SERIKAWA S. Texture databases-A comprehensive survey[J].Pattern Recognition Letters, 2013, 34(15): 2007–2022.DOI:10.1016/j.patrec.2013.02.009 |
[23] | 毋小省, 朱世松, 孙君顶, 等. 基于凹凸局部二值模式的纹理图像分类[J].光电子·激光, 2014, 25(8): 1627–1634. WU X S, ZHU S S, SUN J D, et al. Concave-convex local binary feature for rotation invriant texture classification[J].Journal of Optoelectronics·Laser, 2014, 25(8): 1627–1634.(in Chinese) |