删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

基于U-Net的掌纹图像增强与ROI提取*

本站小编 Free考研考试/2021-12-25

在当今信息化时代,生物特征识别是鉴别个人身份、保护个人信息的有效手段。生物特征识别技术,是指利用机器视觉、图像处理等技术对生物特征采样进行身份识别。现有的主要生物识别特征包括指纹[1]、人脸[2]、虹膜[3]和掌纹[4]等。由于掌纹的纹路是由每个人的基因所决定的,即使后天受损,重新生长出来的纹路也保持原有形状,因此是一种具备相当大潜力的生物识别特征。掌纹识别技术是近几年发展起来的技术,与其他识别技术的优势在于:掌纹区域较大,具有较好的稳定性;掌纹采集对硬件的要求不高,故而设备成本较低;并且相比于其他生物特征识别技术,安全性较高,采集所需时间较短,识别的效果较好[5]
掌纹原始图像一般存在纹理不清晰、掌纹图像具有不定旋转角度、图像存在噪声等问题。因此有必要对设备采集获取到的掌纹原始图像进行增强处理和感兴趣区域(ROI)提取[6]。现有的掌纹预处理方法普遍存在着时间成本大,方法之间有依赖关系等问题。随着近几年神经网络的迅速发展,神经网络在交通车辆[7]、步态识别[8]、车牌识别等领域取得了很大的成功。神经网络是模拟生物神经网络进行信息处理的一种数学模型,其目的在于模拟大脑的某些机理与机制实现一些特定的功能。它有着高度的并行结构和并行实现能力,能够充分发挥计算机的高速运算能力,可以很快找到最优解。同时它也可以处理一些非线性问题,并且有着自学习功能。近些年****们也将神经网络引入掌纹识别领域,进一步促进了掌纹识别的发展。
本文提出神经网络在掌纹预处理部分中的图像增强与ROI提取的运用,采用的神经网络模型是U-Net神经网络[9],U-Net神经网络既可以处理分割问题,亦能降噪增强图像信息,它能够实现每个像素从点到点的处理。本文的贡献在于将掌纹预处理部分的图像增强和ROI提取放在同一个神经网络模型上运行,这大大减少了预处理的时间,去除了掌纹预处理部分之间的相互依赖关系。
1 相关工作 1.1 掌纹识别 现今常用的掌纹识别方法通常分为几个大类:①基于编码特征的识别方法[10-11]。通过将掌纹图像的特征转化为由0、1组成的数字编码,最后通过二进制算术运算获得图像间的相似度。②基于结构特征的识别方法[12-13]。通过边缘检测方法提取脊线、主线等方位信息来进行掌纹识别。③基于统计特征的识别方法[14-15]。利用图像的统计概念提取方差、标准差等特征,然后转化为用于匹配的向量。④基于子空间特征的识别方法[16-17]。将掌纹图像视为高维矩阵或向量,并通过投影或数学变换等方式转化为低维形式进行表征和分类,随后用于图像匹配。⑤基于特征学习的识别方法[18-19]。在现有掌纹识别的方法中,掌纹主线是重要的特征,Huang等[20]提出Radon变换掌纹的主线,再利用掌纹之间的相似度进行掌纹验证。Wu等[21]设计了一组定向线检测器,然后将这些检测器用于沿不同方向提取主线。通过对主要纹路的增强,可以有效地增强掌纹识别过程中对主线的提取效果,从而提高掌纹识别的准确率。
1.2 掌纹图像预处理 掌纹图像增强预处理中,最常使用的方法有小波变换(Wavelet Transform,WT)[22]、偏微分方程图像增强方法[23]、三维块匹配方法(BM3D)[24]等,然而这些方法在对每张图像进行处理时往往需要较多的时间成本,而且这些方法对不同环境采集的掌纹图像不能保持良好的鲁棒性。传统的ROI提取方法通过获取手掌的轮廓,找到指蹼的特征点,再通过特征点的位置进行ROI提取。李艳等[6]提出了一种对掌纹轮廓特征点进行提取的方法,即利用多个互相相切的外切圆和手掌边界的交点个数来判断角点的大概位置,然后通过结合手掌轮廓线近似直线的性质,从而得到手掌轮廓特征点的准确位置。但因为需要反复搜索圆心并调整半径, 预处理时间长, 复杂性高, 不能用于实时系统。张秀峰等[25]为了改善ROI提取过程中会产生偏移的问题,提出了一种新的ROI分割方法:先确定手掌的指蹼位置,通过两个指蹼边界点拟合成一条直线,利用这条直线为基准,矫正手掌的偏转角度并确定ROI区域。这些传统方法的ROI提取对掌纹的质量要求非常高,而神经网络的出现,很好地解决了这些问题。
1.3 神经网络 在2015年U-Net被Ronneberger等[9]所提出,其在全卷积神经网络(FCN)的基础上进行改良形成的,其特点是可以用较少的图像训练数据得到更好的处理结果,因其具有的特点近年来被广泛应用于医学图像处理的领域。Meng等[26]应用U-Net实现了对脑肿瘤图像的分割和增强,并与其他方法进行对比,发现有着更好的效果。Qian等[27]将模型应用于图像增强,也实现了较好的处理效果。神经网络在掌纹识别中也取得了较好的成绩。Gao等[19]结合了自上而下的无监督训练和训练样本建立Deep Belief Net,在掌纹识别上取得优于主成分分析(PCA)、局部二元模式(LBP)的结果。Liu和Sun[28]尝试使用AlexNet提取深度特征。Sun等[29]利用CNN-F网络进行掌纹识别,并评估不同层提取到的卷积特征。Lin等[30]提出了Palm RCNN进行掌纹识别,并公开了同济大学掌纹数据库。王海霞等[31]改进了轻量级U-Net,在不影响输出结果的前提下,有效的提高了计算时间。特别地,周瞳等[32]使用卷积神经网络的方法实现掌纹的提取。这些研究都证明了神经网络在掌纹图像处理中的巨大潜力。
2 方法设计 本文方法流程图如图 1所示,通过U-Net神经网络分别对掌纹图像进行图像增强与谷点分割,在该部分掌纹增强与ROI区域提取采取并行模式,该模式可以有效地去除图像增强与ROI提取相互的依赖性,确保处理方法的独立性。在2.1节中,对数据集的准备进行了介绍,包括有监督的图像去噪滤波、图像增强、特征点定位及数据扩增。在2.2节中,采用U-Net神经网络对掌纹图像进行增强与谷点位置预测,以及相关的后续处理。
图 1 本文方法流程图 Fig. 1 Proposed method flow chart
图选项




2.1 数据集的准备 数据集的准备具体步骤包括图像去噪滤波、图像增强、以ROI提取为目的的特征点定位,并进行数据扩增。
首先,掌纹图像分布着不均匀的噪声,掌纹的3条主线常常具有对比度不清晰的问题,并且掌纹的亮暗程度不均匀,需要对图像进行滤波处理。图像滤波就是对图像进行噪声上的过滤,抑制噪声对图像的影响,并且最大化地保留图像细节特征。本文采用BM3D方法,这是一种非局部方法,它的原理首先是通过和相邻图像块进行匹配,然后与之进行整合形成一个三维矩阵,在3D空间中进行滤波,然后再转换为2D。该方法分两步,实现对图像双重去噪:第一次是对原图匹配进行简单去噪,第二次去噪的权值将会以第一次去噪的结果作为基准,处理结果如图 2所示。在实际去噪处理中,会不可避免地导致一些关键细节信息被模糊,如图 2(b)所示。掌纹的3条关键纹路与手掌的对比度明显降低。本文采用Gabor小波变换进行图像增强。Gabor小波的优点在于对图像边缘检测敏感,从而能够有良好的尺度选择特性和方向选择,而且对光照变化不敏感, 有着良好的适应性。Gabor小波变换处理结果如图 2(c)所示。通过BM3D与Gabor小波变换,本文完成对掌纹增强数据集的处理与获取。
图 2 预处理步骤 Fig. 2 Pre-processingsteps
图选项




其次,针对掌纹ROI分割问题,为更精确定位ROI区域,本文通过对掌纹的2个关键指间谷点进行预测,再进行后处理定位的方式进行。数据集的标注是对关键指间谷点的标注,为尽量进行精确定位,本文采用手工标定。在标注出两个关键点之后,生成一副二值图,背景为黑,2个谷点为白色,长度为10个像素的矩形,如图 2(d)所示。通过手工标注,完成对掌纹ROI提取数据集的获取。
由于深度学习需要较多的训练样本,而且对训练样本的处理也需要花费大量的时间。因此本文采用数据增强技术,以左右各旋转10°来进行数据集扩充。在此次训练中,对700张掌纹增强图像、ROI谷点图像进行扩充,获得2100张图片。来防止因为数据集过少而产生的神经网络过拟合问题,获得更好的增强效果。在香港理工大学的掌纹数据库中,每一张图像的像素大小为384×284。在网络训练的过程中,需要对图像进行3次下采样操作,每经过一次下采样处理,图像大小变为原来的一半,而284不能被2整除3次。所以调整图像大小为384×280。
2.2 掌纹增强与ROI提取
2.2.1 网络结构 U-Net神经网络通过收缩路径和扩张路径构成了一个对称的U型网络。主要包含下采样和上采样2个部分,下采样进行特征提取。下采样过程中,图像的通道数翻倍,同时特征图维度减半。应用修正线性单元(Rectified Linear Unit,ReLU)激活函数,激活函数的作用就是引进非线性因素,这样使得神经网络可以应用于非线性的模型中去,而不是仅仅只是限制于线性函数。上采样的作用是把识别的特征还原到原图的大小上去,最终得出输出的结果。每次经过上采样层后特征图维度加倍,通道数减半,最终使图像恢复到原尺寸,在上采样的过程中同样也是应用ReLU激活函数。
图 3表 1展示了网络结构和模型参数。本模型包含收缩路径和扩张路径。在收缩路径中,包含3个收缩单元,每个单元都包含2个卷积模块和1个池化层。进行完下采样后再经过2个卷积模块,就可以进行上采样操作。扩张路径同样有3个扩张单元,前面2个单元包含1个上采样层和2个卷积模块。最后1个扩张单元中包含上采样层、两个卷积模块和1个1×1大小的卷积模块。每次使用上采样层后特征图维度加倍、通道数减半。跳跃连接增加了收缩路径和扩张路径之间的通路。
图 3 U-Net神经网络结构 Fig. 3 U-Net neural network structure
图选项




表 1 U-Net神经网络模型参数 Table 1 U-Net neural network model parameters
层类型输入大小滤波器大小重复次数
卷积模块1×384×2803×31
卷积模块64×384×2803×31
池化层64×384×2802×21
卷积模块64×192×1403×32
池化层128×192×1402×21
卷积模块128×96×703×32
池化层256×96×702×21
卷积模块256×48×353×32
上采样层512×48×353×31
卷积模块512×96×703×32
上采样层256×96×703×31
卷积模块256×192×1403×32
上采样层128×192×1403×31
卷积模块128×384×2803×31
卷积模块64×384×2803×31
卷积模块64×384×2801×11


表选项







2.2.2 掌纹增强与ROI提取网络的能量函数设定 在深度学习中,激活函数和损失函数在神经网络中都起着重要作用,激活函数给网络引入了非线性因素,使得网络能够逼近任何的函数。常用到的输出层激活函数主要包括:sigmoid、tanh、ReLU。不同的输出层激活函数的选择,将会产生不同的输出效果,因此需要根据各激活函数的特点进行选择。针对掌纹增强网络,本文经过实验对比分析,发现3种激活函数效果差异明显,当采用ReLU函数为激活函数,效果明显优于其他2种函数,因此ReLU选择作为掌纹增强的激活函数,它是分段函数,函数收敛速度也明显比前两者快,并且能避免sigmoid和tanh函数都存在的梯度消失的问题,因此会更加适合图像增强的处理,ReLU函数图形如图 4(a)所示,其计算公式为
图 4 激活函数图形 Fig. 4 Graph of activation functions
图选项




(1)

机器学习过程中,需要对方法进行最小化的函数,这个函数就是损失函数。损失函数越小,表明真实值和预测值越接近,损失函数的选取要适应应用背景,没有适用所有情况的损失函数存在,常用的损失函数包含:均方误差、交叉熵误差、绝对值损失函数等。而在实际应用中也可根据自己的需求进行编写。
根据实验分析得出,本文应用的掌纹图像增强的损失函数loss1定义为式(2)所示,其最为接近训练样本:
(2)

式中:N为样本数量;fi为预测值;yi为真实值。当预测值越接近真实值时,loss1的返回值也越接近0,网络接近稳定。
针对掌纹ROI提取,3种激活函数效果差异明显,本文采用sigmoid函数为激活函数。sigmoid函数的本质是将取值为(-∞, +∞)的值映射到(0, 1),所以经常被用在二分类的问题中,sigmoid函数图形如图 4(b)所示, 其计算公式为
(3)

根据分割需求,将本文应用的掌纹ROI提取的损失函数loss2定义为
(4)

式中:s为基值,它的取值为1,它的作用是防止出现分母为0的状况。当预测值越接近真实值时,loss2的返回值也越接近1,网络接近稳定。

2.2.3 ROI提取后处理 通过U-net网络掌纹增强可直接获取结果,而掌纹ROI提取只是获得中间过程图像,对掌纹的分割还需要从指间谷点进行后处理。如图 5(a)所示,经过U-Net神经网络可得到了掌纹谷点分割结果。首先求取二值图中的2个关键点对应的质心,作为掌纹谷点,如图 5(b)掌纹图像中的圆圈标记所示。其次,对2个谷点进行连接,对连接线和相对应垂线建立新的坐标轴,以2条直线交点为原点。如图 6(a)所示,以此坐标系为主坐标系,2个谷点为标准点,调整掌纹图像角度,对掌纹图像进行ROI框取,框取的ROI大小为144×128,如图 6(b)所示,最终效果图如图 6(c)所示。
图 5 关键点及掌纹对应谷点 Fig. 5 Key points and correspondingly valley points on plamprint
图选项




图 6 ROI提取处理 Fig. 6 ROI extraction processing diagram
图选项




3 实验结果分析 本文实验应用的掌纹数据库是来自香港理工大学掌纹数据库[33], 包含7 752个图像,分别来自386个不同的手掌,每个手掌大约采集了20张图像,这20张图像分2个阶段进行采集,这2个阶段间隔在2个月左右。本文从香港理工大学掌纹数据库中选取1 000张掌纹图像,其中700张掌纹作为训练集进行神经网络训练,另外选择300张掌纹图像组成测试集,经过神经网络预测分别获得增强、分割图。以下将对该网络模型的性能进行评估。
3.1 掌纹图像增强处理结果 图 7是部分原始掌纹测试集图像和网络增强处理后的ROI图像对比,可以看出,掌纹的噪声明显降低,掌纹主要的3条纹路乳突纹、皱纹和屈肌线也更加的明显,并且这种效果是普遍适用所有300张测试集图像的。
图 7 不同掌纹图像的增强结果 Fig. 7 Enhancement results of different palmprint images
图选项




对掌纹图像增强效果进行量化评估,常用峰值信噪比(PSNR)、信息熵(Entropy)、绝对均值误差(AMBE)来评估方法的性能。PSNR的值越大,Entropy值越大,AMBE值越小,则说明掌纹图像的增强效果越好。
将本文方法与BM3D去噪+Gabor小波增强、OBLNM[34]、RKTFILT[35]和SRAD[36]当前流行的掌纹图像增强方法的效果进行对比实验,由于缺少真值,本文采用2种方式获得真值。第1种以BM3D去噪+Gabor小波增强处理过后的掌纹图像为真值,第2种以OBLNM处理过后的掌纹图像为真值。分别对2组真值图像添加高斯白噪声,再分别经过以上5种方法进行去噪增强。图 8为第1种方式下掌纹图像增强效果对比。图 9为第2种方式下掌纹图像增强效果对比。从表 2和图像增强对比结果(图 8图 9)可以看出,本文方法要优于其他方法。
图 8 BM3D去噪+Gabor小波增强后为真值的掌纹增强对比 Fig. 8 Comparison of palmprint enhancement after BM3D denoising +Gabor wavelet enhancement as truth value
图选项




图 9 OBLNM增强后为真值的掌纹增强对比 Fig. 9 Comparison of palmprint enhancement after OBLNM enhancement as truth value
图选项




表 2 掌纹增强效果比较结果 Table 2 Comparison results of palmprint enhancement
方法BM3D去噪+Gabor小波增强后为真值OBLNM增强后为真值
PSNREntropyAMBEPSNREntropyAMBE
BM3D去噪+Gabor小波增强24.727 66.435 63.163 024.049 36.531 64.168 1
OBLNM23.171 66.916 012.419 826.334 86.877 05.930 9
RKTFILT23.499 46.820 015.239 328.022 26.753 76.806 8
SRAD26.925 86.005 47.346 427.037 86.154 65.653 2
本文方法27.120 87.247 63.165 327.916 96.920 73.210 1


表选项






3.2 掌纹分割图像相似度分析 为了判断训练结束后的网络模型的科学性,将测试集300张掌纹图像进行手动标注指间谷点,并对标注好谷点后的图像进行ROI提取,将提取出来的掌纹感兴趣区域作为标准参考。同时采用其他2种方法——基于形态学角点检测的定位分割方法[37] (方法1)与基于边缘跟踪的定位分割方法[38] (方法2),与本文提出的基于U-Net神经网络输出的掌纹分割图像与标准图像进行面积重合率分析,通过将得到的谷点进一步计算成掌纹的感兴趣区域,划定位置,将掌纹图像转化为二值图像,掌纹ROI为1,背景为0,同理对其他方法和人工标注也进行同样处理,最后对两者进行与操作,计算重叠部分所占比例。结果如表 3所示,本文方法面积重合率可达94.00%,而方法1的为91.18%,方法2的为88.00%。可见本文方法的结果和手动标注的真值有着较高的重合度,更加接近真实感兴趣区域,也意味着本文方法定位精度是可靠的。
表 3 掌纹感兴趣区域重合度分析 Table 3 Analysis of coincidence degree of palmprint ROI
方法面积重合率/%
方法191.18
方法288.00
本文方法94.00


表选项






为了进一步判断本文提出的掌纹分割方法准确性,将基于形态学角点检测的定位分割方法、基于谷点聚类分析的定位分割方法和本文方法与手动标注分割的掌纹感兴趣区域图像进行相似性比较,本文选取2个相似度指标,分别为余弦相似度(Cosin相似度)和哈希相似度[39]。当两者的值越接近100%时,表示2张图像越相似。结果如表 4所示。从表中可以看出,本文方法相比于另外2种掌纹分割方法有着更高的相似度。实验结果表明,基于U-Net神经网络掌纹分割有着较好的效果,对掌纹感兴趣区域有着精确的定位。
表 4 掌纹分割图像相似度对比 Table 4 Similarity comparison of palmprint segmentation images
方法Cosin相似度/%哈希相似度/%
方法199.3273.17
方法299.1371.61
本文方法99.4976.47


表选项






3.3 方法运行时间比较 为了验证神经网络方法处理速度更快的特点,本文对增强和分割时间进行统计。该实验以测试集300张掌纹图像的处理进行测试,实验环境为Linux操作系统,基于tesla和quadro的硬件平台。本文所提出的增强、分割方法均通过python编写的U-Net模型进行,分割后续处理部分运用MATLAB程序实现,对两者的处理时间进行统计;进行比较的增强方法为BM3D去噪+Gabor小波增强方法,由MATLAB程序实现;分割的比较方法分别为基于形态学角点检测的定位分割方法、基于边缘跟踪的定位分割方法,由MATLAB程序实现。统计结果如表 5所示,每张掌纹图像经过BM3D去噪+Gabor小波增强处理所需时间为1 355.73 ms,基于形态学角点检测的定位分割方法进行ROI分割则需要32.23 ms,完成增强分割操作总共需要1 387.96 ms。基于边缘跟踪的定位分割方法进行ROI分割则需要14.49 ms,完成增强分割操作总共需要1 370.22 ms,而本文提出的基于U-Net神经网络的方法完成每张掌纹图像增强和分割仅需90.49 ms,因此可以看出基于U-Net神经网络处理效率明显优于常规方法。
表 5 每张掌纹图像处理时间 Table 5 Processing time of each palmprint image
方法时间/ms
增强分割增强和分割
方法11 355.7332.231 387.96
方法21 355.7314.491 370.22
本文方法90.49


表选项






4 结束语 本文提出了一种基于U-Net神经网络的掌纹增强与分割方法。掌纹图像增强中,所提方法能有效去除掌纹图像的噪声,并达到对掌纹3条主要纹路增强效果,性能优于其他方法。在掌纹感兴趣区域分割中,对比手动标注谷点分割的方法,所提方法比常规掌纹分割方法有着更高的定位精度。本文还对神经网络处理掌纹图像和常规方法处理掌纹图像进行时间对比,对比发现神经网络有着更快的处理速度,因此基于U-Net神经网络对掌纹图像进行增强和ROI分割是具有高效性。

参考文献
[1] KUMAR A, KWONG C. Towards contactless, low-cost and accurate 3D fingerprint identification[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 681-696. DOI:10.1109/TPAMI.2014.2339818
[2] LU J W, LIONG V E, ZHOU X Z, et al. Learning compact binary face descriptor for face recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(10): 2041-2056. DOI:10.1109/TPAMI.2015.2408359
[3] NGUYEN K, FOOKES C, JILLELA R, et al. Long range iris recognition:A survey[J]. Pattern Recognition, 2017, 72(12): 123-143.
[4] XIANG B H, YU Z X, QU H B. An improved algorithm of principal line extraction and registration based on MFRAT and ICP[J]. Pattern Recognition and Artificial Intelligence, 2015, 28(3): 260-265.
[5] WONG M, ZHANG D, KONG W K, et al. Real-time palmprint acquisition system design[J]. IEE Proceedings Vision, Image and Signal Processing, 2005, 152(5): 527-534. DOI:10.1049/ip-vis:20049040
[6] 李艳, 吴贵芳, 戴高乐, 等. 一种新的掌纹轮廓特征点提取算法[J]. 微电子学与计算机, 2010, 27(5): 90-94.
LI Y, WU G F, DAI G L, et al. A new algorithm to extract contour feature points of palmprint[J]. Microelectronics and Computer, 2010, 27(5): 90-94. (in Chinese)
[7] 卢妍辉. 智能交通系统中车辆路径识别方法[J]. 交通世界, 2018(35): 15-16.
LU Y H. Vehicle route recognition method in intelligent transportation system[J]. Transpoworld, 2018(35): 15-16. (in Chinese)
[8] 张馨心, 姚爱琴, 孙运强, 等. 基于深度学习的步态识别算法优化研究[J]. 自动化与仪表, 2020, 35(4): 70-74.
ZHANG X X, YAO A Q, SUN Y Q, et al. Research on optimization of gait recognition algorithm based on deep learning[J]. Automation & Instrumentation, 2020, 35(4): 70-74. (in Chinese)
[9] RONNEBERGER O, FISCHER P, BROX T.U-Net: Convolutional networks for biomedical image segmentation[EB/OL].(2015-05-18)[2020-06-28].https://arxiv.org/abs/1505.04597.
[10] YUE F, ZUO W M, ZHANG D, et al. Orientation selection using modified FCM for competitive code-based palmprint recognition[J]. Pattern Recognition, 2009, 42(11): 2841-2849. DOI:10.1016/j.patcog.2009.03.015
[11] SHEN L L, WU S P, ZHENG S H, et al. Embedded palmprint recognition system using OMAP 3530[J]. Sensors, 2012, 12(2): 1482-1493. DOI:10.3390/s120201482
[12] LI C, LIU F, ZHANG Y Z.A principal palm-line extraction method for palmprint images based on diversity and contrast[C]//Proceedings of the 3rd International Congress on Image and Signal Processing.Berlin: Springer, 2010: 1772-1777. https://www.researchgate.net/publication/251968695_A_principal_palm-line_extraction_method_for_palmprint_images_based_on_diversity_and_contrast
[13] ALI M M H, YANAWAR P, GAIKWAD A T.Study of edge detection methods based on palmprint lines[C]//Proceeding of the International Conference on Electrical, Electronics, and Optimization Techniques.Berlin: Springer, 2016: 1344-1350. https://www.researchgate.net/publication/310953935_Study_Of_Edge_Detection_Methods_Based_On_Palmprint_lines
[14] 许学斌, 张德运, 张新曼, 等. 基于离散曲波变换和支持向量机的掌纹识别方法[J]. 红外与毫米波学报, 2009, 28(6): 456-460.
XU X B, ZHANG D Y, ZHANG X M, et al. Palmprint recognition method based on discrete curvelet transform and support vector machine[J]. Journal of Infrared and Millimeter Waves, 2009, 28(6): 456-460. (in Chinese)
[15] XU X B, LU L B, ZHANG X M, et al. Multispectral palmprint recognition using multiclass projection extreme learning machine and digital shearlet transform[J]. Neural Computing and Applications, 2016, 27(1): 143-153.
[16] 吴婕, 任江涛. 基于子空间特征融合的两级掌纹识别算法[J]. 计算机工程与应用, 2015, 51(11): 175-178.
WU J, REN J T. Two level palmprint recognition algorithm based on subspace features[J]. Computer Engineering and Applications, 2015, 51(11): 175-178. (in Chinese)
[17] 李新春, 马红艳, 林森. 基于子空间与纹理特征融合的掌纹识别[J]. 激光与光电子学进展, 2019, 56(7): 147-155.
LI X C, MA H Y, LI S. Palmprint recognition based on subspace and texture feature fusion[J]. Laser & Optoelectronics Progress, 2019, 56(7): 147-155. (in Chinese)
[18] IZADPANAHKAKHK M, RAZAVI S, TAGHIPOUR-GORJIKOL-AIE M, et al. Deep region of interest and feature extraction models for palmprint verification using convolutional neural networks transfer learning[J]. Applied Sciences, 2018, 8(7): 1210. DOI:10.3390/app8071210
[19] GAO X J, LUO X L, PAN X, et al.Palmprint recognition based on deep learning[C]//Proceedings of the International Conference on Wireless Mobile and Multi-media.Berlin: Springer, 2015: 212-214. https://www.researchgate.net/publication/304239065_Palmprint_Recognition_Based_on_Deep_Learning
[20] HUANG D S, JIA W, ZHANG D. Palmprint verification based on principal lines[J]. Pattern Recognition, 2008, 41(4): 1316-1328.
[21] WU X, ZHANG D, WANG K. Palm line extraction and matching for personal authentication[J]. IEEE Transactions on Systems Man & Cybernetics Part A:Systems & Humans, 2006, 36(5): 978-987.
[22] 谢杰成, 张大力, 徐文立. 小波图象去噪综述[J]. 中国图象图形学报, 2002, 7(3): 3-11.
XIE J C, ZHANG D L, XU W L. Overview on wavelet image denoising[J]. Journal of Image and Graphics, 2002, 7(3): 3-11. (in Chinese)
[23] 孔平.基于偏微分方程的图像去噪与增强研究[D].南京: 南京理工大学, 2012.
KONG P.Research on image denoising and enhancement based on partial differential equation[D].Nanjing: Nanjing University of Science and Technology, 2012(in Chinese). http://cdmd.cnki.com.cn/article/cdmd-10288-1012320890.htm
[24] DANIELYAN A, KATKOVNIK V, EGIAZARIAN K. BM3D frames and variational image deblurring[J]. IEEE Transactions on Image Processing, 2012, 21(4): 1715-1728.
[25] 张秀峰, 张真林, 谢红. 掌纹ROI分割算法的研究与实现[J]. 计算机科学, 2016, 43(S2): 170-173.
ZHANG X F, ZHANG Z L, XIE H. Research and realization of palmprint ROI segmentation algorithm[J]. Computer Science, 2016, 43(S2): 170-173. (in Chinese)
[26] MENG Z, FAN Z Y, ZHAO Z C, et al.ENS-Unet: End-to-end noise suppression U-Net for brain tumor segmentation[C]//Proceedings of Annual International Conference of the IEEE Engineering in Medicine and Biology Society.Piscataway: IEEE Press, 2018: 5886-5889.
[27] QIAN P, LI A J, LIU M H.Latent fingerprint enhancement based on denseUNet[C]//2019 International Conference on Biometrics (ICB).Piscataway: IEEE Press, 2019: 1-6. http://ieeexplore.ieee.org/document/8987279/
[28] LIU D, SUN D M.Contactless palmprint recognition based on convolutional neural network[C]//Proceedings of the IEEE International Conference on Signal Processing.Piscataway: IEEE Press, 2016: 1363-1367. https://www.researchgate.net/publication/315512933_Contactless_palmprint_recognition_based_on_convolutional_neural_network
[29] SUN Q L, ZHANG J X, YANG A Q, et al.Palmprint recognition with deep convolutional features[J]//Proceedings of the Chinese Conference on Image and Graphics Technologies.Berlin:Springer, 2017:12-19.
[30] LIN Z, CHENG Z X, YING S, et al. Palmprint and palmvein recognition based on DCNN and a new large-scale contactless palmvein dataset[J]. Symmetry, 2018, 10(4): 78.
[31] 王海霞, 杨熙丞, 梁荣华, 等. 基于轻量级U-Net神经网络提取OCT内指纹和外指纹[J]. 高技术通讯, 2019(11): 1063-1072.
WANG H X, YANG X C, LIANG R H, et al. OCT internal and external fingerprints generation based on a lightweight U-Net neural network[J]. Chinese High Technology Letters, 2019(11): 1063-1072. (in Chinese)
[32] 周瞳, 黄晨昕, 胡锐. 基于深度卷积网络的主掌线纹区域的提取[J]. 工业控制计算机, 2018, 31(7): 97-98.
ZHOU T, HUANG C X, HU R. Extracting main lines area on palm based on deep convolutional network[J]. Industrial Control Computer, 2018, 31(7): 97-98. (in Chinese)
[33] PolyU Palmprint Palmprint Database[EB/OL].(2020-08-06)[2020-06-28].http://www.comp.polyu.edu.hk/~biometrics/.
[34] COUPé P, HELLIER P, KERVRANN C. Nonlocal means-based speckle filtering for ultrasound images[J]. IEEE Transactions on Image Processing, 2009, 18(10): 2221-2229. DOI:10.1109/TIP.2009.2024064
[35] ROGOWSKA J, BRYANT C M, BREZINSKI M E. Cartilage thickness measurements from optical coherence tomography[J]. Journal of the Optical Society of America A:Optics, Image Science, and Vision, 2003, 20(2): 357-367. DOI:10.1364/JOSAA.20.000357
[36] YU Y J, ACTON S T. Speckle reducing anisotropic diffusion[J]. IEEE Transactions on Image Processing, 2002, 11(11): 1260-1270. DOI:10.1109/TIP.2002.804276
[37] 刘佳雯, 陈勇. 关于掌纹图像基于形态学的角点检测的定位分割方法[J]. 现代计算机, 2016(24): 35-38.
LIU J W, CHEN Y. Research on go chess game image recognition algorithm[J]. Modern Computer, 2016(24): 35-38. (in Chinese)
[38] ZHANG D, KONG W K, YOU J, et al. Online palmprint identification[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(9): 1041-1050. DOI:10.1109/TPAMI.2003.1227981
[39] VENKATESAN R, KOON S M, JAKUBOWSKI M H, et al.Robust image hashing[C]//IEEE International Conference on Image Processing.Piscataway: IEEE Press, 2000: 664-666.


相关话题/图像 网络 数据 掌纹 实验

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19
  • 数据丢包和量化约束下的分布式滚动时域估计*
    计算机和通信技术的日趋成熟促进了网络化系统的快速发展。凭借其结构灵活、可扩展性强、运行成本低等优势,网络化系统被广泛应用于目标跟踪、组网导航、智能交通、工业控制等多个领域[1-4]。网络化系统在带来诸多便利的同时,也带来了新的问题和挑战:数据通过网络传输时,由于通信故障、网络拥塞等因素的存在,不可避 ...
    本站小编 Free考研考试 2021-12-25
  • 基于高分辨率网络的单声道歌声分离*
    单声道歌声分离是指从单声道歌曲中分离出伴奏和歌声,是乐器识别、旋律提取、歌词识别、音高估计等课题的基础[1],作为音乐信息检索领域的一个重要研究课题,近年来得到广泛关注。目前,深度学习在计算机视觉领域取得很大进展,歌声分离算法也逐步利用深度学习技术分离伴奏和歌声,并展现出比矩阵分解、音高估计等方法更 ...
    本站小编 Free考研考试 2021-12-25
  • 一种可变锚框候选区域网络的目标检测方法*
    随着计算机科学和认知神经科学的不断发展,人们想要研发以及开发能够模拟、延伸和扩展人类智能的理论、方法、技术以及应用系统,自此人工智能这一技术科学诞生。模式识别、机器学习和深度学习等理论的不断完善和发展,使得计算机视觉在社会各种领域应用广泛,例如交通、医学、农业等领域都取得了明显的成果。随着计算机视觉 ...
    本站小编 Free考研考试 2021-12-25
  • 一种鲁棒性增强的机载网络流量分类方法*
    机载网络作为航空集群等新型作战系统的信息交互纽带[1-2],通过为多样化业务流提供传输服务,可以保证平台间高效协同地执行作战任务[3-4]。在复杂多变的战场环境下,不同类型的业务流往往具有不同的信息价值及服务质量(QualityofService,QoS)需求[5]。同时,由于机载网络具有网络拓扑高 ...
    本站小编 Free考研考试 2021-12-25
  • 基于神经网络的OFDM信道补偿与信号检测*
    正交频分复用(OrthogonalFrequencyDivisionMultiplexing,OFDM)系统能有效地抑制频率选择性衰落且具有较高的频谱利用率,在4G、5G移动通信中始终占据核心技术地位。然而,OFDM的多个独立子载波叠加造成信号峰均比较高,经过高功率放大器(HighPowerAmpl ...
    本站小编 Free考研考试 2021-12-25
  • 基于CGAN的避扰通信决策网络离线式训练方法*
    避扰通信是认知无线电领域的研究热点之一,其工作过程是:感知周围频谱环境信息,自动调整到不受干扰的工作频点。已有很多成熟的方法被提出,如跳频扩频(FHSS)[1]和动态频谱接入(DSA)[2]技术。近年来,人工智能技术飞速发展,一些方法被应用在避扰通信中,如基于深度强化学习的避扰通信算法(Anti-j ...
    本站小编 Free考研考试 2021-12-25
  • 基于GPS多星三频数据融合的GNSS-IR土壤湿度反演方法*
    土壤湿度是全球水循环过程的重要状态参数,在生态研究、农业灌溉及灾害预警等方面都起着非常重要的作用,因此研究土壤湿度的时空变化特征及大范围监测是十分必要的[1]。基于全球卫星导航系统(GlobalNavigationSatelliteSystem,GNSS)单天线技术的土壤湿度反演,是近年来全球导航卫 ...
    本站小编 Free考研考试 2021-12-25
  • 基于改进型YOLO算法的遥感图像舰船检测*
    随着遥感技术的发展,遥感图像处理的研究越来越受到重视。虽然之前已经提出了许多舰船检测算法,但由于存在诸如舰船密度、图像亮度等不确定性因素,如何提高舰船检测的准确率仍然是一个巨大的挑战。此外,遥感图像幅员辽阔,其幅宽可达50~100km,其中的舰船尺寸非常小且密集分布,具有体积小、数量多、位置多样、地 ...
    本站小编 Free考研考试 2021-12-25
  • 管制-飞行状态相依网络模型及特性分析*
    随着中国航空技术的快速发展,近年来,中国不断开辟新的航线,修建新的机场,航路点、管制扇区和航空器的数量也随之大大增加。这些变化推动航空运输业越来越发达,但与此同时,也使得空管系统的网络结构也越来越复杂,给空中交通管制工作带来了巨大的压力。空管系统中的机场、航路点、管制扇区、航空器等组成部分之间都存在 ...
    本站小编 Free考研考试 2021-12-25
  • 基于复杂网络的空中交通复杂性识别方法*
    随着空中运输的需求不断增加,空中交通管制面临着日益增加的复杂性的挑战。冲突探测和解脱(ConflictDetectionandResolution,CD&R)技术,旨在警告飞行员即将发生飞行冲突,并协助其执行避让动作,以减轻空中交通管制员工作压力。因此,近年来,人们不断开展对CD&R技术的研究。空中 ...
    本站小编 Free考研考试 2021-12-25