掌纹原始图像一般存在纹理不清晰、掌纹图像具有不定旋转角度、图像存在噪声等问题。因此有必要对设备采集获取到的掌纹原始图像进行增强处理和感兴趣区域(ROI)提取[6]。现有的掌纹预处理方法普遍存在着时间成本大,方法之间有依赖关系等问题。随着近几年神经网络的迅速发展,神经网络在交通车辆[7]、步态识别[8]、车牌识别等领域取得了很大的成功。神经网络是模拟生物神经网络进行信息处理的一种数学模型,其目的在于模拟大脑的某些机理与机制实现一些特定的功能。它有着高度的并行结构和并行实现能力,能够充分发挥计算机的高速运算能力,可以很快找到最优解。同时它也可以处理一些非线性问题,并且有着自学习功能。近些年****们也将神经网络引入掌纹识别领域,进一步促进了掌纹识别的发展。
本文提出神经网络在掌纹预处理部分中的图像增强与ROI提取的运用,采用的神经网络模型是U-Net神经网络[9],U-Net神经网络既可以处理分割问题,亦能降噪增强图像信息,它能够实现每个像素从点到点的处理。本文的贡献在于将掌纹预处理部分的图像增强和ROI提取放在同一个神经网络模型上运行,这大大减少了预处理的时间,去除了掌纹预处理部分之间的相互依赖关系。
1 相关工作 1.1 掌纹识别 现今常用的掌纹识别方法通常分为几个大类:①基于编码特征的识别方法[10-11]。通过将掌纹图像的特征转化为由0、1组成的数字编码,最后通过二进制算术运算获得图像间的相似度。②基于结构特征的识别方法[12-13]。通过边缘检测方法提取脊线、主线等方位信息来进行掌纹识别。③基于统计特征的识别方法[14-15]。利用图像的统计概念提取方差、标准差等特征,然后转化为用于匹配的向量。④基于子空间特征的识别方法[16-17]。将掌纹图像视为高维矩阵或向量,并通过投影或数学变换等方式转化为低维形式进行表征和分类,随后用于图像匹配。⑤基于特征学习的识别方法[18-19]。在现有掌纹识别的方法中,掌纹主线是重要的特征,Huang等[20]提出Radon变换掌纹的主线,再利用掌纹之间的相似度进行掌纹验证。Wu等[21]设计了一组定向线检测器,然后将这些检测器用于沿不同方向提取主线。通过对主要纹路的增强,可以有效地增强掌纹识别过程中对主线的提取效果,从而提高掌纹识别的准确率。
1.2 掌纹图像预处理 掌纹图像增强预处理中,最常使用的方法有小波变换(Wavelet Transform,WT)[22]、偏微分方程图像增强方法[23]、三维块匹配方法(BM3D)[24]等,然而这些方法在对每张图像进行处理时往往需要较多的时间成本,而且这些方法对不同环境采集的掌纹图像不能保持良好的鲁棒性。传统的ROI提取方法通过获取手掌的轮廓,找到指蹼的特征点,再通过特征点的位置进行ROI提取。李艳等[6]提出了一种对掌纹轮廓特征点进行提取的方法,即利用多个互相相切的外切圆和手掌边界的交点个数来判断角点的大概位置,然后通过结合手掌轮廓线近似直线的性质,从而得到手掌轮廓特征点的准确位置。但因为需要反复搜索圆心并调整半径, 预处理时间长, 复杂性高, 不能用于实时系统。张秀峰等[25]为了改善ROI提取过程中会产生偏移的问题,提出了一种新的ROI分割方法:先确定手掌的指蹼位置,通过两个指蹼边界点拟合成一条直线,利用这条直线为基准,矫正手掌的偏转角度并确定ROI区域。这些传统方法的ROI提取对掌纹的质量要求非常高,而神经网络的出现,很好地解决了这些问题。
1.3 神经网络 在2015年U-Net被Ronneberger等[9]所提出,其在全卷积神经网络(FCN)的基础上进行改良形成的,其特点是可以用较少的图像训练数据得到更好的处理结果,因其具有的特点近年来被广泛应用于医学图像处理的领域。Meng等[26]应用U-Net实现了对脑肿瘤图像的分割和增强,并与其他方法进行对比,发现有着更好的效果。Qian等[27]将模型应用于图像增强,也实现了较好的处理效果。神经网络在掌纹识别中也取得了较好的成绩。Gao等[19]结合了自上而下的无监督训练和训练样本建立Deep Belief Net,在掌纹识别上取得优于主成分分析(PCA)、局部二元模式(LBP)的结果。Liu和Sun[28]尝试使用AlexNet提取深度特征。Sun等[29]利用CNN-F网络进行掌纹识别,并评估不同层提取到的卷积特征。Lin等[30]提出了Palm RCNN进行掌纹识别,并公开了同济大学掌纹数据库。王海霞等[31]改进了轻量级U-Net,在不影响输出结果的前提下,有效的提高了计算时间。特别地,周瞳等[32]使用卷积神经网络的方法实现掌纹的提取。这些研究都证明了神经网络在掌纹图像处理中的巨大潜力。
2 方法设计 本文方法流程图如图 1所示,通过U-Net神经网络分别对掌纹图像进行图像增强与谷点分割,在该部分掌纹增强与ROI区域提取采取并行模式,该模式可以有效地去除图像增强与ROI提取相互的依赖性,确保处理方法的独立性。在2.1节中,对数据集的准备进行了介绍,包括有监督的图像去噪滤波、图像增强、特征点定位及数据扩增。在2.2节中,采用U-Net神经网络对掌纹图像进行增强与谷点位置预测,以及相关的后续处理。
图 1 本文方法流程图 Fig. 1 Proposed method flow chart |
图选项 |
2.1 数据集的准备 数据集的准备具体步骤包括图像去噪滤波、图像增强、以ROI提取为目的的特征点定位,并进行数据扩增。
首先,掌纹图像分布着不均匀的噪声,掌纹的3条主线常常具有对比度不清晰的问题,并且掌纹的亮暗程度不均匀,需要对图像进行滤波处理。图像滤波就是对图像进行噪声上的过滤,抑制噪声对图像的影响,并且最大化地保留图像细节特征。本文采用BM3D方法,这是一种非局部方法,它的原理首先是通过和相邻图像块进行匹配,然后与之进行整合形成一个三维矩阵,在3D空间中进行滤波,然后再转换为2D。该方法分两步,实现对图像双重去噪:第一次是对原图匹配进行简单去噪,第二次去噪的权值将会以第一次去噪的结果作为基准,处理结果如图 2所示。在实际去噪处理中,会不可避免地导致一些关键细节信息被模糊,如图 2(b)所示。掌纹的3条关键纹路与手掌的对比度明显降低。本文采用Gabor小波变换进行图像增强。Gabor小波的优点在于对图像边缘检测敏感,从而能够有良好的尺度选择特性和方向选择,而且对光照变化不敏感, 有着良好的适应性。Gabor小波变换处理结果如图 2(c)所示。通过BM3D与Gabor小波变换,本文完成对掌纹增强数据集的处理与获取。
图 2 预处理步骤 Fig. 2 Pre-processingsteps |
图选项 |
其次,针对掌纹ROI分割问题,为更精确定位ROI区域,本文通过对掌纹的2个关键指间谷点进行预测,再进行后处理定位的方式进行。数据集的标注是对关键指间谷点的标注,为尽量进行精确定位,本文采用手工标定。在标注出两个关键点之后,生成一副二值图,背景为黑,2个谷点为白色,长度为10个像素的矩形,如图 2(d)所示。通过手工标注,完成对掌纹ROI提取数据集的获取。
由于深度学习需要较多的训练样本,而且对训练样本的处理也需要花费大量的时间。因此本文采用数据增强技术,以左右各旋转10°来进行数据集扩充。在此次训练中,对700张掌纹增强图像、ROI谷点图像进行扩充,获得2100张图片。来防止因为数据集过少而产生的神经网络过拟合问题,获得更好的增强效果。在香港理工大学的掌纹数据库中,每一张图像的像素大小为384×284。在网络训练的过程中,需要对图像进行3次下采样操作,每经过一次下采样处理,图像大小变为原来的一半,而284不能被2整除3次。所以调整图像大小为384×280。
2.2 掌纹增强与ROI提取
2.2.1 网络结构 U-Net神经网络通过收缩路径和扩张路径构成了一个对称的U型网络。主要包含下采样和上采样2个部分,下采样进行特征提取。下采样过程中,图像的通道数翻倍,同时特征图维度减半。应用修正线性单元(Rectified Linear Unit,ReLU)激活函数,激活函数的作用就是引进非线性因素,这样使得神经网络可以应用于非线性的模型中去,而不是仅仅只是限制于线性函数。上采样的作用是把识别的特征还原到原图的大小上去,最终得出输出的结果。每次经过上采样层后特征图维度加倍,通道数减半,最终使图像恢复到原尺寸,在上采样的过程中同样也是应用ReLU激活函数。
图 3和表 1展示了网络结构和模型参数。本模型包含收缩路径和扩张路径。在收缩路径中,包含3个收缩单元,每个单元都包含2个卷积模块和1个池化层。进行完下采样后再经过2个卷积模块,就可以进行上采样操作。扩张路径同样有3个扩张单元,前面2个单元包含1个上采样层和2个卷积模块。最后1个扩张单元中包含上采样层、两个卷积模块和1个1×1大小的卷积模块。每次使用上采样层后特征图维度加倍、通道数减半。跳跃连接增加了收缩路径和扩张路径之间的通路。
图 3 U-Net神经网络结构 Fig. 3 U-Net neural network structure |
图选项 |
表 1 U-Net神经网络模型参数 Table 1 U-Net neural network model parameters
层类型 | 输入大小 | 滤波器大小 | 重复次数 |
卷积模块 | 1×384×280 | 3×3 | 1 |
卷积模块 | 64×384×280 | 3×3 | 1 |
池化层 | 64×384×280 | 2×2 | 1 |
卷积模块 | 64×192×140 | 3×3 | 2 |
池化层 | 128×192×140 | 2×2 | 1 |
卷积模块 | 128×96×70 | 3×3 | 2 |
池化层 | 256×96×70 | 2×2 | 1 |
卷积模块 | 256×48×35 | 3×3 | 2 |
上采样层 | 512×48×35 | 3×3 | 1 |
卷积模块 | 512×96×70 | 3×3 | 2 |
上采样层 | 256×96×70 | 3×3 | 1 |
卷积模块 | 256×192×140 | 3×3 | 2 |
上采样层 | 128×192×140 | 3×3 | 1 |
卷积模块 | 128×384×280 | 3×3 | 1 |
卷积模块 | 64×384×280 | 3×3 | 1 |
卷积模块 | 64×384×280 | 1×1 | 1 |
表选项
2.2.2 掌纹增强与ROI提取网络的能量函数设定 在深度学习中,激活函数和损失函数在神经网络中都起着重要作用,激活函数给网络引入了非线性因素,使得网络能够逼近任何的函数。常用到的输出层激活函数主要包括:sigmoid、tanh、ReLU。不同的输出层激活函数的选择,将会产生不同的输出效果,因此需要根据各激活函数的特点进行选择。针对掌纹增强网络,本文经过实验对比分析,发现3种激活函数效果差异明显,当采用ReLU函数为激活函数,效果明显优于其他2种函数,因此ReLU选择作为掌纹增强的激活函数,它是分段函数,函数收敛速度也明显比前两者快,并且能避免sigmoid和tanh函数都存在的梯度消失的问题,因此会更加适合图像增强的处理,ReLU函数图形如图 4(a)所示,其计算公式为
图 4 激活函数图形 Fig. 4 Graph of activation functions |
图选项 |
(1) |
机器学习过程中,需要对方法进行最小化的函数,这个函数就是损失函数。损失函数越小,表明真实值和预测值越接近,损失函数的选取要适应应用背景,没有适用所有情况的损失函数存在,常用的损失函数包含:均方误差、交叉熵误差、绝对值损失函数等。而在实际应用中也可根据自己的需求进行编写。
根据实验分析得出,本文应用的掌纹图像增强的损失函数loss1定义为式(2)所示,其最为接近训练样本:
(2) |
式中:N为样本数量;fi为预测值;yi为真实值。当预测值越接近真实值时,loss1的返回值也越接近0,网络接近稳定。
针对掌纹ROI提取,3种激活函数效果差异明显,本文采用sigmoid函数为激活函数。sigmoid函数的本质是将取值为(-∞, +∞)的值映射到(0, 1),所以经常被用在二分类的问题中,sigmoid函数图形如图 4(b)所示, 其计算公式为
(3) |
根据分割需求,将本文应用的掌纹ROI提取的损失函数loss2定义为
(4) |
式中:s为基值,它的取值为1,它的作用是防止出现分母为0的状况。当预测值越接近真实值时,loss2的返回值也越接近1,网络接近稳定。
2.2.3 ROI提取后处理 通过U-net网络掌纹增强可直接获取结果,而掌纹ROI提取只是获得中间过程图像,对掌纹的分割还需要从指间谷点进行后处理。如图 5(a)所示,经过U-Net神经网络可得到了掌纹谷点分割结果。首先求取二值图中的2个关键点对应的质心,作为掌纹谷点,如图 5(b)掌纹图像中的圆圈标记所示。其次,对2个谷点进行连接,对连接线和相对应垂线建立新的坐标轴,以2条直线交点为原点。如图 6(a)所示,以此坐标系为主坐标系,2个谷点为标准点,调整掌纹图像角度,对掌纹图像进行ROI框取,框取的ROI大小为144×128,如图 6(b)所示,最终效果图如图 6(c)所示。
图 5 关键点及掌纹对应谷点 Fig. 5 Key points and correspondingly valley points on plamprint |
图选项 |
图 6 ROI提取处理 Fig. 6 ROI extraction processing diagram |
图选项 |
3 实验结果分析 本文实验应用的掌纹数据库是来自香港理工大学掌纹数据库[33], 包含7 752个图像,分别来自386个不同的手掌,每个手掌大约采集了20张图像,这20张图像分2个阶段进行采集,这2个阶段间隔在2个月左右。本文从香港理工大学掌纹数据库中选取1 000张掌纹图像,其中700张掌纹作为训练集进行神经网络训练,另外选择300张掌纹图像组成测试集,经过神经网络预测分别获得增强、分割图。以下将对该网络模型的性能进行评估。
3.1 掌纹图像增强处理结果 图 7是部分原始掌纹测试集图像和网络增强处理后的ROI图像对比,可以看出,掌纹的噪声明显降低,掌纹主要的3条纹路乳突纹、皱纹和屈肌线也更加的明显,并且这种效果是普遍适用所有300张测试集图像的。
图 7 不同掌纹图像的增强结果 Fig. 7 Enhancement results of different palmprint images |
图选项 |
对掌纹图像增强效果进行量化评估,常用峰值信噪比(PSNR)、信息熵(Entropy)、绝对均值误差(AMBE)来评估方法的性能。PSNR的值越大,Entropy值越大,AMBE值越小,则说明掌纹图像的增强效果越好。
将本文方法与BM3D去噪+Gabor小波增强、OBLNM[34]、RKTFILT[35]和SRAD[36]当前流行的掌纹图像增强方法的效果进行对比实验,由于缺少真值,本文采用2种方式获得真值。第1种以BM3D去噪+Gabor小波增强处理过后的掌纹图像为真值,第2种以OBLNM处理过后的掌纹图像为真值。分别对2组真值图像添加高斯白噪声,再分别经过以上5种方法进行去噪增强。图 8为第1种方式下掌纹图像增强效果对比。图 9为第2种方式下掌纹图像增强效果对比。从表 2和图像增强对比结果(图 8和图 9)可以看出,本文方法要优于其他方法。
图 8 BM3D去噪+Gabor小波增强后为真值的掌纹增强对比 Fig. 8 Comparison of palmprint enhancement after BM3D denoising +Gabor wavelet enhancement as truth value |
图选项 |
图 9 OBLNM增强后为真值的掌纹增强对比 Fig. 9 Comparison of palmprint enhancement after OBLNM enhancement as truth value |
图选项 |
表 2 掌纹增强效果比较结果 Table 2 Comparison results of palmprint enhancement
方法 | BM3D去噪+Gabor小波增强后为真值 | OBLNM增强后为真值 | |||||
PSNR | Entropy | AMBE | PSNR | Entropy | AMBE | ||
BM3D去噪+Gabor小波增强 | 24.727 6 | 6.435 6 | 3.163 0 | 24.049 3 | 6.531 6 | 4.168 1 | |
OBLNM | 23.171 6 | 6.916 0 | 12.419 8 | 26.334 8 | 6.877 0 | 5.930 9 | |
RKTFILT | 23.499 4 | 6.820 0 | 15.239 3 | 28.022 2 | 6.753 7 | 6.806 8 | |
SRAD | 26.925 8 | 6.005 4 | 7.346 4 | 27.037 8 | 6.154 6 | 5.653 2 | |
本文方法 | 27.120 8 | 7.247 6 | 3.165 3 | 27.916 9 | 6.920 7 | 3.210 1 |
表选项
3.2 掌纹分割图像相似度分析 为了判断训练结束后的网络模型的科学性,将测试集300张掌纹图像进行手动标注指间谷点,并对标注好谷点后的图像进行ROI提取,将提取出来的掌纹感兴趣区域作为标准参考。同时采用其他2种方法——基于形态学角点检测的定位分割方法[37] (方法1)与基于边缘跟踪的定位分割方法[38] (方法2),与本文提出的基于U-Net神经网络输出的掌纹分割图像与标准图像进行面积重合率分析,通过将得到的谷点进一步计算成掌纹的感兴趣区域,划定位置,将掌纹图像转化为二值图像,掌纹ROI为1,背景为0,同理对其他方法和人工标注也进行同样处理,最后对两者进行与操作,计算重叠部分所占比例。结果如表 3所示,本文方法面积重合率可达94.00%,而方法1的为91.18%,方法2的为88.00%。可见本文方法的结果和手动标注的真值有着较高的重合度,更加接近真实感兴趣区域,也意味着本文方法定位精度是可靠的。
表 3 掌纹感兴趣区域重合度分析 Table 3 Analysis of coincidence degree of palmprint ROI
方法 | 面积重合率/% |
方法1 | 91.18 |
方法2 | 88.00 |
本文方法 | 94.00 |
表选项
为了进一步判断本文提出的掌纹分割方法准确性,将基于形态学角点检测的定位分割方法、基于谷点聚类分析的定位分割方法和本文方法与手动标注分割的掌纹感兴趣区域图像进行相似性比较,本文选取2个相似度指标,分别为余弦相似度(Cosin相似度)和哈希相似度[39]。当两者的值越接近100%时,表示2张图像越相似。结果如表 4所示。从表中可以看出,本文方法相比于另外2种掌纹分割方法有着更高的相似度。实验结果表明,基于U-Net神经网络掌纹分割有着较好的效果,对掌纹感兴趣区域有着精确的定位。
表 4 掌纹分割图像相似度对比 Table 4 Similarity comparison of palmprint segmentation images
方法 | Cosin相似度/% | 哈希相似度/% |
方法1 | 99.32 | 73.17 |
方法2 | 99.13 | 71.61 |
本文方法 | 99.49 | 76.47 |
表选项
3.3 方法运行时间比较 为了验证神经网络方法处理速度更快的特点,本文对增强和分割时间进行统计。该实验以测试集300张掌纹图像的处理进行测试,实验环境为Linux操作系统,基于tesla和quadro的硬件平台。本文所提出的增强、分割方法均通过python编写的U-Net模型进行,分割后续处理部分运用MATLAB程序实现,对两者的处理时间进行统计;进行比较的增强方法为BM3D去噪+Gabor小波增强方法,由MATLAB程序实现;分割的比较方法分别为基于形态学角点检测的定位分割方法、基于边缘跟踪的定位分割方法,由MATLAB程序实现。统计结果如表 5所示,每张掌纹图像经过BM3D去噪+Gabor小波增强处理所需时间为1 355.73 ms,基于形态学角点检测的定位分割方法进行ROI分割则需要32.23 ms,完成增强分割操作总共需要1 387.96 ms。基于边缘跟踪的定位分割方法进行ROI分割则需要14.49 ms,完成增强分割操作总共需要1 370.22 ms,而本文提出的基于U-Net神经网络的方法完成每张掌纹图像增强和分割仅需90.49 ms,因此可以看出基于U-Net神经网络处理效率明显优于常规方法。
表 5 每张掌纹图像处理时间 Table 5 Processing time of each palmprint image
方法 | 时间/ms | ||
增强 | 分割 | 增强和分割 | |
方法1 | 1 355.73 | 32.23 | 1 387.96 |
方法2 | 1 355.73 | 14.49 | 1 370.22 |
本文方法 | 90.49 |
表选项
4 结束语 本文提出了一种基于U-Net神经网络的掌纹增强与分割方法。掌纹图像增强中,所提方法能有效去除掌纹图像的噪声,并达到对掌纹3条主要纹路增强效果,性能优于其他方法。在掌纹感兴趣区域分割中,对比手动标注谷点分割的方法,所提方法比常规掌纹分割方法有着更高的定位精度。本文还对神经网络处理掌纹图像和常规方法处理掌纹图像进行时间对比,对比发现神经网络有着更快的处理速度,因此基于U-Net神经网络对掌纹图像进行增强和ROI分割是具有高效性。
参考文献
[1] | KUMAR A, KWONG C. Towards contactless, low-cost and accurate 3D fingerprint identification[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(3): 681-696. DOI:10.1109/TPAMI.2014.2339818 |
[2] | LU J W, LIONG V E, ZHOU X Z, et al. Learning compact binary face descriptor for face recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015, 37(10): 2041-2056. DOI:10.1109/TPAMI.2015.2408359 |
[3] | NGUYEN K, FOOKES C, JILLELA R, et al. Long range iris recognition:A survey[J]. Pattern Recognition, 2017, 72(12): 123-143. |
[4] | XIANG B H, YU Z X, QU H B. An improved algorithm of principal line extraction and registration based on MFRAT and ICP[J]. Pattern Recognition and Artificial Intelligence, 2015, 28(3): 260-265. |
[5] | WONG M, ZHANG D, KONG W K, et al. Real-time palmprint acquisition system design[J]. IEE Proceedings Vision, Image and Signal Processing, 2005, 152(5): 527-534. DOI:10.1049/ip-vis:20049040 |
[6] | 李艳, 吴贵芳, 戴高乐, 等. 一种新的掌纹轮廓特征点提取算法[J]. 微电子学与计算机, 2010, 27(5): 90-94. LI Y, WU G F, DAI G L, et al. A new algorithm to extract contour feature points of palmprint[J]. Microelectronics and Computer, 2010, 27(5): 90-94. (in Chinese) |
[7] | 卢妍辉. 智能交通系统中车辆路径识别方法[J]. 交通世界, 2018(35): 15-16. LU Y H. Vehicle route recognition method in intelligent transportation system[J]. Transpoworld, 2018(35): 15-16. (in Chinese) |
[8] | 张馨心, 姚爱琴, 孙运强, 等. 基于深度学习的步态识别算法优化研究[J]. 自动化与仪表, 2020, 35(4): 70-74. ZHANG X X, YAO A Q, SUN Y Q, et al. Research on optimization of gait recognition algorithm based on deep learning[J]. Automation & Instrumentation, 2020, 35(4): 70-74. (in Chinese) |
[9] | RONNEBERGER O, FISCHER P, BROX T.U-Net: Convolutional networks for biomedical image segmentation[EB/OL].(2015-05-18)[2020-06-28].https://arxiv.org/abs/1505.04597. |
[10] | YUE F, ZUO W M, ZHANG D, et al. Orientation selection using modified FCM for competitive code-based palmprint recognition[J]. Pattern Recognition, 2009, 42(11): 2841-2849. DOI:10.1016/j.patcog.2009.03.015 |
[11] | SHEN L L, WU S P, ZHENG S H, et al. Embedded palmprint recognition system using OMAP 3530[J]. Sensors, 2012, 12(2): 1482-1493. DOI:10.3390/s120201482 |
[12] | LI C, LIU F, ZHANG Y Z.A principal palm-line extraction method for palmprint images based on diversity and contrast[C]//Proceedings of the 3rd International Congress on Image and Signal Processing.Berlin: Springer, 2010: 1772-1777. https://www.researchgate.net/publication/251968695_A_principal_palm-line_extraction_method_for_palmprint_images_based_on_diversity_and_contrast |
[13] | ALI M M H, YANAWAR P, GAIKWAD A T.Study of edge detection methods based on palmprint lines[C]//Proceeding of the International Conference on Electrical, Electronics, and Optimization Techniques.Berlin: Springer, 2016: 1344-1350. https://www.researchgate.net/publication/310953935_Study_Of_Edge_Detection_Methods_Based_On_Palmprint_lines |
[14] | 许学斌, 张德运, 张新曼, 等. 基于离散曲波变换和支持向量机的掌纹识别方法[J]. 红外与毫米波学报, 2009, 28(6): 456-460. XU X B, ZHANG D Y, ZHANG X M, et al. Palmprint recognition method based on discrete curvelet transform and support vector machine[J]. Journal of Infrared and Millimeter Waves, 2009, 28(6): 456-460. (in Chinese) |
[15] | XU X B, LU L B, ZHANG X M, et al. Multispectral palmprint recognition using multiclass projection extreme learning machine and digital shearlet transform[J]. Neural Computing and Applications, 2016, 27(1): 143-153. |
[16] | 吴婕, 任江涛. 基于子空间特征融合的两级掌纹识别算法[J]. 计算机工程与应用, 2015, 51(11): 175-178. WU J, REN J T. Two level palmprint recognition algorithm based on subspace features[J]. Computer Engineering and Applications, 2015, 51(11): 175-178. (in Chinese) |
[17] | 李新春, 马红艳, 林森. 基于子空间与纹理特征融合的掌纹识别[J]. 激光与光电子学进展, 2019, 56(7): 147-155. LI X C, MA H Y, LI S. Palmprint recognition based on subspace and texture feature fusion[J]. Laser & Optoelectronics Progress, 2019, 56(7): 147-155. (in Chinese) |
[18] | IZADPANAHKAKHK M, RAZAVI S, TAGHIPOUR-GORJIKOL-AIE M, et al. Deep region of interest and feature extraction models for palmprint verification using convolutional neural networks transfer learning[J]. Applied Sciences, 2018, 8(7): 1210. DOI:10.3390/app8071210 |
[19] | GAO X J, LUO X L, PAN X, et al.Palmprint recognition based on deep learning[C]//Proceedings of the International Conference on Wireless Mobile and Multi-media.Berlin: Springer, 2015: 212-214. https://www.researchgate.net/publication/304239065_Palmprint_Recognition_Based_on_Deep_Learning |
[20] | HUANG D S, JIA W, ZHANG D. Palmprint verification based on principal lines[J]. Pattern Recognition, 2008, 41(4): 1316-1328. |
[21] | WU X, ZHANG D, WANG K. Palm line extraction and matching for personal authentication[J]. IEEE Transactions on Systems Man & Cybernetics Part A:Systems & Humans, 2006, 36(5): 978-987. |
[22] | 谢杰成, 张大力, 徐文立. 小波图象去噪综述[J]. 中国图象图形学报, 2002, 7(3): 3-11. XIE J C, ZHANG D L, XU W L. Overview on wavelet image denoising[J]. Journal of Image and Graphics, 2002, 7(3): 3-11. (in Chinese) |
[23] | 孔平.基于偏微分方程的图像去噪与增强研究[D].南京: 南京理工大学, 2012. KONG P.Research on image denoising and enhancement based on partial differential equation[D].Nanjing: Nanjing University of Science and Technology, 2012(in Chinese). http://cdmd.cnki.com.cn/article/cdmd-10288-1012320890.htm |
[24] | DANIELYAN A, KATKOVNIK V, EGIAZARIAN K. BM3D frames and variational image deblurring[J]. IEEE Transactions on Image Processing, 2012, 21(4): 1715-1728. |
[25] | 张秀峰, 张真林, 谢红. 掌纹ROI分割算法的研究与实现[J]. 计算机科学, 2016, 43(S2): 170-173. ZHANG X F, ZHANG Z L, XIE H. Research and realization of palmprint ROI segmentation algorithm[J]. Computer Science, 2016, 43(S2): 170-173. (in Chinese) |
[26] | MENG Z, FAN Z Y, ZHAO Z C, et al.ENS-Unet: End-to-end noise suppression U-Net for brain tumor segmentation[C]//Proceedings of Annual International Conference of the IEEE Engineering in Medicine and Biology Society.Piscataway: IEEE Press, 2018: 5886-5889. |
[27] | QIAN P, LI A J, LIU M H.Latent fingerprint enhancement based on denseUNet[C]//2019 International Conference on Biometrics (ICB).Piscataway: IEEE Press, 2019: 1-6. http://ieeexplore.ieee.org/document/8987279/ |
[28] | LIU D, SUN D M.Contactless palmprint recognition based on convolutional neural network[C]//Proceedings of the IEEE International Conference on Signal Processing.Piscataway: IEEE Press, 2016: 1363-1367. https://www.researchgate.net/publication/315512933_Contactless_palmprint_recognition_based_on_convolutional_neural_network |
[29] | SUN Q L, ZHANG J X, YANG A Q, et al.Palmprint recognition with deep convolutional features[J]//Proceedings of the Chinese Conference on Image and Graphics Technologies.Berlin:Springer, 2017:12-19. |
[30] | LIN Z, CHENG Z X, YING S, et al. Palmprint and palmvein recognition based on DCNN and a new large-scale contactless palmvein dataset[J]. Symmetry, 2018, 10(4): 78. |
[31] | 王海霞, 杨熙丞, 梁荣华, 等. 基于轻量级U-Net神经网络提取OCT内指纹和外指纹[J]. 高技术通讯, 2019(11): 1063-1072. WANG H X, YANG X C, LIANG R H, et al. OCT internal and external fingerprints generation based on a lightweight U-Net neural network[J]. Chinese High Technology Letters, 2019(11): 1063-1072. (in Chinese) |
[32] | 周瞳, 黄晨昕, 胡锐. 基于深度卷积网络的主掌线纹区域的提取[J]. 工业控制计算机, 2018, 31(7): 97-98. ZHOU T, HUANG C X, HU R. Extracting main lines area on palm based on deep convolutional network[J]. Industrial Control Computer, 2018, 31(7): 97-98. (in Chinese) |
[33] | PolyU Palmprint Palmprint Database[EB/OL].(2020-08-06)[2020-06-28].http://www.comp.polyu.edu.hk/~biometrics/. |
[34] | COUPé P, HELLIER P, KERVRANN C. Nonlocal means-based speckle filtering for ultrasound images[J]. IEEE Transactions on Image Processing, 2009, 18(10): 2221-2229. DOI:10.1109/TIP.2009.2024064 |
[35] | ROGOWSKA J, BRYANT C M, BREZINSKI M E. Cartilage thickness measurements from optical coherence tomography[J]. Journal of the Optical Society of America A:Optics, Image Science, and Vision, 2003, 20(2): 357-367. DOI:10.1364/JOSAA.20.000357 |
[36] | YU Y J, ACTON S T. Speckle reducing anisotropic diffusion[J]. IEEE Transactions on Image Processing, 2002, 11(11): 1260-1270. DOI:10.1109/TIP.2002.804276 |
[37] | 刘佳雯, 陈勇. 关于掌纹图像基于形态学的角点检测的定位分割方法[J]. 现代计算机, 2016(24): 35-38. LIU J W, CHEN Y. Research on go chess game image recognition algorithm[J]. Modern Computer, 2016(24): 35-38. (in Chinese) |
[38] | ZHANG D, KONG W K, YOU J, et al. Online palmprint identification[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(9): 1041-1050. DOI:10.1109/TPAMI.2003.1227981 |
[39] | VENKATESAN R, KOON S M, JAKUBOWSKI M H, et al.Robust image hashing[C]//IEEE International Conference on Image Processing.Piscataway: IEEE Press, 2000: 664-666. |