删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

基于空间注意力机制的行人再识别方法*

本站小编 Free考研考试/2021-12-25

利用视频监控进行案件侦破时,多数场合只能看清行人的身体部分,同时需要进行跨视域的连续跟踪查找,因此行人再识别对于查获犯罪嫌疑人及可疑人员,寻找发现侦查破案所需的线索与信息至关重要。行人再识别核心思想是利用行人的整体特征对没有视野重叠覆盖的跨摄像机行人图像间建立对应关系。
依据提取特征方式不同,行人再识别可分为基于特征表达、基于度量学习以及基于深度学习等方法。基于特征表达的方法主要是通过提取行人图像的颜色、纹理、形状和属性特征来对行人进行再识别,但这些浅层的人工特征易受到行人姿态以及行人图片光照、分辨率的影响。基于度量学习的方法是对特征进行相似度度量,主要依靠的是欧氏距离[1]以及马氏距离[2],然而,由于受行人图像复杂背景的影响,使得基于度量学习在行人匹配上遇到了识别精度不高的瓶颈。基于深度学习的方法将特征表达与度量学习结合在一起,实现了端到端的行人再识别,此类方法通过海量的数据来训练模型,使提取到的行人特征更具泛化性。Yi等[3]利用一个孪生网络[4],将输入图片分割为3个重叠的水平条纹, 并使用卷积层分别提取3个条纹的特征,最终融合成为一个特征向量作为输出,然后再进行相似度比较。随着全局特征遇到瓶颈,****开始将目标转到局部特征。Varior等[5]采用图像切块的方式,将被分割好的若干块图像块按照顺序送到一个LSTM网络,网络最后输出的全局特征融合了所有图像块的局部特征。为了解决局部特征对齐的问题,Zhang等[6]提出了一种端到端的方法AlignedReID,让网络自动学习人体对齐,在提取局部信息时采用动态匹配的方法选取最短路径从而进行行人对齐。为了解决行人再识别数据不足的问题,Deng等[7]通过引入CycleGAN来实现不同摄像头下图片风格的转化,并将生成的图片用于训练。Luo等[8]在AlignedReID基础上提出了动态匹配局部信息(DMLI)的新方法,即AlignedReID++,该方法可以动态调整局部信息,无需额外的监督。
本文在AlignedReID++基础上,提出了一种改进的行人特征提取方法。该方法通过引入空间注意力机制,利用特征的空间特性动态调整特征表达,使提取到的特征更具有全局性和泛化性。同时,又引入了实例正则化(Instance-Normalization,IN)模块来辅助批正则化(Batch-Normalization,BN)层对特征进行归一化处理,提高网络对颜色、纹理特征变化的鲁棒性。
1 AlignedReID++算法 AlignedReID++算法主要包括特征提取和相似度度量2个部分,如图 1所示。在特征提取部分,将256×128大小的行人图片通过ResNet50网络进行特征提取,并对提取到的特征分别输入给全局分支和局部分支。在全局分支中使用全局池化层来进一步提取全局特征。在局部分支中使用水平池化层,将行人图片从水平方向进行划分,并对每一条划分后的图片条纹进行局部特征提取。在相似度度量部分,分别对提取到的局部特征和全局特征进行特征间的距离计算。对于全局分支提取到的全局特征,使用L2距离来计算全局距离,其表达式为
(1)

图 1 AlignedReID++算法流程图 Fig. 1 AlignedReID ++ algorithm flowchart
图选项




式中:fAfB分别为2幅行人图片的特征向量,通过计算2幅图像特征向量之间的L2距离来计算2幅图像的相似度。对于局部特征部分,采用动态匹配局部特征的方法解决行人图片姿态各异无法对齐的问题,对于一幅行人图像的多个水平局部特征,动态地从上至下匹配局部部分,寻找拥有最短距离的对齐。对于2幅图像的局部特征lA={lA1, lA2, …, lAH}和lB={lB1, lB2, …, lBH},首先使用Element-wise的转化,将距离归一化到[0, 1)之间,如下:
(2)

式中:di, j为第一张图片第i个数值条与第2张图片的第j个数值条的距离,这些距离组成了距离矩阵D。动态的局部距离则定义为在距离矩阵D中,从(1,1)到(H, H)总距离的最短路径。局部距离动态规划计算过程如下:
(3)

式中:Si, j为距离矩阵D从(1,1)到(ij)的总距离,而SH, H则表示2幅图片最短路径的总距离,其计算公式为
(4)

所以,2幅图像之间总的距离可以表示为局部距离与全局距离之和:
(5)

式中:dl(A, B)为局部距离;λ为平衡全局距离以及局部距离的权重系数,这里取值为1。训练过程中使用Triplet损失[9]作为度量学习的损失,同时在全局分支中,使用Softmax损失来辅助分类,AlignedreID++的整体损失函数为
(6)

式中:LTlLIDLTg分别为局部分支的Triplet损失、全局分支的Softmax损失和Triplet损失,将3个损失的和作为整体的损失函数,使用随机梯度下降优化。
2 基于空间注意力机制的行人特征提取 通常来说,在AlignedReID++算法中提取到的行人特征是由许多子特征组成,这些子特征以组的形式分布在卷积层中的每一层,而子特征易受背景噪声的干扰,会导致错误的识别和定位。BN层[10]是将一个batch的数据进行归一化,增加了不同特征语义之间的差异性,但是当训练数据集和测试数据集差异较大时,单一的BN层会影响测试的结果。
针对上述问题,本文提出一种改进的行人特征提取方法,其框架如图 2所示。图中:xCHW分别为空间注意力模块处理前每一个组的特征向量、经过空间注意力模块处理后的每一个组的特征向量、特征图的通道数量、特征图的高度以及特征图的宽度;g为经过全局平均池化(Global Average Pooling,GAP)后的特征向量;a为经过归一化后得到的特征向量矩阵;Fgp(·)为特征向量经过全局平均池化的过程。整体框架与AlignedReID++类似,包括特征提取和相似度度量2个部分。在特征提取网络ResNet50的基础上,引入空间注意力模块SGE(Spatial Group-wise Enhance)[11],根据每个特征在空间上的位置来生成空间因子,动态分配每个特征权重,增强有用特征,抑制可能的噪声。同时,为了进一步增强卷积网络对于不同风格行人图片的泛化性与鲁棒性,在BN层[10]的基础上引入IN层,组成IBN(Instance-batch Normalization)模块,使得网络性能得到进一步的优化。
图 2 改进后AlignedReID++算法流程图 Fig. 2 Improved AlignedReID ++ algorithm flowchart
图选项




2.1 空间注意力模块 SGE模块通过在每个组里生成注意力向量,根据每个子特征在空间位置上的重要性,动态地分配权重,同时有针对性地学习和抑制噪声。
SGE模块首先将特征图按通道维度分为G个组,对于每一个组进行全局平局池化得到池化后的特征向量g,计算过程为
(7)

式中:m为特征向量的维度;Xi为每一个组中的特征向量。之后对于特征向量中的每一个元素,将其与g进行逐元素点乘运算,得到每一个位置对应的注意力权重为
(8)

之后,对逐元素点乘后的结果进行归一化处理,使特征向量中数值分布在(0,1)之间,并将处理过后的结果经过Sigmoid激活层,最后,将经过激活层的结果与原组中的特征进行逐元素点乘的运算,得到对于一个组生成的空间注意力初始值,计算过程为
(9)

式中:xi分别为空间注意力模块处理后的每一个组的特征向量和处理前的每一个组的特征向量;σ(ai)代表Sigmoid激活层,ai为经过归一化处理后的特征矩阵。
将空间注意力模块加入到ResNet50特征提取网络中,使得改进后的特征提取网络,提取到的特征更具代表性和泛化性,加入空间注意力机制SGE模块后的模型具体结构如图 3所示。图中:x为未经过残差模块处理的特征向量,为经过残差模块处理过后的特征向量。
图 3 SGE-ResNet模块结构 Fig. 3 SGE-ResNet module structure
图选项




在ResNet50特征提取网络的每一个瓶颈层的最后一个BN层之后,加入SGE模块,使得特征提取网络可以根据特征的空间分布来增强有用的特征表达,同时抑制可能的噪声,提高了特征提取的鲁棒性和代表性。这一操作与SEnet[11]的网络架构相似。不同的是,SEnet通过学习的方式来动态获得每一个特征通道的重要性,根据重要性来动态分配权重。而SGEnet是根据每个组中子特征的空间位置来生成注意力向量,根据注意力向量来再学习过程中动态的分配权重,提高有用特征的权重,同时减少可能的噪声。
2.2 IBN归一化层 IN层[12]的作用是将不同风格的图片中的风格信息过滤掉,而只保留内容信息,具有很好的外观特征不变性。因此,为了提高特征提取网络对色调、色差的鲁棒性,使得提取到的特征更具代表性和全局性,本文在BN层的基础上引入IN层,组成IBN模块,将IBN模块加入到ResNet50[13]后的具体结构如图 4所示。
图 4 IBN模块结构 Fig. 4 IBN module structure
图选项




为了防止网络在高层的语义判别性被破坏,IN层只加在网络低层中,同时为了保留低层中的语义信息,网络低层中也保留BN层。在第一个归一化层,IN层和BN层各占一半的通道数,一方面保证了不增加网络参数和计算量,另一方面也是为了在IN层过滤掉反映外观变化的信息的同时用BN层保留语义信息。
3 仿真实验与结果分析 3.1 数据集 本文选用Market1501、DukeMTMC、CUHK03 3个行人再识别通用数据集作为训练集以及测试集。Market1501数据集包括由6个摄像头拍摄到的1 501个行人,训练集有751人,包含12 936张图像,测试集有750人,包含19 732张图像;CUHK03数据集包含1 467个行人,包含767个行人的训练集和包含700个行人的测试集;DukeMTMC数据集包含了1 404个行人,其中来自702个人的16 522张图片作为训练集,另外的702个人的2 228个查询图像作为测试集,还有17 661张图像作为搜索库(Gallery)。
3.2 实验设置 实验中所有算法都是在Pytorch框架下通过Python语言实现的。训练和测试步骤在NVIDIA GTX1080Ti GPU上运行。训练总轮数epoch设置为300,训练学习率初始设置为0.000 2,训练每个bitchsize设置为32,迭代到150个epoch时学习率除以10。总的权重衰减参数设置为5×10-4。困难三元组损失中参数margin设置为0.3。空间注意力机制SGE模块中的分组数设置为64。
3.3 仿真实验 实验1??将空间注意力机制SGE模块引入ResNet50网络,分别在Market1501、DukeMTMC、CUHK03三个行人再识别通用数据集评价改进模型性能。性能评价均采用全局距离加局部距离的结果(Global+DMLI),以及进行再排序(Re-ranking, RK)后的结果。
Rank1是指搜索结果中置信度最高的图片是正确结果的概率;Rank1(RK)是将结果再排序后,结果中置信度最高的图片是正确结果的概率;CMC(Cumulative Match Characteristic)[14]曲线是一种top-k的击中概率,主要用来评估闭集中rank的正确率,这里取Rank1击中的概率;mAP(mean Average Precision)[15]是模型的平均精度均值,衡量的是模型在所有类别上的好坏;mAP(RK)是将结果进行再排序操作后,模型的平均精度均值;再排序是获得图像特征后,选择L2欧氏距离来计算排序或检索任务的相似度得分。
表 1可以看出,在加入SGE模块后,在Market1501[16]数据集上性能相差不多,但是在进行Re-ranking操作后在Rank1击中率以及mAP上提升了0.4%、0.3%;在DukeMTMC[17]数据集上,Rank1击中率提升了0.8%,mAP提升了0.2%,进行Re-ranking操作后,Rank1击中概率提升0.5%,mAP提升了1.5%;在CUHK03[18]数据集上,Rank1击中率提升了1%,mAP提升了0.2%,在进行Re-ranking操作后,Rank1提升了3.5%,mAP提升了2.8%。可以看出,在加入空间注意力机制后,相较于原始模型效果有明显提升。
表 1 基于SGE模块改进的模型性能在Market1501、DukeMTMC、CUHK03数据集上的评价 Table 1 Evaluation of improved model performance based on SGE module on Market1501, DukeMTMC and CUHK03 datasets ?%
网络结构 Market1501 DukeMTMC CUHK03
Rank1/Rank1(RK) mAP/mAP(RK) Rank1/Rank1(RK) mAP/mAP(RK) Rank1/Rank1(RK) mAP/mAP(RK)
ResNet50 91.0/92.0 77.6/88.5 80.7/85.2 68.0/81.2 60.9/67.6 59.7/70.7
SGE-ResNet50 90.5/92.4 76.8/88.8 81.5/85.7 68.2/82.7 61.9/71.1 59.9/73.5


表选项






实验2??将IN层加入到归一化层[19]中,辅助BN层,组成IBN层共同加入到ResNet50网络中,分别在Market1501、DukeMTMC、CUHK03三个行人再识别通用数据集评价改进模型性能。性能评价均采用全局距离加局部距离的结果(Global+DMLI),以及进行Re-ranking操作后的结果。
表 2可以看出,在引入IBN归一化层后,在Market1501数据集上性能相差不多,Rank1提升了0.2%,mAP提升了1.9%。在进行Re-ranking操作后在Rank1击中率提升了0.5%,mAP提升了1.2%;在DukeMTMC数据集上,Rank1击中率提升了2.9%,mAP提升了2.4%,进行Re-ranking操作后,Rank1击中概率提升1.9%,mAP提升了2.7%;在CUHK03数据集上,Rank1击中率提升了4.2%,mAP提升了3%,在进行Re-ranking操作后,Rank1提升了5.5%,mAP提升了4.5%。可以看出,在引入IBN归一化层后,相较于原始模型效果有明显提升。
表 2 基于IBN层改进的模型性能在Market1501、DukeMTMC、CUHK03数据集上的评价 Table 2 Evaluation of improved model performance based on IBN layer on Market1501, DukeMTMC and CUHK03 datasets ?%
网络结构 Market1501 DukeMTMC CUHK03
Rank1/Rank1(RK) mAP/mAP(RK) Rank1/Rank1(RK) mAP/mAP(RK) Rank1/Rank1(RK) mAP/mAP(RK)
ResNet50 91.0/92.0 77.6/88.5 80.7/85.2 68.0/81.2 60.9/67.6 59.7/70.7
IBN-ResNet50 91.2/92.5 79.5/89.7 83.6/87.1 70.4/83.9 65.1/73.1 62.7/75.2


表选项






实验3??将SGE模块和IBN归一化层加入到ResNet50网络中,在Market1501、DukeMTMC、CUHK03三个行人再识别通用数据集评价改进模型性能。性能评价均采用全局距离加局部距离的结果(Global+DMLI),以及进行Re-ranking操作后的结果。
表 3可以看出,将空间注意力机制SGE模块以及IBN归一化层加入到ResNet50网络后,在3个数据集上效果均有显著提升,在Market1501数据集上,Rank1击中率提升了0.8%,mAP提升了2.7%,Re-ranking操作后Rank1击中率提升了0.9%,mAP提升了2%;在DukeMTMC数据集上,Rank1击中率提升了2.9%,mAP提升了3%,Re-ranking操作后Rank1击中率提升了2.2%,mAP提升了2.9%;在CUHK03数据集上,Rank1击中率提升了4.7%,mAP提升了3.2%,Re-ranking操作后Rank1击中率提升了5.4%,mAP提升了5.1%。
表 3 基于IBN层以及SGE模块改进的模型性能在Market1501、DukeMTMC、CUHK03数据集上的评价 Table 3 Evaluation of improved model performance based on IBN layer and SGE module on Market1501, DukeMTMC and CUHK03 datasets ?%
网络结构 Market1501 DukeMTMC CUHK03
Rank1/Rank1(RK) mAP/mAP(RK) Rank1/Rank1(RK) mAP/mAP(RK) Rank1/Rank1(RK) mAP/mAP(RK)
ResNet50 91.0/92.0 77.6/88.5 80.7/85.2 68.0/81.2 60.9/67.6 59.7/70.7
SGE-IBN-ResNet50 91.8/92.9 80.3/90.5 83.6/87.4 71.0/84.1 65.6/73.0 62.9/75.8


表选项






图 5给出了原模型以及加入SGE模块和IBN归一化层后的性能曲线。可以看出,改进后的算法在性能上相较于原算法有显著的提升,证明了改进后模型的有效性。
图 5 4种网络在Market1501、DukeMTMC、CUHK03数据集上的CMC曲线 Fig. 5 CMC curves of four networks on Market1501, DukeMTMC and CUHK03 datasets
图选项




图 6是在不同网络下,针对待查询图库query中的同一幅较为模糊的行人图片,从查询库中输出与其相似度最高的10幅行人图片。绿色标签表示查询结果与待查询图片是同一标签,即是同一个人;红色标签表示查询结果与待查询图片不是同一标签,即不是同一个人。可以看出,在引入SGE空间注意力机制以及IBN归一化层后,查询结果有了很好的改善,表明了改进模型的有效性。
图 6 不同网络下相似度最高的10张行人图片 Fig. 6 Ten most similar pedestrian images on different networks
图选项




表 4为改进后的方法与行人再识别最新方法的比较。可以看出,与改进前的方法相比较,改进后方法在识别精度上,在Market1501、DukeMTMC和CUHK03 3个数据集上均有提升。与表中其他行人再识别方法相比,改进后的方法在识别准确率上也有较为明显的提升,由此可以得出改进后方法的有效性。
表 4 改进后的方法与最新行人再识别方法比较 Table 4 Comparison between improved method and latest pedestrian re-identification methods ?%
方法 Market1501 DukeMTMC CUHK03
Rank1 mAP Rank1 mAP Rank1 mAP
SVD[20] 82.3 62.1 76.7 56.8 41.5 37.3
PCE & ECN[21] 87.0 69.0 79.8 62.0 30.2 27.3
MLFN[22] 90.0 74.3 81.0 62.8 52.8 47.8
HA-CNN[23] 91.2 75.7 80.5 63.8 41.7 38.3
AlignedReID++ 91.0 77.6 80.7 68.0 60.9 59.7
AlignedReID++(RK) 92.0 88.5 85.2 81.2 67.6 70.7
AlignedReID++(SGE+IBN) 91.8 80.3 83.6 71.0 65.6 62.9
AlignedReID++(SGE+IBN)(RK) 92.9 90.5 87.4 84.1 73.0 75.8


表选项






4 结论 1) 本文提出了一种基于注意力机制的行人特征提取方法。在AlignedReID++基础上,对特征提取部分进行了改进。通过引入空间注意力模块,根据特征的空间位置,动态地增强有用特征,抑制可能的噪声。同时通过引入新的归一化层IBN层,进一步提高了提取特征的鲁棒性和全局性。
2) 相较于改进前AlignedReID++中的ResNet50特征提取网络,本文方法可以提取更为丰富的行人特征,提取到的特征更具准确性和鲁棒性。在Market1501、DukeMTMC以及CUHK03三个数据集上进行的算法测试实验结果表明,改进后的AlignedReID++算法的准确性更高,具有更强的鲁棒性。

参考文献
[1] LIAO S C, HU Y, ZHU X Y, et al.Person re-identification by local maximal occurrence representation and metric learning[C]//2015 IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2015: 2197-2206.
[2] DE MAESSCHALCK R, JOUAN-RIMBAUD D, MASSART D L. The Mahalanobis distance[J]. Chemometrics and Intelligent Laboratory Systems, 2000, 50(1): 1-18.
[3] YI D, LEI Z, LIAO S C, et al.Deep metric learning for person re-identification[C]//2014 22nd International Conference on Pattern Recognition.Piscataway: IEEE Press, 2014: 34-39.
[4] LI W, ZHAO R, XIAO T, et al.DeepReID: Deep filter pairing neural network for person re-identification[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2014: 152-159.
[5] VARIOR R R, SHUAI B, LU J, et al.A Siamese long short-term memory architecture for human re-identification[C]//European Conference on Computer Vision.Berlin: Springer, 2016: 135-153.
[6] ZHANG X, LUO H, FAN X, et al.AlignedReID: Surpassing human-level performance in person re-identification[EB/OL].(2018-01-31)[2020-03-02].https://arxiv.org/abs/1711.08184.
[7] DENG W, ZHENG L, YE Q, et al.Image-image domain adaptation with preserved self-similarity and domain-dissimilarity for person re-identification[C]//2018 IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2018: 994-1003.
[8] LUO H, JIANG W, ZHANG X, et al. AlignedReID++:Dynamically matching local information for person re-identification[J]. Pattern Recognition, 2019, 94: 53-61. DOI:10.1016/j.patcog.2019.05.028
[9] HERMANS A, BEYER L, LEIBE B.In defense of the triplet loss for person re-identification[EB/OL].(2017-11-21)[2020-03-02].https://arxiv.org/abs/1703.07737.
[10] IOFFE S, SZEGEDY C.Batch normalization: Accelerating deep network training by reducing internal covariate shift[EB/OL].(2015-03-02)[2020-03-02].https://arxiv.org/abs/1502.03167.
[11] LI X, HU X, YANG J.Spatial group-wise enhance: Improving semantic feature learning in convolutional networks[EB/OL].(2019-05-25)[2020-03-02].https://arxiv.org/abs/1905.09646.
[12] PAN X, LUO P, SHI J, et al.Two at once: Enhancing learning and generalization capacities via IBN-Net[EB/OL].(2018-07-27)[2020-03-02].https://arxiv.org/abs/1807.09441.
[13] XIAO Q, LUO H, ZHANG C.Margin sample mining loss: A deep learning based method for person re-identification[EB/OL].(2017-10-07)[2020-03-02].https://arxiv.org/abs/1710.00478.
[14] ZHENG L, YANG Y, HAUPTMANN A G.Person re-identification: Past, present and future[EB/OL].(2016-10-10)[2020-03-02].https://arxiv.org/abs/1610.02984.
[15] LIU H, FENG J S, QI M B, et al. End-to-end comparative attention networks for person re-identification[J]. IEEE Transactions on Image Processing, 2017, 26(7): 3492-3506. DOI:10.1109/TIP.2017.2700762
[16] CHENG D, GONG Y H, ZHOU S P, et al.Person re-identification by multi-channel parts-based CNN with improved triplet loss function[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2016: 1335-1344.
[17] 杜鹏, 宋永红, 张鑫瑶.基于自注意力模态融合网络的跨模态行人再识别方法研究[J/OL].自动化学报: 1-12(2019-10-16)[2020-01-06].https://kns.cnki.net/kcms/detail/detail.aspx?doi=10.16383/j.aas.c190340.
DU P, SONG Y H, ZHANG X Y.Self-attention cross-modality fusion network for cross-modality person re-identification[J/OL].Acta Automatica Sinica: 1-12(2019-10-16)[2020-01-06].https://kns.cnki.net/kcms/detail/detail.aspx?doi=10.16383/j.aas.c190340(in Chinese).
[18] 张丽红, 孙志琳. 基于多层深度特征融合的行人再识别研究[J]. 测试技术学报, 2018, 32(4): 48-52.
ZHANG L H, SUN Z L. Person re-identification based on multi-layer deep feature fusion[J]. Journal of Test and Measurement Technology, 2018, 32(4): 48-52. (in Chinese)
[19] 李鹏, 王德勇, 师文喜, 等. 大数据环境下基于深度学习的行人再识别[J]. 北京邮电大学学报, 2019, 42(6): 29-34.
LI P, WANG D Y, SHI W X, et al. Research on person re-identification based on deep learning under big data environment[J]. Journal of Beijing University of Posts and Telecommunications, 2019, 42(6): 29-34. (in Chinese)
[20] SUN Y, ZHENG L, DENG W, et al.SVDNet for pedestrian retrieval[C]//2017 IEEE International Conference on Computer Vision (ICCV).Piscataway: IEEE Press, 2017: 3820-3828.
[21] SARFRAZ M S, SCHUMANN A, EBERLE A, et al.A pose-sensitive embedding for person re-identification with expanded cross neighborhood re-ranking[EB/OL].(2018-04-05)[2020-03-02].https://arxiv.org/abs/1711.10378.
[22] AN L, QIN Z, CHEN X J, et al. Multi-level common space learning for person re-identification[J]. IEEE Transactions on Circuits & Systems for Video Technology, 2018, 28(8): 1777-1787.
[23] LI W, ZHU X, GONG S.Harmonious attention network for person re-identification[C]//2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2018: 2285-2294.


相关话题/网络 数据 空间 图片 图像

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19
  • 基于MobileFaceNet网络改进的人脸识别方法*
    人脸特征具有易获取、易捕捉、易处理以及非接触式等特性,已经受到****们的广泛关注,并在公共安全等领域应用日趋广泛。但是,在实际的应用场景下,人脸识别精度依然受到不同的姿态、光照、遮挡等因素的影响。因此,如何提取更具鲁棒性的特征来有效地辨识人脸便成为解决问题的关键。传统的人脸识别方法主要有主成分分析 ...
    本站小编 Free考研考试 2021-12-25
  • 基于跨尺度特征聚合网络的多尺度行人检测*
    随着人工智能与计算机视觉技术的发展以及人们对公共安全领域的日益重视,智能视频监控技术已经发展为当前的研究热点。行人检测是智能化视频监控系统中的核心关键技术之一,并为后续的更高层次的视频分析与理解提供可靠的数据支持。因此,行人检测技术直接影响着智能视频监控的智能化水平,具有重要的研究意义和应用价值。近 ...
    本站小编 Free考研考试 2021-12-25
  • 基于U-Net的掌纹图像增强与ROI提取*
    在当今信息化时代,生物特征识别是鉴别个人身份、保护个人信息的有效手段。生物特征识别技术,是指利用机器视觉、图像处理等技术对生物特征采样进行身份识别。现有的主要生物识别特征包括指纹[1]、人脸[2]、虹膜[3]和掌纹[4]等。由于掌纹的纹路是由每个人的基因所决定的,即使后天受损,重新生长出来的纹路也保 ...
    本站小编 Free考研考试 2021-12-25
  • 数据丢包和量化约束下的分布式滚动时域估计*
    计算机和通信技术的日趋成熟促进了网络化系统的快速发展。凭借其结构灵活、可扩展性强、运行成本低等优势,网络化系统被广泛应用于目标跟踪、组网导航、智能交通、工业控制等多个领域[1-4]。网络化系统在带来诸多便利的同时,也带来了新的问题和挑战:数据通过网络传输时,由于通信故障、网络拥塞等因素的存在,不可避 ...
    本站小编 Free考研考试 2021-12-25
  • 基于高分辨率网络的单声道歌声分离*
    单声道歌声分离是指从单声道歌曲中分离出伴奏和歌声,是乐器识别、旋律提取、歌词识别、音高估计等课题的基础[1],作为音乐信息检索领域的一个重要研究课题,近年来得到广泛关注。目前,深度学习在计算机视觉领域取得很大进展,歌声分离算法也逐步利用深度学习技术分离伴奏和歌声,并展现出比矩阵分解、音高估计等方法更 ...
    本站小编 Free考研考试 2021-12-25
  • 一种可变锚框候选区域网络的目标检测方法*
    随着计算机科学和认知神经科学的不断发展,人们想要研发以及开发能够模拟、延伸和扩展人类智能的理论、方法、技术以及应用系统,自此人工智能这一技术科学诞生。模式识别、机器学习和深度学习等理论的不断完善和发展,使得计算机视觉在社会各种领域应用广泛,例如交通、医学、农业等领域都取得了明显的成果。随着计算机视觉 ...
    本站小编 Free考研考试 2021-12-25
  • 一种鲁棒性增强的机载网络流量分类方法*
    机载网络作为航空集群等新型作战系统的信息交互纽带[1-2],通过为多样化业务流提供传输服务,可以保证平台间高效协同地执行作战任务[3-4]。在复杂多变的战场环境下,不同类型的业务流往往具有不同的信息价值及服务质量(QualityofService,QoS)需求[5]。同时,由于机载网络具有网络拓扑高 ...
    本站小编 Free考研考试 2021-12-25
  • 基于神经网络的OFDM信道补偿与信号检测*
    正交频分复用(OrthogonalFrequencyDivisionMultiplexing,OFDM)系统能有效地抑制频率选择性衰落且具有较高的频谱利用率,在4G、5G移动通信中始终占据核心技术地位。然而,OFDM的多个独立子载波叠加造成信号峰均比较高,经过高功率放大器(HighPowerAmpl ...
    本站小编 Free考研考试 2021-12-25
  • 基于CGAN的避扰通信决策网络离线式训练方法*
    避扰通信是认知无线电领域的研究热点之一,其工作过程是:感知周围频谱环境信息,自动调整到不受干扰的工作频点。已有很多成熟的方法被提出,如跳频扩频(FHSS)[1]和动态频谱接入(DSA)[2]技术。近年来,人工智能技术飞速发展,一些方法被应用在避扰通信中,如基于深度强化学习的避扰通信算法(Anti-j ...
    本站小编 Free考研考试 2021-12-25
  • 基于GPS多星三频数据融合的GNSS-IR土壤湿度反演方法*
    土壤湿度是全球水循环过程的重要状态参数,在生态研究、农业灌溉及灾害预警等方面都起着非常重要的作用,因此研究土壤湿度的时空变化特征及大范围监测是十分必要的[1]。基于全球卫星导航系统(GlobalNavigationSatelliteSystem,GNSS)单天线技术的土壤湿度反演,是近年来全球导航卫 ...
    本站小编 Free考研考试 2021-12-25