删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

基于局部语义特征不变性的跨域行人重识别*

本站小编 Free考研考试/2021-12-25

行人重识别(Person Re-identification)也称行人再识别,是利用计算机视觉技术判断图像或者视频序列中是否存在某一特定行人的图像识别技术,其在智能化的公共安全领域扮演着重要角色。跨域行人重识别也被认为是图像检索的一个子问题,旨在弥补单一、固定摄像头的视觉局限,可与行人检测、行人跟踪技术相结合,检索跨摄像机设备下的同一标识的行人图像,被广泛应用于智能视频监控、智能安保等领域,具有重要的研究意义和应用价值。
近年来,伴随深度卷积神经网络的发展,行人重识别在同一场景(单域)数据集下取得了巨大的进展[1-2]。行人重识别技术从基于深度卷积神经网络的全局特征开始向更细粒度的局部特征方向发展。基于全局特征的行人重识别主要基于深度卷积神经网络结构输出的整体行人区域作为行人图像的重识别特征,研究如何基于全局特征设计更为合理的网络损失函数。其中,为解决行人检测对行人重识别的影响,Han等[3]开发了一个可区分的ROI变换层,将行人检测器产生的边界框从原始图像中转换出来生成更可靠的边界框。在损失函数的设计方面,主要有对比损失(Contrastive Loss)[4]、三元组损失(Triplet Loss)[5]、四元组损失(Quadruplet Loss)[6]和中心聚类损失(Center Loss)[7]等。
由于全局特征不具有细粒度的区分能力,在光照条件、背景、人体姿势和成像视角的变化下,同一ID标识的行人在不同视图之间的特征辨识度明显降低。因此,基于局部特征的行人重识别受到研究者的日益重视。基于行人局部区域划分方式的不同,行人语义部件模型可以分为人体语义分块和物理切割分块。近年来,人体姿势估计技术取得了较大的进展[8-11],基于人体语义分块方法[12-14]通过借鉴人体姿态估计的结果用于行人区域划分来进行行人重识别。但姿势估计和行人重识别之间的数据集标注偏差仍然是阻碍行人重识别图像语义划分的障碍。不同于人体语义分块方法需要对行人的强语义标注,物理切割分块不需要行人每个部件区域的训练标签,受到了研究者们的重视[15]。其中,可见部件感知模型(VPM)[16]聚焦在2幅行人图像共同可见的部件区域上学习细粒度的区域特性,以解决行人部件与行人整体图像间的空间位置错位问题,显著地改善了特征表征的学习能力。Sun等[17]提出了基于行人局部特征的部件卷积池化方法,以增强行人重识别中行人部件区域的语义一致性。在行人重识别模型中引入基于深度学习的注意力机制[18-19],自动地给每一幅行人图像赋予一个权重,也进一步推动了行人重识别的性能。Chen等[20]通过卷积神经网络特征通道聚合和空间位置感知提出了一种基于双重注意力机制的行人重识别模型,其集成了注意力模块和多样性正则化,以学习具有代表性、健壮性和更具区分性的特征。
上述基于监督学习的行人重识别方法[4, 21-23]依靠丰富的标记数据和深度网络[24-26]在单域数据集上取得了巨大的成功。在闭合的单域行人重识别上,其源域数据集和目标域数据集具有完全相同的标识类别,但在跨域的无标签数据集上,由于跨域的数据集偏移问题导致行人重识别性能出现显著下降。为了解决这个问题,研究者们提出使用带有标记的源域数据来提取行人特征学习初始阶段的行人重识别模型。在此基础上,通过在目标域上进行无监督聚类[27]或学习度量[28]来改进Re-ID模型,然而这种方法在源域到目标域的特征迁移过程中并没有有效利用带有标记的源域数据作为有效监督信息。为了克服这一问题,目前跨域行人重识别方法主要是基于图像级行人图像整体特征风格[29-31]和行人局部属性语义特征[32-33]进行数据集之间的跨域迁移。
在图像级特征风格迁移方面,Zhong等[34]提出了相机不变性以缓解跨域行人重识别的跨域偏移问题。Yu等[35]提出一种基于无监督多标签学习的MAR模型,开发未标记目标对的多标签视觉特征的相似一致性,基于强化学习增强不同相机视图之间的跨视角一致性。Chen等[36]提出了一个对偶条件生成对抗网络,利用大量未标记的目标域行人实例作为生成图像的上下文指导,将源域目标转移到目标域上下文中,通过迁移丰富的上下文信息来增强行人再识别的辨别力。在行人局部属性语义特征方面,EANet模型[37]利用行人的关键点将行人进行分块和对准,在此基础上进行跨域迁移学习。但是,这些方法却忽略了在目标域内同一标识行人存在的视觉差异,这种同一标识行人的类内差异将对无监督的域自适应问题产生重要的影响。对此,本文联合相机不变性和行人图像局部语义特征不变性将目标域中每个ID标识局部语义对齐的行人特征存储于特征模板池中,对目标域行人进行不变性约束,更好地发挥跨域特征不变性的作用。
综上所述,本文提出一种基于局部语义特征不变性的跨域行人重识别方法,其主要贡献如下:
1) 根据行人图像在源域与目标域上语义特征的一致性,基于弱标注的源域行人图像提出一种行人局部特征语义对齐方法,以迁移源域行人局部语义特征到无标注的目标域,增强跨域行人重识别的特征表达能力。
2) 针对同一ID标识行人图像存在的表观特征变化,通过估计目标域图像之间的相似性,采用特征模板池存储并更新目标域中行人图像的全局与局部特征,将跨域不变性加入到深度网络中提高对跨域特征不变性的学习。
3) 鉴于行人重识别在源域与目标域上的特征差异,基于行人局部特征语义对齐和行人特征模板池提出了一种联合实例不变性、相机不变性和类别(标识)不变性的损失函数,无监督地学习跨域不变性特征,提高行人重识别的跨域适应能力。
1 局部语义特征不变性网络 1.1 网络框架 本文提出的基于局部语义特征不变性的网络结构框架如图 1所示。基础骨干网络采用ImageNet[38]上预训练的ResNet-50[25]网络,其将带标签的源域数据和无标签的目标域数据输入到网络中获取行人实例的特征表示。本文保留ResNet-50的Pooling-5层及之前的网络结构,深度特征的提取分为全局特征模块和局部特征模块。在全局特征模块中添加全局平均池化(Global Average Pooling, GAP)层以获得全局特征,使用交叉熵损失函数与三元组损失函数来优化模型。在局部特征模块添加自适应平均池化层,将行人图像提取到的三维特征张量T分成P个部分,并降维到256维,分别为每个部分添加分类器来进行训练,使用交叉熵损失函数来优化模型。在目标域中,引入特征模板池保存每个行人样本的全局与局部特征,通过估计小批量的目标样本与特征模板池中的特征的相似性,计算无标签目标域的不变性损失。
图 1 基于局部语义特征不变性的跨域行人重识别框架 Fig. 1 Framework of cross-domain person re-identification based on partial semantic feature invariance
图选项




1.2 基于语义对齐的全局与局部特征
1.2.1 全局特征 本文在ResNet-50的Pooling-5层之后,采用GLAD模型[14]的全局平均池化来提取全局特征,之后再经过Softmax分类器预测行人样本的标识,使用交叉熵损失函数Ls和三元组损失函数Lt来共同计算源域全局损失Lsrc1,其计算公式为
(1)

式中:η1η2为损失函数平衡因子,本文取值为η=[0.96, 1]。

1.2.2 基于语义对齐的局部特征 本文行人局部特征的提取以PCB模型[3]为基础,将行人图像从上到下均匀划分为6个部件区域,如图 2(a)所示。为了实现行人部件的语义对齐,本节基于行人局部部件的内部特征,把每个局部部件分成4×8的特征块f,每副行人图像被分为6个语义部件,共包含24×8个特征块f,如图 2(b)所示。首先,在源域数据集上,将基于行人图像划分的6个部件区域进行训练学习,形成行人部件分类器Wi。然后,对每个特征块f使用线性分类Softmax函数进行动态分类:
(2)

图 2 基于语义特征的行人部件示意图 Fig. 2 Schematic diagram of person parts
图选项




式中:p(Pi|f)为属于Pi部件的预测概率;P为预定义行人部件的数量(即P=6);W为部件分类器的可训练权重矩阵。
based on semantic features为保证部件分类的准确性,为每个部件分类器的预测结果设立一个阈值。经过此分类,每个f得到P个预测概率p(Pi|f),取其中的最大值p(Pi|f),并且p(Pi|f)要大于阈值Ti,满足该条件就把f分为Pi部件中,经过这步处理可以筛选出属于各个部件的f;之后,对每幅行人图像中分类预测为同一部件类别的f做局部平均池化,获取行人各个部件的特征表示。
为对齐行人部件区域,采用成对样本对计算最小总距离[39],形成2幅图像的最短路径。假定待查询行人图像和搜索库中的某一图像经式(2)提取的局部特征分别为F={h1h2,…,hP}和G={g1g2,…,gP},则2幅行人图像成对部件元素之间的距离规范化为
(3)

式中:di, j为待查询行人图像的第i个部件和搜索库中某一行人图像的第j部件之间的距离,其取值范围为[0, 1]。
本文基于P×P个距离di, j(i, j∈(1, 2, …, P))形成的距离矩阵D中的最短路径来对齐待查询行人图像与搜索库中行人图像的语义局部区域。其中,2张行人图像相似性距离Si, j是通过动态规划计算距离矩阵D中每行或每列对应最短路径的总距离,即为
(4)

经过行人部件划分和语义特征对齐后的部件区域如图 2(c)所示,每个部件区域的局部特征注意力位于行人的不同部位,如图 2(d)所示。基于语义对齐后的行人部件局部特征,其行人重识别源域局部损失Lsrc2
(5)

式中:Si为部件Pi的交叉熵损失;权重向量γ的取值,通过实验分析分别取[0.18, 0.15, 0.15, 0.17, 0.16, 0.19]重识别性能最佳。
1.3 特征模板池 为了提高网络在目标测试集上的泛化能力,提出通过估计目标图像之间的相似性来增强网络的特征不变性。为此,构造了一个具有键值结构用于存储所有目标域图像的全局与局部特征的特征模板池,其具有键池(K)和值池(V)。其中,键池存放在行人图像经ResNet-50全连接后L2规范化的特征,包括语义对齐后全局特征和局部特征的串联聚合特征,分别为1×4 096维和6×256维;值池存储行人图像的标签。
假定目标域中包含Nt副无标签的行人图像,特征模板池就有Nt个键池,每个键池存放5 632维的聚合特征,其值池存放行人实例的类别标注。在初始化过程中,将键池中所有功能的值初始化为零,将相应的索引指定为目标样本的标签,并存储在值池中。例如,值池中的第i个目标图像的类被分配给V[i]=i。在整个训练过程中,值池中的标签是固定的,在每次训练迭代过程中将目标域行人图像训练样本xt, i经ResNet-50得到的特征h(xt, i)进行L2归一化。在反向传播过程中,更新训练样本xt, i的键池中的特征权重矩阵:
(6)

式中:R[i]为图像xt, i的特征模板池中键池存放的特征,i为标签;超参数a∈[0, 1]控制更新速率。
1.4 特征不变性学习 鉴于仅使用源域的监督学习得到的深度Re-ID模型对目标域内的变化较为敏感,考虑目标域内的差异变化,研究了3个跨域特征不变性,即实例不变性、相机不变性、类别不变性。
1) 实例不变性。在行人重识别中,即使是同一ID标识的图像间也会有差距,为了学习每一张图像都有别于其他图像,本文在Re-ID模型中增加实例不变性。将nt个目标域图像看做nt个独立不同的类别,计算某一给定目标图像特征h(xt, i)与已保存在特征模板池中的特征之间的余弦相似度,并使用Softmax函数预测其归属类别:
(7)

式中:β∈(0, 1]为平衡因子。
实例不变性的目标是使目标域上训练图像的负对数似然最小化:
(8)

式中:Lei为实例不变性损失。
2) 相机不变性。相机风格的变化是影响行人图像识别的一个重要因素,尤其是在源域与目标域之间往往存在迥异的相机风格。因此,本文基于相机不变性拉近同一ID标识的行人图像与其经过相机风格变换后的距离。假设每个图像的摄像机ID是已知的,将每台摄像机视为一个相机域,利用starGAN[40]来训练一个相机风格转换模型[34],利用学习到的相机风格转换Re-ID模型。假设C为目标域中相机风格的数量,一张行人图像则可以得到C-1张其他相机风格的图像,且这C张图片属于同一行人ID,相机不变性的损失函数为
(9)

式中:Lci为相机不变性的损失;xt, ixt, i及其C-1张生成图像的集合中随机选取的一张图像,拉近目标域行人图像集中具有同一标识、不同相机风格的行人图像。
3) 类别不变性。基于目标域中属于同一ID标识的行人图像样本集拉近彼此间的距离克服目标域中的变化,以提高Re-ID模型的稳定性。先计算图像特征h(xt, i)与其特征模板池中键池的余弦相似性。在特征模板池中找到与行人图像xt, ik邻近的行人图像索引,定义为M(xt, ik)。本文提出的类别不变性是假定目标域行人图像xt, i的ID标识应该隶属于k邻近图像索引M(xt, ik)的候选类。因此,将目标域行人图像xt, i属于某一ID标识j的概率权重赋值为
(10)

类别不变性的损失函数为
(11)

式中:Lni为类别不变性损失。
基于上述实例不变性、相机不变性、类别不变性,跨域特征不变性学习的总体损失可以写为
(12)

式中:为从xt, i经相机风格迁移模型生成后的随机采样图像。当i=j时,使用实例不变性和相机不变性来优化网络;当ij时,使用相机不变性和类别不变性来优化网络。
合并源域和目标域的特征不变性网络的损失函数为
(13)

式中:λ为平衡源域与目标域损失的权重系数,本文取值为0.3。
2 实验结果分析 2.1 数据集与实验设置 本文在国际公开的行人重识别(Re-ID)基准数据集Market-1501[41]、DukeMTMC-reID[6, 42]和MSMT17[30]上评估了本文方法。本文采用ResNet-50[25]作为模型的骨干网络,并使用在ImageNet[43]上预先训练的参数初始化模型,输入图像的大小采样到384×128。在前40次epoch迭代训练阶段中,使用0.01的学习率对ResNet-50的基础网络层进行训练,在接下来的20次epoch迭代中,学习率每个阶段都以除以10的比例缩放。源域行人图像和目标域行人图像的批量大小都设置为128,网络模型学习更新率α初始化为0.01,并随着训练次数的增加而线性增大, α = 0.01×epoch。本文设置行人部件P=6,每个部件的权重向量γ依次设为[0.18, 0.15, 0.15, 0.17, 0.16, 0.19],参数β=0.05,特征模板池候选正性样本数k=6,损失权重λ=0.3。在测试中,提取Pooling-5层的L2规范化输出作为图像特征,并采用欧几里德距离度量查询图像与图库图像的相似度。
2.2 消融实验
2.2.1 基于语义对齐的特征不变性分析 针对目标域提出的语义部件特征对齐与跨域特征不变性学习的有效性,本文在Market-1501和DukeMTMC-reID数据集上开展了验证实验。R-k为返回置信度最高的k张行人图像具有正确结果的概率,mAP为平均准确率。将全局特征作为实验基线,记为GAP,基于语义部件对齐的局部特征记为PAF(Part Aligned Feature),跨域特征不变性记为Inv(Invariance)。在表 1由DukeMTMC-reID→Market-1501数据集的跨域行人重识别实验中,联合语义部件对齐后的局部特征和全局特征(GAP+PAF)较全局特征基线(GAP)mAP提高1.6%,R-1提高1.5%。而且无论对全局特征还是局部特征,加入跨域特征不变性(Inv)均提高了行人重识别的性能,其平均准确率mAP分别提高13.1%和23.8%,R-1的性能分别提高了20.6%和29.8%。实验发现,联合全局与局部特征和特征不变性取得了最优的行人重识别性能,其R-1和mAP分别达到了77.6%和45.0%。同样的实验结论在Market-1501→DukeMTMC-reID数据集的跨域行人重识别中得到了验证。
表 1 在Market-1501和DukeMTMC-reID数据集上的跨域行人重识别消融实验 Table 1 Ablation experiment of cross-domain person re-identification on Market-1501 and DukeMTMC-reID datasets
行人重识别跨域方法 DukeMTMC-reID→Market-1501 Market-1501→DukeMTMC-reID
R-1/% R-5/% R-10/% R-20/% mAP/% R-1/% R-5/% R-10/% R-20/% mAP/%
GAP 45.1 62.4 68.9 75.2 18.8 29.6 43.9 50.2 57.0 15.1
PAF 45.9 63.5 69.9 75.7 19.7 30.0 45.4 51.8 58.1 15.5
GAP+PAF 46.6 63.9 70.6 76.3 20.4 30.3 46.7 52.4 58.8 16.0
Inv+GAP 65.7 81.5 86.0 89.9 31.9 52.7 64.7 69.7 73.4 27.0
Inv+PAF 75.7 89.4 92.0 94.3 43.5 64.1 76.5 80.3 83.8 41.0
Inv+GAP+PAF 77.6 88.7 92.0 95.2 45.0 65.5 77.6 81.1 84.5 42.8
行人重识别单域方法 DukeMTMC-reID→Market-1501 Market-1501→DukeMTMC-reID
R-1/% R-5/% R-10/% R-20/% mAP/% R-1/% R-5/% R-10/% R-20/% mAP/%
Inv+GAP+PAF 74.7 85.5 89.1 91.8 54.188.2 95.6 97.4 98.3 67.0


表选项






值得注意的是,相对于单域行人重识别,跨域行人重识别的性能均出现了显著下降。从表 1中可以观察到,在Market-1501单域上本文行人重识别方法的平均准确率mAP为67.0%,R-1为88.2%;但是在跨域DukeMTMC-reID作为源域,Market-1501作为目标域,行人重识别的平均准确率mAP下降到45.0%,R-1下降到77.6%。同理,Market-1501作为源域,DukeMTMC-reID作为目标域,行人重识别的平均准确率mAP也显现出大幅性能下降。由此可以看出,跨域行人重识别仍然是一个重大挑战。

2.2.2 特征模板池的重要性分析 为验证本文提出的特征模板池对跨域行人重识别的有效性,在全局与局部特征不变性的基础上检验特征模板池的作用。从表 2中可以看出,添加特征模板池的方法优于基于小批量的跨域行人重识别方法,其在R-1和mAP分别提高近11%和8.8%。但是,使用特征模板池的缺点是会增加有限的额外训练时间和GPU内存的开销。
表 2 特征模板池与Mini-batch的比较 Table 2 Comparison of feature template pooling memory and Mini-batch
方法 DukeMTMC-reID→Market-1501
R-1/% R-5/% R-10/% R-20/% mAP/%
Mini-batch 66.4 83.5 88.3 90.6 36.2
Mini-batch+Memory 77.6 88.7 92.0 95.2 45.0


表选项






2.3 对比实验 为横向比较本文提出的基于局部语义特征不变性的跨域行人重识别有效性,在Market-1501、DukeMTMC-reID和MSMT17数据集上开展跨域行人重识别性能的对比验证。在Market-1501→MSMT17跨数据集的行人重识别实验中,表 3显示了本文方法相较于当前一流的行人重识别方法ECN[44],R-1提高0.3%,R-5提高0.8%,R-10提高1.2%,mAP提高0.4%。在DukeMTMC-reID→MSMT17跨数据集的实验中,本文方法相较于行人重识别方法ECN[44],R-1提高0.4%,R-5提高0.3%,R-10提高0.8%,mAP提高0.5%。从表 4中可以看到,在DukeMTMC-reID→Market-1501的跨数据集行人重识别实验中,行人重识别的性能R-1为77.6%,R-5为88.7%,R-10为92.0%,mAP为45.0%,相较于当前一流的跨域行人重识别方法ECN[44]均有较为明显的性能提升,分别提高2.5%、1.1%、0.4%和2.0%。在跨数据集Market-1501→DukeMTMC-reID的实验中,本文方法相较于行人重识别方法ECN[44],R-1提高2.2%,R-5提高1.8%,R-10提高0.7%,mAP提高2.4%。由此可以看出,本文基于局部语义特征不变性的跨域行人重识别方法有效地提高了跨域行人重识别的性能。
表 3 在Market-1501和DukeMTMC-reID到MSMT17跨域数据集上与当前先进方法的实验比较 Table 3 Experimental comparison with other advanced methods from Market-1501 and DukeMTMC-reID to MSMT17 cross-domain datasets
方法 Market-1501→MSMT17DukeMTMC-reID→MSMT17
R-1/% R-5/% R-10/% mAP/%R-1/% R-5/% R-10/% mAP/%
PTGAN[30] 10.2 24.4 2.911.8 27.4 3.3
ECN[44] 25.3 36.3 42.1 8.530.2 41.5 46.8 10.2
本文 25.6 37.1 43.3 8.930.6 41.8 47.6 10.7


表选项






表 4 在Market-1501和DukeMTMC-reID跨域数据集上与当前先进方法的实验比较 Table 4 Experimental comparison with other advanced methods on Market-1501 and DukeMTMC-reID cross-domain datasets
行人重识别跨域方法 DukeMTMC-reID →Market-1501 Market-1501→DukeMTMC-reID
R-1/% R-5/% R-10/% mAP/% R-1/% R-5/% R-10/% mAP/%
MMFA[33] 56.7 75.0 81.8 27.4 45.3 59.8 66.3 24.7
SPGAN+LM[29] 57.7 75.8 82.4 26.7 46.4 62.3 68.0 26.2
TJ-AIDL[32] 58.2 74.8 81.1 26.5 44.3 59.6 65.0 23.0
CamStyle[45] 58.8 78.2 84.3 27.4 48.4 62.5 68.9 25.1
HHL[46] 62.2 78.8 84.0 31.4 46.9 61.0 66.7 27.2
ECN[44] 75.1 87.6 91.6 43.0 63.3 75.8 80.4 40.4
本文 77.6 88.7 92.0 45.0 65.5 77.6 81.1 42.8


表选项






3 结束语 本文通过弱监督学习方式对齐行人语义特征,并结合局部特征与全局特征提高了行人的表征能力;联合跨域不变性损失函数约束行人表观特征的不变性提高了行人重识别的跨域适应能力。但是,相较于单域行人重识别,由于源域与目标域行人图像存在的特征分布差异导致跨域行人重识别仍然具有较大的挑战性。

参考文献
[1] ZHENG L, YANG Y, HAUPTMANN A G.Person re-identification: Past, present and future[EB/OL].(2016-10-10)[2020-03-01].https://arxiv.org/abs/1610.02984.
[2] 田萱, 王亮, 丁琪. 基于深度学习的图像语义分割方法综述[J]. 软件学报, 2019, 30(2): 440-468.
TIAN X, WANG L, DING Q. Review of image semantic segmentation based on deep learning[J]. Journal of Software, 2019, 30(2): 440-468. (in Chinese)
[3] HAN C C, YE J C, ZHONG Y S, et al.Re-ID driven localization refinement for person search[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2019: 9814-9823. https://blog.csdn.net/qq_36269513/article/details/102215503
[4] VARIOR R R, HALOI M, WANG G.Gated Siamese convolutional neural network architecture for human re-identiflcation[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2016: 791-808. https://www.zhangqiaokeyan.com/open-access_resources_thesis/0100091157726.html
[5] CHENG D, GONG Y H, ZHOU S P, et al.Person re-identiflcation by multi-channel parts-based CNN with improved triplet loss function[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2016: 1335-1344. https://blog.csdn.net/yuanchheneducn/article/details/53116657
[6] ZHENG Z D, ZHENG L, YANG Y.Unlabeled samples generated by GAN improve the person re-identification baseline in vitro[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2017: 3754-3762. https://blog.csdn.net/VacantField/article/details/80238962
[7] WEN Y, ZHANG K, LI Z F, et al.A discriminative feature learning approach for deep face recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2016: 499-515. https://link.springer.com/chapter/10.1007%2F978-3-319-46478-7_31
[8] 蔡轶珩, 王雪艳, 胡绍斌, 等. 基于多源图像弱监督学习的3D人体姿态估计[J]. 北京航空航天大学学报, 2019, 45(12): 2375-2384.
CAI Y H, WANG X Y, HU S B, et al. Three-dimensional human pose estimation based on multi-source image weakly-supervised learning[J]. Journal of Beijing University of Aeronautics and Astronautics, 2019, 45(12): 2375-2384. (in Chinese)
[9] CAO Z, SIMON T, WEI S E, et al.Realtime multi-person 2D pose estimation using part affinity fields[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2017: 7291-7299. https://blog.csdn.net/tangbin2009/article/details/81122788
[10] WEI S E, RAMAKRISHNA V, KANADE T, et al.Convolutional pose machines[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2016: 4724-4732. https://blog.csdn.net/zziahgf/article/details/79643752
[11] 郭琳, 秦世引. 遥感图像飞机目标高效搜检深度学习优化算法[J]. 北京航空航天大学学报, 2019, 45(1): 159-173.
GUO L, QIN S Y. Deep learning and optimization algorithm for high efficient searching and detection of aircraft targets in remote sensing images[J]. Journal of Beijing University of Aeronautics and Astronautics, 2019, 45(1): 159-173. (in Chinese)
[12] ZHENG L, HUANG Y, LU H, et al. Pose invariant embedding for deep person re-identification[J]. IEEE Transactions on Image Processing, 2019, 28(9): 4500-4509. DOI:10.1109/TIP.2019.2910414
[13] SU C, LI J, ZHANG S, et al.Posedriven deep convolutional model for person re-identification[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2017: 3960-3969. https://www.cnblogs.com/laokanblog/p/10324137.html
[14] WEI L, ZHANG S, YAO H, et al.GLAD: Global-local-alignment descriptor for pedestrian retrieval[C]//ACM International Conference on Multimedia.New York: ACM, 2017: 420-428.
[15] YAO H, ZHANG S, HONG R, et al. Deep representation learning with part loss for person re-identification[J]. IEEE Transactions on Image Processing, 2019, 28(6): 2860-2871. DOI:10.1109/TIP.2019.2891888
[16] SUN Y F, XU Q, LI Y L, et al.Perceive where to focus: Learning visibility-aware part-level features for partial person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2019: 393-402. http://www.doc88.com/p-81261135181349.html
[17] SUN Y F, ZHENG L, YANG Y, et al.Beyond part models: Person retrieval with refined part pooling[C]//European Conference on Computer Vision.Berlin: Springer, 2019: 480-496. https://link.springer.com/chapter/10.1007/978-3-030-01225-0_30
[18] LIU X, ZHAO H, TIAN M, et al.HydraPlus-Net: Attentive deep features for pedestrian analysis[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2017: 350-359. https://blog.csdn.net/weixin_44138807/article/details/104022543
[19] ZHAO L, LI X, WANG J, et al.Deeply-learned part-aligned representations for person re-identification[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2017: 3219-3228. https://xueshu.baidu.com/usercenter/paper/show?paperid=77fdc3eed9d528f33d2dbaf25e2ae5fd&site=xueshu_se
[20] CHEN T L, DING S J, XIE J Y, et al.ABD-Net: Attentive but diverse person re-identification[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2019: 8351-8361. https://blog.csdn.net/qq_38204302/article/details/103744942
[21] LI W, ZHU X T, GONG S G, et al.Harmonious attention network for person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2018: 2285-2294. https://www.zhangqiaokeyan.com/academic-conference-foreign_ieeecvf-cference-computer-visi-and-patt_thesis/020512457702.html
[22] SUN X X, ZHENG L.Dissecting person re-identification from the viewpoint of viewpoint[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2019: 608-617. https://www.jianshu.com/p/1dd9676e314a
[23] ZHENG Z D, YANG X D, YU Z D, et al.Joint discriminative and generative learning for person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2019: 2138-2147. https://www.cnblogs.com/king-lps/p/12583712.html
[24] LUO Y W, ZHENG L, GUAN T, et al.Taking a closer look at domain shift: Category-level adversaries for semantics consistent domain adaptation[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2019: 2507-2516.
[25] HE K M, ZHANG X Y, REN S Q, et al.Deep residual learning for image recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2016: 770-778.
[26] DONG X Y, YANG Y.Searching for a robust neural architecture in four GPU hours[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2019: 1761-1770. https://www.jianshu.com/p/a9e7016fc4b3
[27] FAN H H, ZHENG L, YAN C G, et al. Unsupervised person re-identification:Clustering and finetuning[J]. ACM Transactions on Multimedia Computing, Communications, and Applications, 2018, 14(4): 1-18.
[28] YU H X, WU A C, ZHENG W S.Crossview asymmetric metric learning for unsupervised person re-identification[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2017: 994-1002.
[29] DENG W J, ZHENG L, YE Q X, et al.Image-image domain adaptation with preserved self-similarity and domain-dissimilarity for person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2018: 994-1003.
[30] WEI L H, ZHANG S J, GAO W, et al.Person transfer GAN to bridge domain gap for person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2018: 79-88.
[31] BAK S, CARR P, LALONDE J F.Domain adaptation through synthesis for unsupervised person re-identification[C]//European Conference on Computer Vision.Berlin: Springer, 2018: 189-205. https://blog.csdn.net/hyk_1996/article/details/87873695
[32] WANG J Y, ZHU X T, GONG S G, et al.Transferable joint attribute-identity deep learning for unsupervised person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2018: 2275-2284. https://blog.csdn.net/weixin_39417323/article/details/103493695
[33] LIN S, LI H L, LI C T, et al.Multi-task mid-level feature alignment network for unsupervised cross-dataset person re-identification[C]//British Machine Vision Conference.Berlin: Springer, 2018: 1-13.
[34] ZHONG Z, ZHENG L, ZHENG Z D, et al.Camera style adaptation for person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2018: 5157-5166. https://www.zhangqiaokeyan.com/academic-conference-foreign_ieeecvf-cference-computer-visi-and-patt_thesis/020512457400.html
[35] YU H X, ZHENG W S, WU A C, et al.Unsupervised person re-identification by soft multilabel learning[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2019: 2148-2157. https://www.cnblogs.com/Thinker-pcw/p/10807681.html
[36] CHEN Y B, ZHU X T, GONG X T, et al.Instance-guided context rendering for cross-domain person re-identification[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2019: 232-242. https://blog.csdn.net/weixin_41792787/article/details/103973474
[37] HUANG H J, YANG W J, CHEN X T, et al.EANet: Enhancing alignment for cross domain person re-identification[EB/OL].(2018-12-29)[2020-03-01].https://arxiv.org/abs/1812.11369.
[38] DENG J, DONG W, SOCHER R, et al.ImageNet: A large-scale hierarchical image database[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2009: 248-255. https://www.zhangqiaokeyan.com/open-access_resources_thesis/0100058910627.html
[39] ZHANG X, LUO H, FAN X, et al.AlignedReID: Surpassing human-level performance in person re-identification[EB/OL].(2017-11-22)[2020-03-01].https://arxiv.org/abs/1711.08184.
[40] CHOI Y, CHOI M, KIM M, et al.StarGAN: Unified generative adversarial networks for multi-domain image-to-image translation[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2018: 8789-8797. https://www.zhangqiaokeyan.com/academic-conference-foreign_ieeecvf-cference-computer-visi-and-patt_thesis/020512457876.html
[41] ZHENG L, SHEN L Y, TIAN L, et al.Scalable person re-identification: A benchmark[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2015: 1116-1124. https://ieeexplore.ieee.org/document/7410490?arnumber=7410490
[42] RISTANI E, SOLERA F, ZOU R, et al.Performance measures and a data set for multi-target, multi-camera tracking[C]//European Conference on Computer Vision.Berlin: Springer, 2016: 17-35. https://link.springer.com/chapter/10.1007%2F978-3-319-48881-3_2
[43] RUSSAKOVSKY O, DENG J, SU H, et al. ImageNet large scale visual recognition challenge[J]. International Journal of Computer Vision, 2015, 115: 211-252. DOI:10.1007/s11263-015-0816-y
[44] ZHONG Z, ZHENG L, LUO Z M, et al.Invariance matters: Exemplar memory for domain adaptive person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2019: 598-607. https://blog.csdn.net/weixin_39417323/article/details/89152925
[45] ZHONG Z, ZHENG L, ZHENG Z D, et al. CamStyle:A novel data augmentation method for person re-identification[J]. IEEE Transactions on Image Processing, 2019, 28(3): 1176-1190.
[46] ZHONG Z, ZHENG L, LI S Z, et al.Generalizing a person retrieval model hetero-and homogeneously[C]//European Conference on Computer Vision.Berlin: Springer, 2018: 172-188. https://link.springer.com/chapter/10.1007/978-3-030-01261-8_11


相关话题/图像 数据 网络 实验 行人

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19
  • 基于结构加权低秩近似的泊松图像去模糊*
    当今,视频监控技术在社会治安管理中起着非常重要的作用,尤其是在夜间等人们不常活动的时间段。然而,成像设备固有的点扩散效应往往导致视频帧(或图像)中存在不同程度的模糊。同时,夜间有限的光照又不可避免地在图像中引起泊松噪声污染。这些因素通常会降低原始图像的质量,造成图像结构信息受损,给后续图像水印和图像 ...
    本站小编 Free考研考试 2021-12-25
  • 基于三元组网络的单图三维模型检索*
    信息时代的到来为计算机硬件的发展提供了强大的助力,各种媒体数据如音频、视频、图像、三维数据等呈井喷式增长。如何对已获得的海量媒体数据进行智能分析,并设计快速有效的检索方法成为目前的热点问题。如今,三维模型被广泛应用于计算机辅助设计、影视动画、医疗诊断、自动驾驶[1-2]等众多领域,由于三维视角更贴近 ...
    本站小编 Free考研考试 2021-12-25
  • 热红外视频监控下行人目标前景区域提取*
    视频监控在公共安全、刑侦破案、灾难救援中具有重要的作用,尤其在公安视频监控中对行人目标的准确检测更为重要,从而保障了公安办案人员事前预警、事中干预、事后留证[1-3]。然而,在实际现实世界中,由于夜间低照度光照、雾霾、阴雨天气等的影响,使得充足光照的时间不到全年总时间的二分之一。夜间低照度光照、雾霾 ...
    本站小编 Free考研考试 2021-12-25
  • 基于收缩场学习的Retinex低照度图像增强*
    受光照强度的影响,在夜间和背光条件下采集的图像往往含有较低的对比度、大面积的暗区域和明显的噪声污染。这些降质图像往往导致人们无法正确地辨识场景内容,也常常给图像检索、多媒体信息安全等后续计算机视觉任务[1-3]带来严峻的挑战。因此,低照度图像增强具有重要的理论价值和现实意义,受到学界广泛关注。早期, ...
    本站小编 Free考研考试 2021-12-25
  • 双光谱智能体温检测与健康大数据管理系统*
    公共安全视频监控是中国一项重要的基础设施建设,具有易于部署、信息捕获充分、接口和标准统一、可全时段运行等优点,对于建立社会治安防控体系具有重要意义,是维护国家安全和社会安定的重要手段[1]。近年来,面向图像分析和视频监控分析的深度学习技术和大数据挖掘技术取得了很多突破性进展,同时也推动了公共安全视频 ...
    本站小编 Free考研考试 2021-12-25
  • 基于MobileFaceNet网络改进的人脸识别方法*
    人脸特征具有易获取、易捕捉、易处理以及非接触式等特性,已经受到****们的广泛关注,并在公共安全等领域应用日趋广泛。但是,在实际的应用场景下,人脸识别精度依然受到不同的姿态、光照、遮挡等因素的影响。因此,如何提取更具鲁棒性的特征来有效地辨识人脸便成为解决问题的关键。传统的人脸识别方法主要有主成分分析 ...
    本站小编 Free考研考试 2021-12-25
  • 基于空间注意力机制的行人再识别方法*
    利用视频监控进行案件侦破时,多数场合只能看清行人的身体部分,同时需要进行跨视域的连续跟踪查找,因此行人再识别对于查获犯罪嫌疑人及可疑人员,寻找发现侦查破案所需的线索与信息至关重要。行人再识别核心思想是利用行人的整体特征对没有视野重叠覆盖的跨摄像机行人图像间建立对应关系。依据提取特征方式不同,行人再识 ...
    本站小编 Free考研考试 2021-12-25
  • 基于跨尺度特征聚合网络的多尺度行人检测*
    随着人工智能与计算机视觉技术的发展以及人们对公共安全领域的日益重视,智能视频监控技术已经发展为当前的研究热点。行人检测是智能化视频监控系统中的核心关键技术之一,并为后续的更高层次的视频分析与理解提供可靠的数据支持。因此,行人检测技术直接影响着智能视频监控的智能化水平,具有重要的研究意义和应用价值。近 ...
    本站小编 Free考研考试 2021-12-25
  • 基于U-Net的掌纹图像增强与ROI提取*
    在当今信息化时代,生物特征识别是鉴别个人身份、保护个人信息的有效手段。生物特征识别技术,是指利用机器视觉、图像处理等技术对生物特征采样进行身份识别。现有的主要生物识别特征包括指纹[1]、人脸[2]、虹膜[3]和掌纹[4]等。由于掌纹的纹路是由每个人的基因所决定的,即使后天受损,重新生长出来的纹路也保 ...
    本站小编 Free考研考试 2021-12-25
  • 数据丢包和量化约束下的分布式滚动时域估计*
    计算机和通信技术的日趋成熟促进了网络化系统的快速发展。凭借其结构灵活、可扩展性强、运行成本低等优势,网络化系统被广泛应用于目标跟踪、组网导航、智能交通、工业控制等多个领域[1-4]。网络化系统在带来诸多便利的同时,也带来了新的问题和挑战:数据通过网络传输时,由于通信故障、网络拥塞等因素的存在,不可避 ...
    本站小编 Free考研考试 2021-12-25