近年来,伴随深度卷积神经网络的发展,行人重识别在同一场景(单域)数据集下取得了巨大的进展[1-2]。行人重识别技术从基于深度卷积神经网络的全局特征开始向更细粒度的局部特征方向发展。基于全局特征的行人重识别主要基于深度卷积神经网络结构输出的整体行人区域作为行人图像的重识别特征,研究如何基于全局特征设计更为合理的网络损失函数。其中,为解决行人检测对行人重识别的影响,Han等[3]开发了一个可区分的ROI变换层,将行人检测器产生的边界框从原始图像中转换出来生成更可靠的边界框。在损失函数的设计方面,主要有对比损失(Contrastive Loss)[4]、三元组损失(Triplet Loss)[5]、四元组损失(Quadruplet Loss)[6]和中心聚类损失(Center Loss)[7]等。
由于全局特征不具有细粒度的区分能力,在光照条件、背景、人体姿势和成像视角的变化下,同一ID标识的行人在不同视图之间的特征辨识度明显降低。因此,基于局部特征的行人重识别受到研究者的日益重视。基于行人局部区域划分方式的不同,行人语义部件模型可以分为人体语义分块和物理切割分块。近年来,人体姿势估计技术取得了较大的进展[8-11],基于人体语义分块方法[12-14]通过借鉴人体姿态估计的结果用于行人区域划分来进行行人重识别。但姿势估计和行人重识别之间的数据集标注偏差仍然是阻碍行人重识别图像语义划分的障碍。不同于人体语义分块方法需要对行人的强语义标注,物理切割分块不需要行人每个部件区域的训练标签,受到了研究者们的重视[15]。其中,可见部件感知模型(VPM)[16]聚焦在2幅行人图像共同可见的部件区域上学习细粒度的区域特性,以解决行人部件与行人整体图像间的空间位置错位问题,显著地改善了特征表征的学习能力。Sun等[17]提出了基于行人局部特征的部件卷积池化方法,以增强行人重识别中行人部件区域的语义一致性。在行人重识别模型中引入基于深度学习的注意力机制[18-19],自动地给每一幅行人图像赋予一个权重,也进一步推动了行人重识别的性能。Chen等[20]通过卷积神经网络特征通道聚合和空间位置感知提出了一种基于双重注意力机制的行人重识别模型,其集成了注意力模块和多样性正则化,以学习具有代表性、健壮性和更具区分性的特征。
上述基于监督学习的行人重识别方法[4, 21-23]依靠丰富的标记数据和深度网络[24-26]在单域数据集上取得了巨大的成功。在闭合的单域行人重识别上,其源域数据集和目标域数据集具有完全相同的标识类别,但在跨域的无标签数据集上,由于跨域的数据集偏移问题导致行人重识别性能出现显著下降。为了解决这个问题,研究者们提出使用带有标记的源域数据来提取行人特征学习初始阶段的行人重识别模型。在此基础上,通过在目标域上进行无监督聚类[27]或学习度量[28]来改进Re-ID模型,然而这种方法在源域到目标域的特征迁移过程中并没有有效利用带有标记的源域数据作为有效监督信息。为了克服这一问题,目前跨域行人重识别方法主要是基于图像级行人图像整体特征风格[29-31]和行人局部属性语义特征[32-33]进行数据集之间的跨域迁移。
在图像级特征风格迁移方面,Zhong等[34]提出了相机不变性以缓解跨域行人重识别的跨域偏移问题。Yu等[35]提出一种基于无监督多标签学习的MAR模型,开发未标记目标对的多标签视觉特征的相似一致性,基于强化学习增强不同相机视图之间的跨视角一致性。Chen等[36]提出了一个对偶条件生成对抗网络,利用大量未标记的目标域行人实例作为生成图像的上下文指导,将源域目标转移到目标域上下文中,通过迁移丰富的上下文信息来增强行人再识别的辨别力。在行人局部属性语义特征方面,EANet模型[37]利用行人的关键点将行人进行分块和对准,在此基础上进行跨域迁移学习。但是,这些方法却忽略了在目标域内同一标识行人存在的视觉差异,这种同一标识行人的类内差异将对无监督的域自适应问题产生重要的影响。对此,本文联合相机不变性和行人图像局部语义特征不变性将目标域中每个ID标识局部语义对齐的行人特征存储于特征模板池中,对目标域行人进行不变性约束,更好地发挥跨域特征不变性的作用。
综上所述,本文提出一种基于局部语义特征不变性的跨域行人重识别方法,其主要贡献如下:
1) 根据行人图像在源域与目标域上语义特征的一致性,基于弱标注的源域行人图像提出一种行人局部特征语义对齐方法,以迁移源域行人局部语义特征到无标注的目标域,增强跨域行人重识别的特征表达能力。
2) 针对同一ID标识行人图像存在的表观特征变化,通过估计目标域图像之间的相似性,采用特征模板池存储并更新目标域中行人图像的全局与局部特征,将跨域不变性加入到深度网络中提高对跨域特征不变性的学习。
3) 鉴于行人重识别在源域与目标域上的特征差异,基于行人局部特征语义对齐和行人特征模板池提出了一种联合实例不变性、相机不变性和类别(标识)不变性的损失函数,无监督地学习跨域不变性特征,提高行人重识别的跨域适应能力。
1 局部语义特征不变性网络 1.1 网络框架 本文提出的基于局部语义特征不变性的网络结构框架如图 1所示。基础骨干网络采用ImageNet[38]上预训练的ResNet-50[25]网络,其将带标签的源域数据和无标签的目标域数据输入到网络中获取行人实例的特征表示。本文保留ResNet-50的Pooling-5层及之前的网络结构,深度特征的提取分为全局特征模块和局部特征模块。在全局特征模块中添加全局平均池化(Global Average Pooling, GAP)层以获得全局特征,使用交叉熵损失函数与三元组损失函数来优化模型。在局部特征模块添加自适应平均池化层,将行人图像提取到的三维特征张量T分成P个部分,并降维到256维,分别为每个部分添加分类器来进行训练,使用交叉熵损失函数来优化模型。在目标域中,引入特征模板池保存每个行人样本的全局与局部特征,通过估计小批量的目标样本与特征模板池中的特征的相似性,计算无标签目标域的不变性损失。
图 1 基于局部语义特征不变性的跨域行人重识别框架 Fig. 1 Framework of cross-domain person re-identification based on partial semantic feature invariance |
图选项 |
1.2 基于语义对齐的全局与局部特征
1.2.1 全局特征 本文在ResNet-50的Pooling-5层之后,采用GLAD模型[14]的全局平均池化来提取全局特征,之后再经过Softmax分类器预测行人样本的标识,使用交叉熵损失函数Ls和三元组损失函数Lt来共同计算源域全局损失Lsrc1,其计算公式为
(1) |
式中:η1和η2为损失函数平衡因子,本文取值为η=[0.96, 1]。
1.2.2 基于语义对齐的局部特征 本文行人局部特征的提取以PCB模型[3]为基础,将行人图像从上到下均匀划分为6个部件区域,如图 2(a)所示。为了实现行人部件的语义对齐,本节基于行人局部部件的内部特征,把每个局部部件分成4×8的特征块f,每副行人图像被分为6个语义部件,共包含24×8个特征块f,如图 2(b)所示。首先,在源域数据集上,将基于行人图像划分的6个部件区域进行训练学习,形成行人部件分类器Wi。然后,对每个特征块f使用线性分类Softmax函数进行动态分类:
(2) |
图 2 基于语义特征的行人部件示意图 Fig. 2 Schematic diagram of person parts |
图选项 |
式中:p(Pi|f)为属于Pi部件的预测概率;P为预定义行人部件的数量(即P=6);W为部件分类器的可训练权重矩阵。
based on semantic features为保证部件分类的准确性,为每个部件分类器的预测结果设立一个阈值。经过此分类,每个f得到P个预测概率p(Pi|f),取其中的最大值p(Pi|f),并且p(Pi|f)要大于阈值Ti,满足该条件就把f分为Pi部件中,经过这步处理可以筛选出属于各个部件的f;之后,对每幅行人图像中分类预测为同一部件类别的f做局部平均池化,获取行人各个部件的特征表示。
为对齐行人部件区域,采用成对样本对计算最小总距离[39],形成2幅图像的最短路径。假定待查询行人图像和搜索库中的某一图像经式(2)提取的局部特征分别为F={h1,h2,…,hP}和G={g1,g2,…,gP},则2幅行人图像成对部件元素之间的距离规范化为
(3) |
式中:di, j为待查询行人图像的第i个部件和搜索库中某一行人图像的第j部件之间的距离,其取值范围为[0, 1]。
本文基于P×P个距离di, j(i, j∈(1, 2, …, P))形成的距离矩阵D中的最短路径来对齐待查询行人图像与搜索库中行人图像的语义局部区域。其中,2张行人图像相似性距离Si, j是通过动态规划计算距离矩阵D中每行或每列对应最短路径的总距离,即为
(4) |
经过行人部件划分和语义特征对齐后的部件区域如图 2(c)所示,每个部件区域的局部特征注意力位于行人的不同部位,如图 2(d)所示。基于语义对齐后的行人部件局部特征,其行人重识别源域局部损失Lsrc2为
(5) |
式中:Si为部件Pi的交叉熵损失;权重向量γ的取值,通过实验分析分别取[0.18, 0.15, 0.15, 0.17, 0.16, 0.19]重识别性能最佳。
1.3 特征模板池 为了提高网络在目标测试集上的泛化能力,提出通过估计目标图像之间的相似性来增强网络的特征不变性。为此,构造了一个具有键值结构用于存储所有目标域图像的全局与局部特征的特征模板池,其具有键池(K)和值池(V)。其中,键池存放在行人图像经ResNet-50全连接后L2规范化的特征,包括语义对齐后全局特征和局部特征的串联聚合特征,分别为1×4 096维和6×256维;值池存储行人图像的标签。
假定目标域中包含Nt副无标签的行人图像,特征模板池就有Nt个键池,每个键池存放5 632维的聚合特征,其值池存放行人实例的类别标注。在初始化过程中,将键池中所有功能的值初始化为零,将相应的索引指定为目标样本的标签,并存储在值池中。例如,值池中的第i个目标图像的类被分配给V[i]=i。在整个训练过程中,值池中的标签是固定的,在每次训练迭代过程中将目标域行人图像训练样本xt, i经ResNet-50得到的特征h(xt, i)进行L2归一化。在反向传播过程中,更新训练样本xt, i的键池中的特征权重矩阵:
(6) |
式中:R[i]为图像xt, i的特征模板池中键池存放的特征,i为标签;超参数a∈[0, 1]控制更新速率。
1.4 特征不变性学习 鉴于仅使用源域的监督学习得到的深度Re-ID模型对目标域内的变化较为敏感,考虑目标域内的差异变化,研究了3个跨域特征不变性,即实例不变性、相机不变性、类别不变性。
1) 实例不变性。在行人重识别中,即使是同一ID标识的图像间也会有差距,为了学习每一张图像都有别于其他图像,本文在Re-ID模型中增加实例不变性。将nt个目标域图像看做nt个独立不同的类别,计算某一给定目标图像特征h(xt, i)与已保存在特征模板池中的特征之间的余弦相似度,并使用Softmax函数预测其归属类别:
(7) |
式中:β∈(0, 1]为平衡因子。
实例不变性的目标是使目标域上训练图像的负对数似然最小化:
(8) |
式中:Lei为实例不变性损失。
2) 相机不变性。相机风格的变化是影响行人图像识别的一个重要因素,尤其是在源域与目标域之间往往存在迥异的相机风格。因此,本文基于相机不变性拉近同一ID标识的行人图像与其经过相机风格变换后的距离。假设每个图像的摄像机ID是已知的,将每台摄像机视为一个相机域,利用starGAN[40]来训练一个相机风格转换模型[34],利用学习到的相机风格转换Re-ID模型。假设C为目标域中相机风格的数量,一张行人图像则可以得到C-1张其他相机风格的图像,且这C张图片属于同一行人ID,相机不变性的损失函数为
(9) |
式中:Lci为相机不变性的损失;xt, i为xt, i及其C-1张生成图像的集合中随机选取的一张图像,拉近目标域行人图像集中具有同一标识、不同相机风格的行人图像。
3) 类别不变性。基于目标域中属于同一ID标识的行人图像样本集拉近彼此间的距离克服目标域中的变化,以提高Re-ID模型的稳定性。先计算图像特征h(xt, i)与其特征模板池中键池的余弦相似性。在特征模板池中找到与行人图像xt, ik邻近的行人图像索引,定义为M(xt, i,k)。本文提出的类别不变性是假定目标域行人图像xt, i的ID标识应该隶属于k邻近图像索引M(xt, i,k)的候选类。因此,将目标域行人图像xt, i属于某一ID标识j的概率权重赋值为
(10) |
类别不变性的损失函数为
(11) |
式中:Lni为类别不变性损失。
基于上述实例不变性、相机不变性、类别不变性,跨域特征不变性学习的总体损失可以写为
(12) |
式中:
合并源域和目标域的特征不变性网络的损失函数为
(13) |
式中:λ为平衡源域与目标域损失的权重系数,本文取值为0.3。
2 实验结果分析 2.1 数据集与实验设置 本文在国际公开的行人重识别(Re-ID)基准数据集Market-1501[41]、DukeMTMC-reID[6, 42]和MSMT17[30]上评估了本文方法。本文采用ResNet-50[25]作为模型的骨干网络,并使用在ImageNet[43]上预先训练的参数初始化模型,输入图像的大小采样到384×128。在前40次epoch迭代训练阶段中,使用0.01的学习率对ResNet-50的基础网络层进行训练,在接下来的20次epoch迭代中,学习率每个阶段都以除以10的比例缩放。源域行人图像和目标域行人图像的批量大小都设置为128,网络模型学习更新率α初始化为0.01,并随着训练次数的增加而线性增大, α = 0.01×epoch。本文设置行人部件P=6,每个部件的权重向量γ依次设为[0.18, 0.15, 0.15, 0.17, 0.16, 0.19],参数β=0.05,特征模板池候选正性样本数k=6,损失权重λ=0.3。在测试中,提取Pooling-5层的L2规范化输出作为图像特征,并采用欧几里德距离度量查询图像与图库图像的相似度。
2.2 消融实验
2.2.1 基于语义对齐的特征不变性分析 针对目标域提出的语义部件特征对齐与跨域特征不变性学习的有效性,本文在Market-1501和DukeMTMC-reID数据集上开展了验证实验。R-k为返回置信度最高的k张行人图像具有正确结果的概率,mAP为平均准确率。将全局特征作为实验基线,记为GAP,基于语义部件对齐的局部特征记为PAF(Part Aligned Feature),跨域特征不变性记为Inv(Invariance)。在表 1由DukeMTMC-reID→Market-1501数据集的跨域行人重识别实验中,联合语义部件对齐后的局部特征和全局特征(GAP+PAF)较全局特征基线(GAP)mAP提高1.6%,R-1提高1.5%。而且无论对全局特征还是局部特征,加入跨域特征不变性(Inv)均提高了行人重识别的性能,其平均准确率mAP分别提高13.1%和23.8%,R-1的性能分别提高了20.6%和29.8%。实验发现,联合全局与局部特征和特征不变性取得了最优的行人重识别性能,其R-1和mAP分别达到了77.6%和45.0%。同样的实验结论在Market-1501→DukeMTMC-reID数据集的跨域行人重识别中得到了验证。
表 1 在Market-1501和DukeMTMC-reID数据集上的跨域行人重识别消融实验 Table 1 Ablation experiment of cross-domain person re-identification on Market-1501 and DukeMTMC-reID datasets
行人重识别跨域方法 | DukeMTMC-reID→Market-1501 | Market-1501→DukeMTMC-reID | |||||||||
R-1/% | R-5/% | R-10/% | R-20/% | mAP/% | R-1/% | R-5/% | R-10/% | R-20/% | mAP/% | ||
GAP | 45.1 | 62.4 | 68.9 | 75.2 | 18.8 | 29.6 | 43.9 | 50.2 | 57.0 | 15.1 | |
PAF | 45.9 | 63.5 | 69.9 | 75.7 | 19.7 | 30.0 | 45.4 | 51.8 | 58.1 | 15.5 | |
GAP+PAF | 46.6 | 63.9 | 70.6 | 76.3 | 20.4 | 30.3 | 46.7 | 52.4 | 58.8 | 16.0 | |
Inv+GAP | 65.7 | 81.5 | 86.0 | 89.9 | 31.9 | 52.7 | 64.7 | 69.7 | 73.4 | 27.0 | |
Inv+PAF | 75.7 | 89.4 | 92.0 | 94.3 | 43.5 | 64.1 | 76.5 | 80.3 | 83.8 | 41.0 | |
Inv+GAP+PAF | 77.6 | 88.7 | 92.0 | 95.2 | 45.0 | 65.5 | 77.6 | 81.1 | 84.5 | 42.8 | |
行人重识别单域方法 | DukeMTMC-reID→Market-1501 | Market-1501→DukeMTMC-reID | |||||||||
R-1/% | R-5/% | R-10/% | R-20/% | mAP/% | R-1/% | R-5/% | R-10/% | R-20/% | mAP/% | ||
Inv+GAP+PAF | 74.7 | 85.5 | 89.1 | 91.8 | 54.1 | 88.2 | 95.6 | 97.4 | 98.3 | 67.0 |
表选项
值得注意的是,相对于单域行人重识别,跨域行人重识别的性能均出现了显著下降。从表 1中可以观察到,在Market-1501单域上本文行人重识别方法的平均准确率mAP为67.0%,R-1为88.2%;但是在跨域DukeMTMC-reID作为源域,Market-1501作为目标域,行人重识别的平均准确率mAP下降到45.0%,R-1下降到77.6%。同理,Market-1501作为源域,DukeMTMC-reID作为目标域,行人重识别的平均准确率mAP也显现出大幅性能下降。由此可以看出,跨域行人重识别仍然是一个重大挑战。
2.2.2 特征模板池的重要性分析 为验证本文提出的特征模板池对跨域行人重识别的有效性,在全局与局部特征不变性的基础上检验特征模板池的作用。从表 2中可以看出,添加特征模板池的方法优于基于小批量的跨域行人重识别方法,其在R-1和mAP分别提高近11%和8.8%。但是,使用特征模板池的缺点是会增加有限的额外训练时间和GPU内存的开销。
表 2 特征模板池与Mini-batch的比较 Table 2 Comparison of feature template pooling memory and Mini-batch
方法 | DukeMTMC-reID→Market-1501 | ||||
R-1/% | R-5/% | R-10/% | R-20/% | mAP/% | |
Mini-batch | 66.4 | 83.5 | 88.3 | 90.6 | 36.2 |
Mini-batch+Memory | 77.6 | 88.7 | 92.0 | 95.2 | 45.0 |
表选项
2.3 对比实验 为横向比较本文提出的基于局部语义特征不变性的跨域行人重识别有效性,在Market-1501、DukeMTMC-reID和MSMT17数据集上开展跨域行人重识别性能的对比验证。在Market-1501→MSMT17跨数据集的行人重识别实验中,表 3显示了本文方法相较于当前一流的行人重识别方法ECN[44],R-1提高0.3%,R-5提高0.8%,R-10提高1.2%,mAP提高0.4%。在DukeMTMC-reID→MSMT17跨数据集的实验中,本文方法相较于行人重识别方法ECN[44],R-1提高0.4%,R-5提高0.3%,R-10提高0.8%,mAP提高0.5%。从表 4中可以看到,在DukeMTMC-reID→Market-1501的跨数据集行人重识别实验中,行人重识别的性能R-1为77.6%,R-5为88.7%,R-10为92.0%,mAP为45.0%,相较于当前一流的跨域行人重识别方法ECN[44]均有较为明显的性能提升,分别提高2.5%、1.1%、0.4%和2.0%。在跨数据集Market-1501→DukeMTMC-reID的实验中,本文方法相较于行人重识别方法ECN[44],R-1提高2.2%,R-5提高1.8%,R-10提高0.7%,mAP提高2.4%。由此可以看出,本文基于局部语义特征不变性的跨域行人重识别方法有效地提高了跨域行人重识别的性能。
表 3 在Market-1501和DukeMTMC-reID到MSMT17跨域数据集上与当前先进方法的实验比较 Table 3 Experimental comparison with other advanced methods from Market-1501 and DukeMTMC-reID to MSMT17 cross-domain datasets
方法 | Market-1501→MSMT17 | DukeMTMC-reID→MSMT17 | ||||||
R-1/% | R-5/% | R-10/% | mAP/% | R-1/% | R-5/% | R-10/% | mAP/% | |
PTGAN[30] | 10.2 | 24.4 | 2.9 | 11.8 | 27.4 | 3.3 | ||
ECN[44] | 25.3 | 36.3 | 42.1 | 8.5 | 30.2 | 41.5 | 46.8 | 10.2 |
本文 | 25.6 | 37.1 | 43.3 | 8.9 | 30.6 | 41.8 | 47.6 | 10.7 |
表选项
表 4 在Market-1501和DukeMTMC-reID跨域数据集上与当前先进方法的实验比较 Table 4 Experimental comparison with other advanced methods on Market-1501 and DukeMTMC-reID cross-domain datasets
行人重识别跨域方法 | DukeMTMC-reID →Market-1501 | Market-1501→DukeMTMC-reID | |||||||
R-1/% | R-5/% | R-10/% | mAP/% | R-1/% | R-5/% | R-10/% | mAP/% | ||
MMFA[33] | 56.7 | 75.0 | 81.8 | 27.4 | 45.3 | 59.8 | 66.3 | 24.7 | |
SPGAN+LM[29] | 57.7 | 75.8 | 82.4 | 26.7 | 46.4 | 62.3 | 68.0 | 26.2 | |
TJ-AIDL[32] | 58.2 | 74.8 | 81.1 | 26.5 | 44.3 | 59.6 | 65.0 | 23.0 | |
CamStyle[45] | 58.8 | 78.2 | 84.3 | 27.4 | 48.4 | 62.5 | 68.9 | 25.1 | |
HHL[46] | 62.2 | 78.8 | 84.0 | 31.4 | 46.9 | 61.0 | 66.7 | 27.2 | |
ECN[44] | 75.1 | 87.6 | 91.6 | 43.0 | 63.3 | 75.8 | 80.4 | 40.4 | |
本文 | 77.6 | 88.7 | 92.0 | 45.0 | 65.5 | 77.6 | 81.1 | 42.8 |
表选项
3 结束语 本文通过弱监督学习方式对齐行人语义特征,并结合局部特征与全局特征提高了行人的表征能力;联合跨域不变性损失函数约束行人表观特征的不变性提高了行人重识别的跨域适应能力。但是,相较于单域行人重识别,由于源域与目标域行人图像存在的特征分布差异导致跨域行人重识别仍然具有较大的挑战性。
参考文献
[1] | ZHENG L, YANG Y, HAUPTMANN A G.Person re-identification: Past, present and future[EB/OL].(2016-10-10)[2020-03-01].https://arxiv.org/abs/1610.02984. |
[2] | 田萱, 王亮, 丁琪. 基于深度学习的图像语义分割方法综述[J]. 软件学报, 2019, 30(2): 440-468. TIAN X, WANG L, DING Q. Review of image semantic segmentation based on deep learning[J]. Journal of Software, 2019, 30(2): 440-468. (in Chinese) |
[3] | HAN C C, YE J C, ZHONG Y S, et al.Re-ID driven localization refinement for person search[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2019: 9814-9823. https://blog.csdn.net/qq_36269513/article/details/102215503 |
[4] | VARIOR R R, HALOI M, WANG G.Gated Siamese convolutional neural network architecture for human re-identiflcation[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2016: 791-808. https://www.zhangqiaokeyan.com/open-access_resources_thesis/0100091157726.html |
[5] | CHENG D, GONG Y H, ZHOU S P, et al.Person re-identiflcation by multi-channel parts-based CNN with improved triplet loss function[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2016: 1335-1344. https://blog.csdn.net/yuanchheneducn/article/details/53116657 |
[6] | ZHENG Z D, ZHENG L, YANG Y.Unlabeled samples generated by GAN improve the person re-identification baseline in vitro[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2017: 3754-3762. https://blog.csdn.net/VacantField/article/details/80238962 |
[7] | WEN Y, ZHANG K, LI Z F, et al.A discriminative feature learning approach for deep face recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2016: 499-515. https://link.springer.com/chapter/10.1007%2F978-3-319-46478-7_31 |
[8] | 蔡轶珩, 王雪艳, 胡绍斌, 等. 基于多源图像弱监督学习的3D人体姿态估计[J]. 北京航空航天大学学报, 2019, 45(12): 2375-2384. CAI Y H, WANG X Y, HU S B, et al. Three-dimensional human pose estimation based on multi-source image weakly-supervised learning[J]. Journal of Beijing University of Aeronautics and Astronautics, 2019, 45(12): 2375-2384. (in Chinese) |
[9] | CAO Z, SIMON T, WEI S E, et al.Realtime multi-person 2D pose estimation using part affinity fields[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2017: 7291-7299. https://blog.csdn.net/tangbin2009/article/details/81122788 |
[10] | WEI S E, RAMAKRISHNA V, KANADE T, et al.Convolutional pose machines[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2016: 4724-4732. https://blog.csdn.net/zziahgf/article/details/79643752 |
[11] | 郭琳, 秦世引. 遥感图像飞机目标高效搜检深度学习优化算法[J]. 北京航空航天大学学报, 2019, 45(1): 159-173. GUO L, QIN S Y. Deep learning and optimization algorithm for high efficient searching and detection of aircraft targets in remote sensing images[J]. Journal of Beijing University of Aeronautics and Astronautics, 2019, 45(1): 159-173. (in Chinese) |
[12] | ZHENG L, HUANG Y, LU H, et al. Pose invariant embedding for deep person re-identification[J]. IEEE Transactions on Image Processing, 2019, 28(9): 4500-4509. DOI:10.1109/TIP.2019.2910414 |
[13] | SU C, LI J, ZHANG S, et al.Posedriven deep convolutional model for person re-identification[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2017: 3960-3969. https://www.cnblogs.com/laokanblog/p/10324137.html |
[14] | WEI L, ZHANG S, YAO H, et al.GLAD: Global-local-alignment descriptor for pedestrian retrieval[C]//ACM International Conference on Multimedia.New York: ACM, 2017: 420-428. |
[15] | YAO H, ZHANG S, HONG R, et al. Deep representation learning with part loss for person re-identification[J]. IEEE Transactions on Image Processing, 2019, 28(6): 2860-2871. DOI:10.1109/TIP.2019.2891888 |
[16] | SUN Y F, XU Q, LI Y L, et al.Perceive where to focus: Learning visibility-aware part-level features for partial person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2019: 393-402. http://www.doc88.com/p-81261135181349.html |
[17] | SUN Y F, ZHENG L, YANG Y, et al.Beyond part models: Person retrieval with refined part pooling[C]//European Conference on Computer Vision.Berlin: Springer, 2019: 480-496. https://link.springer.com/chapter/10.1007/978-3-030-01225-0_30 |
[18] | LIU X, ZHAO H, TIAN M, et al.HydraPlus-Net: Attentive deep features for pedestrian analysis[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2017: 350-359. https://blog.csdn.net/weixin_44138807/article/details/104022543 |
[19] | ZHAO L, LI X, WANG J, et al.Deeply-learned part-aligned representations for person re-identification[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2017: 3219-3228. https://xueshu.baidu.com/usercenter/paper/show?paperid=77fdc3eed9d528f33d2dbaf25e2ae5fd&site=xueshu_se |
[20] | CHEN T L, DING S J, XIE J Y, et al.ABD-Net: Attentive but diverse person re-identification[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2019: 8351-8361. https://blog.csdn.net/qq_38204302/article/details/103744942 |
[21] | LI W, ZHU X T, GONG S G, et al.Harmonious attention network for person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2018: 2285-2294. https://www.zhangqiaokeyan.com/academic-conference-foreign_ieeecvf-cference-computer-visi-and-patt_thesis/020512457702.html |
[22] | SUN X X, ZHENG L.Dissecting person re-identification from the viewpoint of viewpoint[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2019: 608-617. https://www.jianshu.com/p/1dd9676e314a |
[23] | ZHENG Z D, YANG X D, YU Z D, et al.Joint discriminative and generative learning for person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2019: 2138-2147. https://www.cnblogs.com/king-lps/p/12583712.html |
[24] | LUO Y W, ZHENG L, GUAN T, et al.Taking a closer look at domain shift: Category-level adversaries for semantics consistent domain adaptation[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2019: 2507-2516. |
[25] | HE K M, ZHANG X Y, REN S Q, et al.Deep residual learning for image recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2016: 770-778. |
[26] | DONG X Y, YANG Y.Searching for a robust neural architecture in four GPU hours[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2019: 1761-1770. https://www.jianshu.com/p/a9e7016fc4b3 |
[27] | FAN H H, ZHENG L, YAN C G, et al. Unsupervised person re-identification:Clustering and finetuning[J]. ACM Transactions on Multimedia Computing, Communications, and Applications, 2018, 14(4): 1-18. |
[28] | YU H X, WU A C, ZHENG W S.Crossview asymmetric metric learning for unsupervised person re-identification[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2017: 994-1002. |
[29] | DENG W J, ZHENG L, YE Q X, et al.Image-image domain adaptation with preserved self-similarity and domain-dissimilarity for person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2018: 994-1003. |
[30] | WEI L H, ZHANG S J, GAO W, et al.Person transfer GAN to bridge domain gap for person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2018: 79-88. |
[31] | BAK S, CARR P, LALONDE J F.Domain adaptation through synthesis for unsupervised person re-identification[C]//European Conference on Computer Vision.Berlin: Springer, 2018: 189-205. https://blog.csdn.net/hyk_1996/article/details/87873695 |
[32] | WANG J Y, ZHU X T, GONG S G, et al.Transferable joint attribute-identity deep learning for unsupervised person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2018: 2275-2284. https://blog.csdn.net/weixin_39417323/article/details/103493695 |
[33] | LIN S, LI H L, LI C T, et al.Multi-task mid-level feature alignment network for unsupervised cross-dataset person re-identification[C]//British Machine Vision Conference.Berlin: Springer, 2018: 1-13. |
[34] | ZHONG Z, ZHENG L, ZHENG Z D, et al.Camera style adaptation for person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2018: 5157-5166. https://www.zhangqiaokeyan.com/academic-conference-foreign_ieeecvf-cference-computer-visi-and-patt_thesis/020512457400.html |
[35] | YU H X, ZHENG W S, WU A C, et al.Unsupervised person re-identification by soft multilabel learning[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2019: 2148-2157. https://www.cnblogs.com/Thinker-pcw/p/10807681.html |
[36] | CHEN Y B, ZHU X T, GONG X T, et al.Instance-guided context rendering for cross-domain person re-identification[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2019: 232-242. https://blog.csdn.net/weixin_41792787/article/details/103973474 |
[37] | HUANG H J, YANG W J, CHEN X T, et al.EANet: Enhancing alignment for cross domain person re-identification[EB/OL].(2018-12-29)[2020-03-01].https://arxiv.org/abs/1812.11369. |
[38] | DENG J, DONG W, SOCHER R, et al.ImageNet: A large-scale hierarchical image database[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2009: 248-255. https://www.zhangqiaokeyan.com/open-access_resources_thesis/0100058910627.html |
[39] | ZHANG X, LUO H, FAN X, et al.AlignedReID: Surpassing human-level performance in person re-identification[EB/OL].(2017-11-22)[2020-03-01].https://arxiv.org/abs/1711.08184. |
[40] | CHOI Y, CHOI M, KIM M, et al.StarGAN: Unified generative adversarial networks for multi-domain image-to-image translation[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2018: 8789-8797. https://www.zhangqiaokeyan.com/academic-conference-foreign_ieeecvf-cference-computer-visi-and-patt_thesis/020512457876.html |
[41] | ZHENG L, SHEN L Y, TIAN L, et al.Scalable person re-identification: A benchmark[C]//IEEE International Conference on Computer Vision.Piscataway: IEEE Press, 2015: 1116-1124. https://ieeexplore.ieee.org/document/7410490?arnumber=7410490 |
[42] | RISTANI E, SOLERA F, ZOU R, et al.Performance measures and a data set for multi-target, multi-camera tracking[C]//European Conference on Computer Vision.Berlin: Springer, 2016: 17-35. https://link.springer.com/chapter/10.1007%2F978-3-319-48881-3_2 |
[43] | RUSSAKOVSKY O, DENG J, SU H, et al. ImageNet large scale visual recognition challenge[J]. International Journal of Computer Vision, 2015, 115: 211-252. DOI:10.1007/s11263-015-0816-y |
[44] | ZHONG Z, ZHENG L, LUO Z M, et al.Invariance matters: Exemplar memory for domain adaptive person re-identification[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway: IEEE Press, 2019: 598-607. https://blog.csdn.net/weixin_39417323/article/details/89152925 |
[45] | ZHONG Z, ZHENG L, ZHENG Z D, et al. CamStyle:A novel data augmentation method for person re-identification[J]. IEEE Transactions on Image Processing, 2019, 28(3): 1176-1190. |
[46] | ZHONG Z, ZHENG L, LI S Z, et al.Generalizing a person retrieval model hetero-and homogeneously[C]//European Conference on Computer Vision.Berlin: Springer, 2018: 172-188. https://link.springer.com/chapter/10.1007/978-3-030-01261-8_11 |