删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

基于权值分配及多特征表示的在线多示例学习跟踪*

本站小编 Free考研考试/2021-12-25

视觉目标跟踪是指自动估计视频序列中运动目标的移动轨迹,是计算机研究领域的一个重要课题[1]。在视频监控、车辆导航以及人机交互等方面具有广泛的应用,其研究难点在于如何设计一个能有效处理遮挡、光线和尺度变化并具有较强鲁棒性的跟踪方法。
现有的目标跟踪方法主要以生成式跟踪方法和判别式跟踪方法为主。前者[2-6]将跟踪问题视为搜索与目标模型最相似的区域,通过寻找使重构误差最小的区域来跟踪目标;后者[7-10]将跟踪问题视为二分类问题,其通过寻找目标与背景的最佳决策边界,将目标从背景中区分出来。生成式跟踪方法通过提取目标的重要特征建立目标的外观模型,但其在跟踪过程中未考虑目标的背景信息,忽略了许多区分目标与背景的重要信息;因此在背景相对简单的环境中具有较准确的跟踪结果,但当跟踪目标发生遮挡、旋转、尺度变化以及背景杂乱干扰时,其不能准确地建立目标的外观模型,跟踪结果很差;其代表方法主要有增量式学习跟踪(Incremental learning of Visual Tracing,IVT)算法[2]、特征跟踪(eigen tracker)算法[3]、均值漂移跟踪(mean shift tracker)算法[4]、部件跟踪(fragment-based tracker)算法[5]和基于跟踪分解(Visual Tracking Decomposition,VTD)算法[6];而判别式跟踪在跟踪过程中同时考虑目标及背景的变化信息,在环境发生较大变化时具有较强的鲁棒性,其代表方法主要有在线自适应增强跟踪(Online AdaBoost,OAB)算法[7]、集成跟踪(ensemble tracking)算法[8]、半监督在线自适应增强(semi-online boosting)跟踪算法[9]及多示例学习(Multiple Instance Learning,MIL)跟踪算法[10]
MIL跟踪算法作为判别式跟踪算法的典型代表,在视频目标跟踪中获得了很大的成功。2011年,Babenko等[10]提出在线MIL目标跟踪算法,该算法利用多个样本同时学习,只要样本中包含一个正样本,就能够学习到正确的结果,从而保证分类器正确更新[11],但该算法中多示例包的构建采用haar-like特征[12],而该特征是一种基于结构的矩形特征,对目标的表达能力有限,只能描述水平、垂直等特定走向的结构,从而当所跟踪目标发生遮挡、尺度及光线变化时不能准确地提取目标信息,影响外观模型的准确建立;其次,该算法在构建分类器的过程中,对所有样本包中的正负样本示例赋予相同的权值,忽略了不同示例包对所跟踪目标的重要程度不同,最终影响算法的跟踪精度[13]
针对上述问题,提出一种基于MIL框架的在线视觉目标跟踪方法,受文献[14-15]的启发,为增强特征表达的能力,针对MIL采用单一haar-like特征不能准确描述目标外观变化的特点,本文在haar-like[12]特征的基础上引入梯度直方图(Histogram of Gradients,HOG)[16]特征,图像灰度(intensity)特征作为互补特征构造目标外观模型。通过将多特征互补特性融入在线MIL过程中,克服在线多示例跟踪算法在跟踪过程中容易发生目标丢失及不能良好适应目标外观变化的问题;同时,依据各样本包中不同的正负样本示例对跟踪过程的重要性进行相应的权值分配,利用多特征的互补属性建立较为准确的目标外观模型构造相应的分类器;然后采用粒子滤波方法预测目标的位置,通过构造强分类器确定所跟踪目标的位置;最后,利用更新后的目标位置采样下一帧图像序列的正负样本包,用生成的分类器对正负样本包分类,进而跟踪目标。通过对不同的视频序列进行测试,实验结果表明,本文算法能够较好地解决跟踪漂移问题及对目标遮挡、光线变化、尺度变化及平面旋转具有较好的鲁棒性。
1 多特征表示的MIL跟踪 1.1 基于MIL的正负样本包选取 基于在线学习的目标跟踪将目标跟踪看成二分类问题,因此如何选取正负样本包对后续正确分类至关重要。传统的目标跟踪方法通常选取单个候选区域对目标进行跟踪,容易产生误差的累积,导致目标偏移或丢失。而MIL通过采样多候选目标区域生成正负样本包克服单候选目标区域跟踪算法的局限性[10, 13]。设目标和背景分别表示正负样本,用X+X-表示,其正负样本包选取的具体步骤如下所述。
步骤1??初始化目标:在起始帧中手动选取待跟踪的目标,确定目标位置lt(x0)及搜索半径γ
步骤2??选取正负样本包:
以当前目标位置lt(x0)为中心,α为半径采集N个正样本示例构成正样本包X+={x|lt(x)-lt(x0) < α}。
同理,以当前目标位置lt(x0)为中心,半径为α < ξ < β的区域内随机选取L个负示例构成负样本包X-={x|ξ < lt(x)-lt(x0) < β}。
步骤3??使用正负样本包更新分类器HK(·)。
步骤4??对于t+1帧图像,以第t帧的目标位置为中心,半径为γ的区域内采集样本示例,并用之前训练的分类器寻找具有最大置信度的样本x*,即x*=arg max p(y=1|x);以x*位置l(x*)作为t+1帧中目标的位置。
步骤5??基于新的目标位置l(x*),重复上述过程,获得下一帧目标的正负样本包X+X-,并对示例样本赋予相应的类别标签,y={0, 1},y=1表示示例样本x为正示例,属于目标;反之x为负示例,属于背景。
1.2 基于多特征联合表示的目标外观模型 基于单一特征的跟踪在目标外观模型发生较大变化时显示出很多的局限性[10, 17]。不同的特征对目标的描述能力不同,而单一的特征对目标的描述能力有限[18]。传统的MIL跟踪算法仅采用单一的haar-like特征描述目标外观,由于haar-like特征定义为黑色矩形所有像素值之和减去白色区域所有像素值之和[12],这种矩形特征能反映图像局部的灰度变化。对目标的表达能力有限,只能描述水平、垂直等特定走向的结构,因此仅使用haar-like特征描述目标外观其判别能力有限。从而降低分类器的分类性能,以致影响算法的跟踪效果[19]。针对上述问题,受文献[18, 20]的启发,为了增强特征的表达能力,本文联合图像的灰度特征、haar-like特征及HOG特征来构造目标的外观模型。HOG特征描述了图像局部区域的梯度强度和梯度方向的分布情况,该特征对光照和局部几何变化都具有较强的鲁棒性。而基于MIL的跟踪主要是在灰度级图像上进行的,而灰度特征能在灰度级图像上较好地保留图像的原始信息。因此,本文引入HOG特征和灰度特征的主要目的是为了补偿haar-like特征的不足,在haar-like特征表现较差的区域HOG特征得到较好的结果。基于此,本文提出一种基于多示例跟踪框架的多特征联合表示及考虑权值分配的目标跟踪方法。该方法充分利用不同特征在目标描述能力方面的互补特性,克服了传统MIL跟踪算法采用单一特征进行目标描述时表现出的局限性。
首先,经过1.1节方法提取获得N个正样本示例{x1j, j=0, 1, …, N-1}和L个负样本示例{x0j, j=N, …, N+L-1},由此构成两个正负样本包{X+, X-}。然后,对该样本包中所有的示例分别提取其HOG特征、haar-like特征和灰度特征。对于正负样本包中的每个示例,提取其HOG特征fHOG=(v1, v2, …vN-1, vN, …vN+L-1)、haar-like特征fhaar=(u1, u2, …uN-1, uN, …uN+L-1)及灰度特征fintensity=(q1, q2, …qN-1, qN, …qN+L-1)。由每个示例的HOG、haar-like及灰度特征所组成的特征样本集f(x)={fHOG, fhaar, fintensity}构造目标的外观模型。
1.3 基于权值分配的多示例分类器 由MIL跟踪算法定义[10],若包中含有一个正示例即认为是正样本,若包中不存在正示例即认为负样本;其不区分所采集的多个正负样本包,对所有的示例赋予相同的权值,忽略示例间的差异性,从而使分类器的分类性能下降,造成跟踪漂移等问题。针对此问题,本文在正负样本包概率的计算中,考虑各示例对包的重要程度并赋予相应的权值;依据Bhattacharyya系数计算不同正样本示例与目标之间的相似性衡量其对样本包的重要程度,从而进行相应的权值分配。

1.3.1 正样本包的权值分配 本文在正负样本包概率的计算中,权值分配以各示例所提取的3种特征与当前目标3种特征之间的相似度来决定。设样本x10为当前帧的目标位置,其相似度采用Bhattacharyya系数ρ来度量[21],即
(1)

式中:f10为当前目标的特征;j为第j个示例。
则正样本包的概率为
(2)

式中:p(y=1|x)=σ(HK(x))为样本x的后验概率,H(·)为强分类器;p(y1=1|x1j)=σ(HK(x1j))为样本x1j的后验概率;权值wj0定义为
(3)

因此,本文正样本示例的权值分配依据其对包概率的重要程度决定。正样本包的概率与所描述示例的特征在前后帧中的相似度有关,相似度大的特征对包概率的贡献程度大,相似度小的特征对包概率的贡献程度小;当目标外观发生较小变化时,各特征在前后帧之前的变化较小,故而各特征都具有较高的相似度;反之,目标外观发生剧烈变化时,各特征在前后帧中发生较大的变化。如,当目标发生遮挡时,haar-like特征对遮挡具有较强的鲁棒性,其在前后帧中的变化较小,具有较高的相似度,而HOG特征和灰度特征对遮挡敏感,在前后帧中发生较大的变化,其具有较小的相似度;当目标发生姿势及尺度变化时,HOG特征能够较好地适应这种变化,因此其具有较高的相似度,而haar-like特征和灰度特征不能适应目标的这种变化,故而其具有较小的相似度。因此本文通过联合haar-like、HOG及灰度特征对目标外观进行建模,并依据其描述目标能力的大小进行相应包概率权值的分配,有效克服传统方法MIL的不足,提高算法跟踪的准确性。

1.3.2 负样本包的权值分配 由于负包中的示例与当前帧中的目标位置较远,其包中各示例与所跟踪的目标有很大的区别,故而可以认为其对目标跟踪结果的影响较小。因此可视负包中各示例对包具有相同的重要性,在进行负包概率计算时采用恒定的权值分配策略,即
(4)

式中:w为一常数。

1.3.3 分类器构造 基于上述正负样本权值分配策略,可获得正负样本包的log-likelihood函数为
(5)

对于所采集的正样本包X+采用贝叶斯估计理论计算其后验概率:
(6)

式中:σ(z)=1/(1+e-z)为sigmiod函数;y∈{0, 1}为x样本的二值标签。
由每个样本的特征所组成的特征样本集f(x)={fHOG, fhaar, fintensity}构成目标的外观模型,根据样本示例x所提取的特征向量F(x)=(f1(x), f2(x), …, fK(x))建立分类器表示目标的外观模型,即
(7)

其中:hk(·)为弱分类器,其生成规则为
(8)

式中:fkm(x)={fHOG10, j, fhaar10, j, fintensity10, j},m=1, 2, 3。hk(·)服从Gaussian分布,即p(fkm(xij)|yi=1)~N(μ1, σ1)和p(fkm(xij)|yi=0)~N(μ0, σ0),则μ1σ1的更新规则为
(9)

(10)

式中:η为学习速度。同理,μ0σ0可按照式(9)和式(10)进行更新。
因此,式(6)中的后验概率可表示为
(11)

在线MIL分类器是从由M个弱分类器构成的分类器集Φ={h1, h2, …, hM}中挑选出K个弱分类器级联形成一个强分类器HK,用于确定下一帧中目标的位置信息。即
(12)

通过最大化包的log-likelihood函数选择最具判别能力的弱分类器构成强分类器,即,弱分类器的选择规则为
(13)

式中:是由k-1个弱分类器组成的强分类器。
2 本文算法流程 基于上述分析,本文在MIL框架下,将权值分配及多特征表示融入MIL跟踪中,该算法充分考虑了特征的互补特性及其在跟踪过程中的重要性,并根据其重要性分配相应的权值建立包的似然函数,从而可以有效选择最具判别力的分类器,提高分类器的性能和跟踪算法的精度。其算法流程图如图 1所示。
图 1 基于权值分配及多特征联合表示的MIL跟踪算法流程图 Fig. 1 Flowchart of MIL tracking algorithm based on weight distribution and joint multiple feature representation
图选项




综上所示,基于权值分配及多特征联合表示的MIL跟踪算法具体步骤如下所述。
步骤1??输入视频图像,在起始帧中手动选取待跟踪的目标,生成正负样本示例包{X+, X-},其中X+={x1j, y1=1, j=0, 1,…, N-1},X-={x0j, y0=0, j=N, …, N+L-1};对于第t帧的目标位置lt*,采用粒子滤波估计下一帧中目标的位置l(x)={l1(x), l2(x), …, ln(x)},依据目标位置得到图像的正负样本包Xγ={X+, X-}。
步骤2??利用样本包{X+, X-}更新弱分类器集Φ中所有的M个弱分类器,初始化强分类器H0(xij),i∈{0, 1}。
步骤3??用生成的示例样本根据1.2节中所述特征提取算法提取样本集的特征,分别生成其特征向量。依据式(2)、式(4)及式(5)分别计算正负样本包的概率及包的log-likelihood函数。
步骤4??使用MIL分类器对每一个示例x进行估计p(y=1|x)。
步骤5??依据式(13)选择最具判别力的弱分类器hk,从而构造相应的强分类器。
步骤6??依据式(9)、式(10)分别计算分类器的参数(μ1, σ1, μ0, σ0)。
步骤7??更新目标的位置:

步骤8获取下一帧新的正负样本包:

步骤9输出当前帧目标的位置和分类器的参数(μ1, σ1, μ0, σ0)。
3 实验结果与分析 为了验证文中跟踪算法的有效性,将该算法与IVT[2]、MIL[10]及OAB[7]跟踪算法进行对比,如图 2所示。对所有的测试视频都采用手工标定起始帧中待跟踪目标的位置;并对所有测试视频进行定性和定量两方面的评估分析。本文在实验过程中,设搜索半径γ=30,学习率η=0.85;正样本的采样半径α=5,数目N=45;负样本的采样半径ξ=2α, β=1.5γ,数目L=40;弱分类器数目M=150,从中选出K=15构造强分类器。
图 2 本文算法与其他3种算法在5组测试序列上的对比实验结果 Fig. 2 Experimental results of proposed algorithm compared with other 3 algorthms on 5 groups of test sequences
图选项




在定量分析方面,选取目标中心位置误差进行评估分析,其为各跟踪算法得到的目标中心位置与真实目标中心位置的欧式距离,即:Eerror=,其中:(xi, yi)为跟踪算法得到的目标中心位置;(xc, yc)为目标真实中心位置的坐标。其各种方法在5组测试序列上的中心位置误差曲线如图 3所示,平均中心位置误差如表 1所示。
图 3 不同算法的中心位置误差曲线 Fig. 3 Center position error curves of different algorithms
图选项




表 1 平均中心位置误差 Table 1 Average center position error
像素
视频 IVT MIL OAB 本文算法
mountainBike 12.07* 15.28 28.32 11.69**
faceocc1 24.32* 32.02 88.69 22.19**
faceocc2 16.22* 18.15 24.32 8.87**
girl 29.37 14.12 8.56* 2.66**
singer1 7.97* 21.86 18.31 5.30**
平均 17.99* 20.29 33.64 10.14**
注:*代表次优;**代表最优。


表选项






实验1??非刚性目标尺度变化
图 2(a)所示,在mountainBike视频序列中,跟踪目标为一个在复杂背景下快速移动的非刚体目标,由于在跟踪过程中伴有目标的快速运动,MIL和OAB跟踪算法在第195帧开始出现不同程度的偏移,并在随后帧的跟踪过程中其跟踪框不能恢复,平均中心位置误差分别为15.28像素和28.32像素;而IVT和文中算法较理想地实现了对非刚性目标的跟踪,由于在整个视频序列中,所跟踪目标的尺度和外观并没有发生大的变化,IVT方法在该条件下能够实现对非刚性目标较为准确的跟踪,平均中心位置误差为12.07像素,仅次于本文跟踪算法,本文算法的跟踪误差为11.69像素,在4种跟踪方法中处于最优。
实验2??遮挡和旋转
在实验序列faceocc1中存在若干帧的脸部遮挡,如图 2(b)所示,在该视频序列中,目标位置几乎没有发生改变,从实验结果可以看出,文中方法、IVT跟踪算法和MIL跟踪算法都能较有效地处理这种遮挡,其平均中心位置误差分别为22.19、24.32和32.02像素;而OAB跟踪算法不能有效地处理遮挡,从第90帧开始就出现跟踪偏移的现象,其平均中心位置误差为88.69像素;各种方法的跟踪误差曲线如图 3所示。
视频序列faceocc2相比序列faceocc1增加了脸部旋转,且其遮挡较faceocc1序列严重。在跟踪的全过程中,如图 2(c)所示,其脸部旋转过程(321~540帧)伴有较为严重的遮挡(491帧);从第567帧开始到结束,跟踪目标戴上一顶与其T恤颜色相近的帽子,随后又用书对自己的脸部进行严重的遮挡(715帧);由于在跟踪过程中存在严重的遮挡使目标外观发生了剧烈的变化,IVT跟踪方法不能适应这种变化,从第579帧开始,跟踪发生轻微的漂移且跟踪框大小发生改变,以致在跟踪后期出现严重遮挡时(715帧)完全丢失目标;OAB跟踪算法在目标戴上帽子(579帧)瞬间,由于目标外观发生大的变化出现短时跟踪漂移现象,而在随后的跟踪过程中(620帧)恢复跟踪,接着,由于在第715帧目标出现严重遮挡,OAB算法又出现跟踪漂移的现象,严重的遮挡使目标外观发生剧烈变化,从而导致OAB算法在随后的跟踪中一直没有恢复跟踪;而MIL跟踪算法在跟踪的最后阶段(744帧开始)出现跟踪漂移的现象;文中算法在跟踪的全过程中都具有较为理想的跟踪效果,其平均中心位置误差仅为8.87像素,而对比算法IVT、MIL、OAB的平均中心位置误差分别为16.22、18.15和24.32像素。
视频序列girl跟踪过程相比faceocc1和faceocc2增加了360°的旋转,目标由静及远的尺度变化及相似目标遮挡的干扰。在跟踪的全过程中,目标一直经历平面的尺度变化和旋转,从78~130帧目标经历了第1次360°的平面旋转,IVT跟踪算法不能适应这种严重的旋转变化,从90帧开始跟踪框大小发生变化,在129帧已基本完全丢失目标;MIL和OAB算法在这一过程中出现略微的偏移;在165~265帧目标经历第2次360°的旋转时,MIL已出现较大的跟踪偏移;在第312帧目标进行脸部旋转时,OAB也出现跟踪漂移现象;从415帧开始,当一男子对目标进行遮挡干扰时,MIL和OAB出现不同程度的跟踪偏移现象(434帧),当遮挡消失后,MIL和OAB发生不同程度的恢复(446,449帧);本文跟踪算法在跟踪的全过程中都能较理想地跟踪目标,其跟踪鲁棒性较强,平均位置误差仅为2.66像素,而对比算法IVT、MIL及OAB的平均中心位置误差分别为7.97、21.86和18.31像素。
实验3??光线、尺度变化
在singer1视频序列中,由于存在严重的光线变化加剧了跟踪的难度。由图 2(e)图 3表 1可得,本文跟踪算法可以很好地处理光线剧烈变化问题。本文算法的跟踪误差仅为5.3像素;IVT跟踪算法在跟踪的全过程中也能较理想地跟踪上目标,其效果仅次于本文算法,跟踪误差为7.98像素;MIL和OAB跟踪算法在出现强光干扰(77帧)时,无法对准目标,跟踪框比真实的目标要大,且在跟踪后期由于摄像机视觉的变化,导致目标尺度发生变化,使MIL和OAB出现跟踪失败的现象,IVT的跟踪框也略微大于真实的目标(345帧),其MIL和OAB的平均中心位置误差分别为20.29像素和33.64像素,各种算法的中心位置误差曲线如图 3所示。
从实验结果可以得到,本文跟踪算法对场景光线剧烈变化、遮挡、尺度变化及平面旋转等干扰具有较强的跟踪鲁棒性,取得了较为理想的跟踪结果,其准确性和抗干扰能力优于其对比算法,从表 1可得,本文算法在5组测试视频序列上的平均中心位置误差远小于其他3种算法,仅为10.14像素,IVT、MIL和OAB的中心位置误差分别为17.99、20.29和33.64像素。
由于本文跟踪算法的目标表示是基于intensity、haar-like及HOG特征,而其对比算法IVT的目标表示基于灰度特征,MIL及OAB的目标表示基于haar-like特征。因此,其对比算法都是基于单一特征提取的,而本文算法在目标表示过程中进行多特征提取。由于特征提取在目标跟踪中相对比较耗时,因此本文算法的实时性相对于其对比方法较差,其平均帧率约为12帧/s。因此,如何在保证跟踪精度的同时提高跟踪的速度也是文中算法今后的主要研究方向之一。文中所提算法的主要局限性在于:①对所有视频序列都提取相同的3种互补特征,不能根据视频属性自适应的提取特征;②不能具体衡量出各特征描述目标能力的大小;③文中提取多个互补特征相对耗时,如何快速地提取目标的互补特征,是文中算法今后的主要研究方向之一。
4 结论 1)?本文通过将多特征互补特性融入在线多示例学习过程中,利用多特征的互补属性建立准确的目标外观模型,克服在线多示例跟踪算法对目标外观变化描述不足的问题。
2)?采用多特征联合表示目标外观构造分类器,依据Bhattacharyya系数计算不同正样本示例与目标之间的相似性,衡量其对样本包的重要程度并进行相应的权值分配,提高跟踪精度。
3)?实验结果表明,该跟踪算法对场景光线剧烈变化、遮挡、尺度变化及平面旋转等干扰具有较强的跟踪鲁棒性和较理想的跟踪精度。但该算法在处理较长时间的遮挡、目标全部遮挡以及目标外观发生大的变化时无法实现正确的目标跟踪,并且该算法的实时性较差,如何更好地解决此类问题是今后研究的方向。

参考文献
[1] YILMAZ A, JAVED O, SHAH M. Object tracking: A survey[J].ACM Computing Surveys, 2006, 38(4): 1–45.
[2] ROSS D A, LIM J, LIN R S, et al. Incremental learning for robust visual tracking[J].International Journal of Computer Vision, 2008, 77(1-3): 125–141.DOI:10.1007/s11263-007-0075-7
[3] BLACK M, JEPSON A. Eigentracking:Robust matching and tracking of objects using view-based representation[J].International Journal of Computer Vision, 1998, 26(1): 63–84.DOI:10.1023/A:1007939232436
[4] COMANICIU D, RAMESH V, MEER P.Real-time tracking of non-rigid objects using mean shift[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Piscataway, NJ:IEEE Press, 2000:142-149.
[5] ADAM A, RIVLIN E, SHIMSHONI I.Robust fragments-based tracking using the integral histogram[C]//Proceeding of the IEEE Conference on Computer Vision and Pattern Recognition.Piscataway, NJ:IEEE Press, 2006:798-805.
[6] KWON J, LEE K M.Visual tracking decomposition[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Piscataway, NJ:IEEE Press, 2010:1269-1276.
[7] GRABNER H, GRABNER M, BISCHOF H.Real-time tracking via on-line boosting[C]//Proceedings of the British Machine Vision Conference 2006.Edinburgh:British Machine Vision Association, 2006:47-56.
[8] AVIDAN S. Ensemble tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(2): 261–271.DOI:10.1109/TPAMI.2007.35
[9] GRABNER H, LEISTNER C, BISCHOF H.Semi-supervised on-line boosting for robust tracking[C]//Proceedings of the 10th European Conference on Computer Vision.New York:Springer Berlin Heidelberg, 2008:234-247.
[10] BABENKO B, YANG M, BELONGIE S. Robust object tracking with online multiple instance learning[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(8): 1619–1632.DOI:10.1109/TPAMI.2010.226
[11] LIN R S, ROSS D A, LIM J, et al.Adaptive discriminative generative model and its applications[C]//Advances in Neural Information Processing Systems 17.Cambridge:MIT Press, 2004:801-808.
[12] VIOLA P, JONES M.Rapid object detection using a boosted cascade of simple features[C]//Proceedings of the 2001 IEEE Conference on Computer Vision and Pattern Recognition.Piscataway, NJ:IEEE Press, 2001:511-518.
[13] ZHANG K, SONG H. Real-time visual tracking via online weighted multiple instance learning[J].Pattern Recognition, 2013, 46(1): 397–411.DOI:10.1016/j.patcog.2012.07.013
[14] XU C, TAO D C, XU C.A survey on multi-view learning[J/OL].Computer Science, 2013.https://arxiv.org/abs/1304.5634.
[15] MORENO-NOGUER F, SANFELIU A, SAMARAS D. Dependent multiple cue integration for robust tracking[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2008, 30(4): 670–685.DOI:10.1109/TPAMI.2007.70727
[16] DALAL N, TRIGGS B.Histograms of oriented gradients for human detection[C]//Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Piscataway, NJ:IEEE Press, 2005, 886-893.
[17] KALAL Z, MATAS J, MIKOLAJCZYK K.P-N learning:Bootstrapping binary classifiers by structural constraints[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.Piscataway, NJ:IEEE Press, 2010:49-56.
[18] YOON J H, KIM D Y, YOON K J.Visual tracking via adaptive tracker selection with multiple features[C]//Proceedings of the 12th European Conference on Computer Vision.New York:Springer Berlin Heidelberg, 2012:28-41.
[19] 宁纪锋, 赵耀博, 石武祯. 多通道Haar-like特征多示例学习目标跟踪[J].中国图象图形学报, 2014, 19(7): 1038–1045.NING J F, ZHAO Y B, SHI W Z, et al. Multiple instance learning based object tracking with multi-channel Haar-like feature[J].Journal of Image and Graphics, 2014, 19(7): 1038–1045.(in Chinese)
[20] YOON J, YANG M, YOON K. Interacting multiview tracker[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015(99): 1–14.
[21] DJOUADI A, SNORRASON O, GARBER F. The quality of training sample estimates of the bhattacharyya coefficient[J].IEEE Transactions on Pattern Analysis and Machine Intelligence, 1990, 12(1): 92–97.DOI:10.1109/34.41388


相关话题/序列 概率 实验 图像 计算

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19
  • 压电网络复合板的振动抑制实验研究*
    压电网络复合板(PEMP)由分布在薄板表面(单面或双面)的压电片用电路彼此相连形成的压电网络和薄板复合而成,其与一般压电复合板不同之处在于压电网络的存在,为压电片中汇集的电能在结构中的传播提供了通道。作为一种新型的智能材料复合结构,压电网络复合板在振动噪声控制等领域具有广阔的应用前景。近年来,在基于 ...
    本站小编 Free考研考试 2021-12-25
  • 基于图像特征分析的物体轮廓提取*
    图像特征分析是图像处理的重要研究方向之一。采用合适的图像特征检测方法,使其能在图像特定区域提取出合理的相应的图像特征,并且对光照强度、视角或尺度具有较强的鲁棒性,是图像特征分析的难点。本文从图像特征分析入手,研究单帧图像中物体的轮廓检测算法。基于图像特征分析的轮廓检测方法包括图像局部检测子方法,对某 ...
    本站小编 Free考研考试 2021-12-25
  • 高速切削高温合金GH4169数值模拟与实验*
    镍基高温合金GH4169因其具有高屈服应力和抗疲劳等优良性能,常用于制造燃气轮机的轮盘、航空发动机与叶片等耐热零部件,但由于它同时具有导热系数低、弹性模量小等特点,是典型的难加工材料。对于GH4169这种难加工材料,采用传统的切削加工,效率极低,刀具寿命短,必须建立适合高效切削技术的新理论和研究方法 ...
    本站小编 Free考研考试 2021-12-25
  • 用广义扩展有限元计算界面裂纹应力强度因子*
    双材料被广泛应用于如航空、航天和交通运输等领域,双材料界面处往往会出现裂纹等缺陷,这些缺陷会导致材料强度的降低,而且损伤通常开始于界面或界面附近区域,因此对双材料界面裂纹的研究至关重要。研究人员已使用如有限元法、边界元法[1]、扩展有限元法(ExtendedFiniteElementMethod,X ...
    本站小编 Free考研考试 2021-12-25
  • 蜻蜓爬升过程飞行特征实验研究*
    微型飞行器(MicroAirVehicle,MAV)的发展和应用使昆虫飞行机理的研究越来越受到相关人员的关注[1]。昆虫在不同飞行状态下身体和翅膀运动参数的准确描述和飞行特征的探究为昆虫飞行机理研究和仿生流体力学的探索提供重要的数据依据。在众多飞行能力出众的昆虫界,蜻蜓又被称为“飞行之王”,有着其独 ...
    本站小编 Free考研考试 2021-12-25
  • 亚临界雷诺数圆柱绕流远场气动噪声实验研究*
    圆柱绕流是一个典型的流动问题,广泛存在于航空航天、船舶以及风工程[1-2]等实际工程问题中。其流动尾流区域存在卡门涡街、流动分离和层流湍流的转捩等复杂的流动现象[3-4]。长久以来围绕圆柱绕流的流动、减阻等难题进行了深入细致的研究,而对于圆柱绕流噪声的研究却是从1878年Strouhal[5]开始的 ...
    本站小编 Free考研考试 2021-12-25
  • 基于简单WENO-间断Galerkin的Euler方程自适应计算
    间断Galerkin(DG)方法是由Reed和Hill[1]于1973年为了解决线性输运问题而提出,此后该方法得到了不断发展。20世纪90年代,Cockburn和Shu[2]提出的Runge-Kutta间断Galerkin(RKDG)方法尤其引人注目,在气动力学、水动力学、电磁场以及气动声学等领域的 ...
    本站小编 Free考研考试 2021-12-25
  • 一种高效计算各类基于方差灵敏度指标的方法
    灵敏度分析主要研究模型的输出不确定性是如何分配到输入不确定性的[1]。研究输入对输出不确定性的影响程度,有助于设计者选择更全面、合理和有效减小模型输出不确定性的方案。通常,灵敏度分为局部灵敏度、全局灵敏度和区域灵敏度。局部灵敏度不能反映输入变量整个分布范围对输出响应不确定性的影响,而全局灵敏度反映的 ...
    本站小编 Free考研考试 2021-12-25
  • 基于非线性直方图变换的对比度畸变图像校正
    在实际成像的过程中,由于受到成像装置自身硬件的限制、复杂恶劣的成像环境(如夜晚成像)、拍摄工作者对相机参数的设置等多种因素的影响,造成图像质量下降,视觉效果差,捕获的图像场景许多目标细节部分淹没。由此而产生的对比度畸变图像给后续分析和识别也带来了困难。图像对比度畸变校正主要有2个目的:一是提高图像的 ...
    本站小编 Free考研考试 2021-12-25
  • 进动锥体目标散射特性仿真及实验分析
    弹道目标进动及结构参数估计技术主要通过目标散射特性的时频分布[1,2,3,4]、距离像[5,6,7]及逆合成孔径雷达(InverseSyntheticApertureRadar,ISAR)像[8,9,10,11]分布获得目标的微动及结构参数,并以此来识别真假目标。弹道目标的一维距离像及ISAR像分布 ...
    本站小编 Free考研考试 2021-12-25