删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

基于目标性权值度量的多示例学习目标跟踪*

本站小编 Free考研考试/2021-12-25

视觉目标跟踪是计算机研究领域的重要课题之一,其广泛应用于智能监控、交通流量分析及人机交互等领域[1]。由于跟踪场景的复杂性及所跟踪目标的多样性,鲁棒地对目标进行跟踪仍然是一个具有挑战性的问题。
现有的跟踪算法根据所使用的目标外观模型大体分为2类:生成式跟踪和判别式跟踪。生成式跟踪通过寻找与所构造的外观模型最匹配的候选样本实现目标的跟踪[2-6]。判别式跟踪认为跟踪是一个二分类问题,其通过利用来自目标与背景区域的正负样本训练相应的分类器,使用分类器的得分区分背景与目标[7-11]
基于判别式外观模型的跟踪由于在跟踪过程中同时考虑目标区域与背景区域,其跟踪精度一般高于生成式跟踪。但是判别式跟踪算法在跟踪过程中由于不准确的分类及使用不精确的样本训练分类器,导致跟踪过程中误差积累及分类器性能下降。针对此问题,Babenko等[10]提出多示例跟踪算法解决判别式跟踪算法存在正样本不确定的问题,其通过对多示例样本包进行标记取代对单个示例样本进行标记的问题,达到训练过程中弱化监督的目的,从而有效解决示例样本标签歧义性导致的跟踪漂移问题。但是多示例跟踪算法存在如下问题:① 由于外观环境的变化使得目标和背景在跟踪过程中不断发生变化,某些示例样本不能有效地区分目标与背景,对所构造的分类器贡献甚小;② 多示例学习(MIL)跟踪算法在弱分类器选择过程中存在分类器选择复杂度高的问题,其弱分类器的选择依据是最大化log-likelihood函数,从M个弱分类器所构成的弱分类器池中选择K个最强分类能力的弱分类器构造相应的强分类器,在选择最优弱分类器过程中,需要对每个示例样本概率及包概率重复迭代学习M[12]
针对多示例学习过程中存在的上述问题,本文提出了一种基于目标性权值学习的多示例目标跟踪算法,其主要特点如下:① 利用所跟踪物体的目标性属性对样本的重要性进行度量,根据其目标性测量结果对每个正示例样本赋予相应的权值,从而判别性地计算包概率,提高跟踪精度;② 在分类器选择过程中,采用最大化弱分类器与似然函数概率内积的方法从弱分类器池中选择弱分器构造强分类器,从而避免在弱分类器选择过程中对每个示例概率及包概率额外计算M次,提高计算效率。
1 多示例学习 多示例学习算法用多个示例构成的样本包替代单一正样本对分类器进行训练,从而有效解决了由于正样本位置模糊而导致的跟踪漂移问题。训练样本包为{(X1, y1), (X2, y2), …, (Xn, yn)},Xi={xi1, xi2, …, xim},yi为样本包的label,y=1表示正样本集,y=0表示负样本集。多示例学习假设样本包中只要存在一个正示例,则该包为正包,其label y=1;反之,负样本包仅由负示例组成[10, 13]。在目标跟踪过程中,以t时刻的目标位置lt*为中心,半径为α的区域内采集N个正样本组成正样本包X+={x| ||lt(x)-lt*|| < α},半径为α < ξ < β的环形区域内采集L个负样本组成负样本包X-={x|ξ < ||lt(x)-lt*|| < β}。
利用正负样本包中的示例特征训练弱分类器,其特征f(·)服从高斯分布,即
(1)

式中:fk为示例样本的第k个haar-like特征[14]μ1σ1μ0σ0为弱分类的4个参数,且先验概率满足p(y=1)=p(y=0)[12]。因此,相应的弱分器为
(2)

在跟踪过程中采用最大化log-likelihood函数的方法选择K个分类能力最强的弱分器h(·)级联形成强分类器H(·)。
(3)

其中,弱分类器log-likelihood概率为
(4)

特征池Φ={h1, h2, …, hM}是由所有haar-like特征中随机产生的M个特征组成,M > K
?(H)为正负样本包的log-likelihood概率,即
(5)

式中:p(yi|Xi)为正负样本包的概率,其由示例的概率p(yi|xij)采用Noisy-OR模型表示,即
(6)

包中样本示例的概率为
(7)

式中:σ(x)=1/(1+e-x)为sigmoid函数。
对于第t+1帧图像,在第t帧位置lt*邻域,搜索半径为γ的区域采集候选样本集Xγ,即Xγ={x| ||lt+1(x)|-lt*|| < γ},lt+1(x)为候选样本x在第t+1帧中的位置。强分类H(·)根据其对候选样本分类的置信度选择具有最大置信度的样本x*的位置为第t+1帧图像中目标的位置,即,并按式(8) 更新弱分类器的4个参数:
(8)

式中:; N为正样本的数目;η为学习率;μ0σ0的更新规则如式(8) 所示。
2 目标性权值学习的多示例算法 2.1 目标性权值学习
2.1.1 目标性度量 目标性度量(objectness measure)的基本思想是用一个函数值反映图像框所覆盖完整目标的程度。文献[15]指出,图像梯度特征(norm gradients,NG)是一种具有判别性的目标性度量方法。因此,本文参考文献[15-16]的方法,采用NG特征度量多示例跟踪中每个示例样本的目标性。首先,采用?1regularized SVM分类器对示例样本的NG特征进行分类[17],以每个样本的分类得分作为其目标性度量的结果。然后,利用目标性度量的结果对每个正示例样本赋予相应的权值,从而确定各示例样本对包概率的重要程度。对重要的样本赋予较大的权值,次优的样本赋予较小权值,实现判别性的包概率计算,达到提高跟踪精度的目的。正负样本示例的NG特征如图 1所示。
图 1 正负样本示例及其NG特征 Fig. 1 Positive and negative sample instances and their NG features
图选项




为了有效估计样本示例的目标性,首先将每个样本示例调整为8×8的图像块,使用1维模板[-1, 0, 1]计算示例样本在水平和垂直方向的梯度gxgy,因此,样本的NG特征为
(9)


2.1.2 训练?1regularized SVM 由于视频图像跟踪过程中正样本数目非常有限,且在每帧跟踪中只存在一个正样本。因此,本文通过对初始帧中已知的正样本进行旋转和缩放方法获得大量的正样本。该方法在满足训练样本数量的前提下可以对目标的运动进行适当估计,从而提高分类器的抗干扰能力。按照上述方法,获得N个正样本构成正样本包X+={x1j, y1=1, j=0, 1, …, N-1};并以初始位置lt(x0)为中心,α < ξ < β为半径的环形区域内随机采集L个负样本构成负样本包X-={x0j, y0=0, j=N, N+1, …, N+L-1}。其正样本获取方式如图 2所示。
图 2 ?1regularized SVM分类器正样本获取方法 Fig. 2 Acquisition method of positive sample for ?1regularized SVM classifier
图选项




对于所采集的二分类样本集{X+, X-},X+={x1j, y1=1, j=0, 1, …, N-1}, X-={x0j, y0=0, j=N, N+1, …, N+L-1}, 按式(9) 计算每个示例样本的NG特征g,构造相应的NG特征集D+={g1j, y1=1, i=0, 1, …, N-1},D-={g0j, y0=0, j=N, N+1, …, N+L-1}。获得?1regularized SVM的分类判别函数,即
(10)

式中:wb表示?1regularized SVM分类器模型[17]
因此,所构造的多示例?1regularized SVM分类器为
(11)

式中:εiηj为正负样本NG特征的松弛变量,其相应的约束总量分别为C1C2分别为正负样本NG特征的惩罚项参数。
通过求解式(11) 的优化问题,获得最优的参数w*b*w*的大小决定第k个样本的权重。
因此,对于新一帧图像中的任意样本示例xk,依据?1regularized SVM计算每个样本示例的NG特征得分,其样本NG特征的得分决定其对样本包概率的贡献。
(12)

式中:conf(yxk)为经?1regularized SVM计算所得的样本xk的NG特征的得分。
2.2 包概率计算 从式(6) 可以看出,多示例学习跟踪算法采用Noisy-OR模型计算各示例样本的概率,在样本包概率的计算过程中只是简单地对示例样本进行求和,忽略各示例样本的差异性,导致分类器性能下降及误差累积,甚至跟踪漂移[18]。因此,本文根据各示例样本的NG特征判别性地区分不同样本的目标性,从而确定其对样本包概率的重要性,依据?1regularized SVM对每个样本示例NG特征分类的得分,对其进行相应的权值分配,即
(13)

其相应正样本包的概率为
(14)

2.3 弱分类器选择 根据式(5) 和式(6) 可知,多示例学习跟踪算法通过最大化正负样本包的log-likelihood函数学习分类器及在包概率计算过程中使用Noisy-OR模型,其由于反复迭代计算M次示例概率及包概率,加剧了算法的计算复杂度[12]。因此,本文采用最大化弱分类器与log-likelihood概率内积的方法从弱分类器池Φ中选择K个错误率最低的弱分类器构造强分类器,避免在弱分类器选择过程中对当前示例及包概率重复计算M次,从而降低算法的计算时间。
(15)

式中:为弱分类器与log-likelihood概率的内积;▽?(H)(xij)为log-likelihood概率。
(16)

3 算法实现 综上所述,本文所提出的基于目标性权值学习的多示例跟踪算法的流程如图 3所示,具体步骤如下:
图 3 本文算法流程图 Fig. 3 Flowchart of proposed algorithm
图选项




Step 1??初始化。选取所跟踪的目标,生成训练?1regularized SVM所需要的正负样本,对样本按式(9) 计算其NG特征构造相应的特征集D+D-,依式(11) 训练多示例?1regularized SVM,并根据式(12) 获得每个示例样本的目标性度量权值。
Step 2??初始化强分类器H0=0, k=0。
Step 3??对新一帧图像,采集正负样本包X+={x1 i| ||l(x)-lt+1 < α}, X-={x0 i|ξ < l(x)-lt+1|| < β}。按式(9) 计算其NG特征构造相应的特征集D+、D-,并根据式(12) 获得每个正示例样本的目标性度量权值,根据式(2) 训练得到M个弱分类器构造弱分类器池Φ={h1, h2,…,hM}。
Step 4??当k < K时,根据式(15) 从Φ中选择k-1错误率最低的弱分类器构造强分类器。
Step 5??初始化?m=0,m=1, 2, …,M
Step 6??当m < M, i≤1, jN+L-1时,计算
Step 7??输出强分类器:
4 实验结果与分析 为了验证本文算法在视频目标跟踪中的有效性,将其与OAB跟踪[8]、MIL跟踪[10]及WMIL[12]跟踪进行对比,通过定性与定量2个指标对本文算法与其对比算法进行比较,测试视频序列来源为https://sites.google.com/site/trackerbenchmark/benchmarks/v10
本文算法参数设置为:搜索半径γ=30,学习率η=0.85;正样本半径α=5,负样本半径ξ=2α, β=1.5γ;产生50个正样本,42个负样本;C1=C2=0.5。弱分类器数目M=150,从中选出K=25个构造强分类器。OAB[8]、MIL[10]及WMIL[12]跟踪算法的参数按原文设置。测试视频序列的特征如表 1所示。
表 1 测试视频序列的特点 Table 1 Characteristics of test video sequences
视频序列 帧数 主要特点
david1 471 遮挡、尺度、旋转及光照变化
trellic 569 旋转、尺度及光照变化,复杂背景
Shaking 365 光照、尺度变化,旋转及复杂背景
Tiger2 365 遮挡,快速运动,复杂背景
deer 71 运动模糊、形变、旋转及复杂背景
carDark 393 光照变化及复杂背景


表选项






定量指标采用目标中心位置误差及重叠率对各跟踪算法性能进行评估,其中心位置误差为各跟踪算法的目标中心位置与真实中心位置之间的欧氏距离。各跟踪算法在测试视频序列上的中心位置误差曲线如图 4所示,平均中心位置误差如表 2所示。重叠率定义为:overlap= Rt为各跟踪算法的跟踪框区域,Rg为目标边界框区域[19], area(·)表示面积函数。各跟踪算法在测试视频序列上的重叠率曲线如图 5所示,平均重叠率如表 3所示。表 2表 3中,红色表示最优值,蓝色表示次优值。
图 4 中心位置误差曲线 Fig. 4 Center position error curves
图选项




表 2 平均中心位置误差 Table 2 Average center position error
视频序列 平均中心位置误差/pixel
OAB[8] MIL[10] WMIL[12] 本文算法
david1 27.74 21.07 19.97 15.18
trellic 77.35 68.79 63.96 20.94
Tiger2 40.87 42.69 39.67 22.59
Shaking 144.67 14.55 25.80 19.47
deer 13.61 15.69 34.83 6.21
carDark 3.90 48.42 71.22 2.79
平均值 51.35 35.20 42.58 14.53


表选项






表 3 平均重叠率 Table 3 Average overlap rate
视频序列 重叠率
OAB[8] MIL[10] WMIL[12] 本文算法
david1 0.344 0.373 0.361 0.427
trellic 0.136 0.264 0.235 0.501
Tiger2 0.348 0.382 0.453 0.529
Shaking 0.017 0.580 0.418 0.526
deer 0.643 0.611 0.417 0.710
carDark 0.741 0.153 0.089 0.762
平均值 0.372 0.394 0.323 0.575


表选项






实验1??遮挡、旋转、尺度及光照变化
在视频序列david1上对目标进行跟踪,该序列中所跟踪的目标尺度及光照不停地发生变化,在跟踪过程中还存在平面旋转,在第294帧目标摘掉眼镜并在第400帧重新戴上眼镜。实验结果如图 6(a)所示,OAB和MIL跟踪算法的性能最差,发生目标丢失的现象。WMIL跟踪算法的跟踪性能仅次于本文算法,本文算法能较好地对目标进行跟踪,其跟踪性能在4种算法中最优,其平均中心位置误差为15.18pixel,重叠率为0.427。
在trellic序列中,所跟踪的目标为在室外环境下运动的人的脸部,该视频中目标的尺度及环境光照不断变化并伴随平面的旋转,增加了跟踪难度。由实验结果(见图 6(b)图 4图 5表 2表 3) 可得,OAB、MIL、WMIL跟踪算法均不能适应目标的变化,发生跟踪丢失的现象,OAB从第120帧,MIL及WMIL从第170帧开始发生跟踪漂移的现象。本文算法能较为准确地实现对目标的跟踪,其平均中心位置误差为20.94pixel,重叠率为0.501。
图 5 重叠率曲线 Fig. 5 Overlap rate curves
图选项




视频序列Shaking中,所跟踪的目标存在严重的平面旋转及姿势变化并伴随舞台场景中光照的变化,由实验结果(见图 6(c)图 4图 5表 2表 3) 可得,MIL跟踪获得最优的跟踪结果,本文算法仅次于MIL跟踪,其在第231帧左右发生略微的跟踪漂移现象。OAB跟踪效果最差,从第35帧开始就发生目标丢失现象,WMIL跟踪性能次于本文算法,其在第139帧左右发生跟踪偏移的现象。
图 6 对遮挡、旋转、尺度及光照变化视频序列的跟踪结果 Fig. 6 Tracking results for video sequences with occlusion, rotation, scale and illumination changes
图选项




实验2??遮挡、快速运动及复杂背景
Tiger2视频序列中,目标存在严重的光照及姿势变化,并伴随快速的运动及复杂背景遮挡。如图 7(a)所示,OAB及MIL跟踪算法的性能最差,从第170帧开始出现不同程度的跟踪漂移现象。WMIL跟踪算法从第256帧开始出现稍微的跟踪偏移现象。本文算法相比其对比算法能较好地实现目标的跟踪,其平均中心位置误差为22.59pixel,重叠率为0.529。
图 7 对遮挡、快速运动及复杂背景视频序列的跟踪结果 Fig. 7 Tracking results for video sequences with occlusion, fast motion and background clutters
图选项




deer视频序列中,所跟踪的目标由于快速运动造成了运动模糊,加之复杂的背景和目标的运动形变加剧了跟踪的难度。如图 7(b)所示,OAB、MIL跟踪算法及本文算法表现出较好的跟踪性能,WMIL跟踪算法次之,在第40、49帧发生跟踪漂移的现象。
carDark视频序列中,所跟踪的目标为一辆夜间行驶的车辆,由于灯光及复杂背景的干扰,如图 7(c)所示,MIL和WMIL跟踪算法在第202、277、364帧发生跟踪失败的现象。本文算法和OAB跟踪算法在跟踪中表现出较好的性能,其中心误差分别仅为2.79和3.90pixel,重叠率分别达0.762和0.741,表现出较好的跟踪性能。
从实验结果可以看出,本文算法具有较高的跟踪精度,其在4组测试序列上的平均中心位置误差仅为14.53pixel,重叠率达0.575。OAB、MIL及WMIL跟踪算法的平均中心位置误差为51.35、35.20及42.58pixel,其重叠率分别为0.372、0.394及0.323。
对本文算法的计算复杂度进行必要分析。本文所选取的对比算法与所提出的算法相同,均属于判别式跟踪算法。因此,在最终所跟踪目标的判别方面所提出的算法与其他3种算法的计算复杂度相差不大。而相关算法复杂度最大的差异来自于正负样本包的选取和相关样本权值的设定。OAB跟踪算法中,由于仅存在正负样本的选取,因此相对而言其算法复杂度最低。而MIL跟踪算法引入样本包进行训练,相对于OAB跟踪算法增加了包选取的计算开销。此外,WMIL跟踪算法与本文算法均为MIL跟踪算法的改进算法,因此其计算复杂度相对于MIL跟踪算法略有提升。WMIL跟踪算法当中,所增加的算法复杂度主要来自于基于欧氏距离的权值估计。而本文算法所增加的计算复杂度主要来自于与NG特征的计算,而根据文献[15],其特征的计算复杂度为O(NC),N为正样本的数量,C为分类的类别(本文取C=2)。因此,总体来说,相对于MIL跟踪算法,本文算法虽然计算复杂度有所升高,但其所增加的复杂度仍在线性范围内。
5 结论 1) 通过将目标性测量引入到多示例学习中,利用目标性度量的判别性特征,在包概率计算过程中对不同的示例赋予权值,克服多示例学习跟踪算法在跟踪过程中不能有效区分重要样本,造成分类器性能下降的问题。
2) 利用最大化弱分类器与似然函数概率内积的方法选择相应的弱分类器,避免多示例学习跟踪算法在最优弱分类器选择过程中对样本示例及包概率的重复迭代学习,造成算法复杂度高的问题。
3) 实验结果表明,本文所提出的基于目标性权值学习的多示例跟踪算法在遮挡、光照变化、目标运动等复杂场景下具有较好的跟踪精度和鲁棒性。但是本文算法仅局限于单尺度跟踪,当所跟踪的目标发生大的尺度变化及跟踪漂移等问题时,本文算法表现出一定的局限性。因此,本文下一步的研究重点是将多尺度引入到多示例目标跟踪中以解决目标大尺度及跟踪漂移等问题。

参考文献
[1] WU Y, LIM J, YANG M H.Online object tracking:A benchmark[C]//IEEE Conference on Computer Vision and Pattern Recognition.Piscataway, NJ:IEEE Press, 2013:2411-2418.
[2] ZHANG K, ZHANG L, YANG M H. Fast compressive tracking[J].IEEE Transactions on Pattern Analysis & Machine Intelligence, 2014, 36(10): 2002–2015.
[3] ZHONG W, LU H, YANG M H. Robust object tracking via sparse collaborative appearance model[J].IEEE Transactions on Image Processing, 2014, 23(5): 2356–2368.DOI:10.1109/TIP.2014.2313227
[4] ROSS D A, LIM J, LIN R S, et al. Incremental learning for robust visual tracking[J].International Journal of Computer Vision, 2008, 77(1-3): 125–141.DOI:10.1007/s11263-007-0075-7
[5] ADAM A, RIVLIN E, SHIMSHONI I.Robust fragments-based tracking using the integral histogram[C]//2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Piscataway, NJ:IEEE Press, 2006:798-805.
[6] KWON J, LEE K M.Visual tracking decomposition[C]//2013 IEEE Conference on Computer Vision and Pattern Recognition.Piscataway, NJ:IEEE Press, 2010:1269-1276.
[7] KALAL Z, MIKOLAJCZYK, MATAS J. Tracking-learning-detection[J].IEEE Transactions on Pattern Analysis & Machine Intelligence, 2011, 34(7): 1409–1422.
[8] GRABNER H, BISCHOF H.On-line boosting and vision[C]//2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition.Piscataway, NJ:IEEE Press, 2006:260-267.
[9] GRABNER H, LEISTNER C, BISCHOF H.Semi-supervised on-line boosting for robust tracking[C]//Computer Vision-ECCV 2008, European Conference on Computer Vision.Berlin:Springer, 2008:234-247.
[10] BABENKO B, YANG M H, BELONGIE S. Robust object tracking with online multiple instance learning[J].IEEE Transactions on Pattern Analysis & Machine Intelligence, 2011, 33(8): 1619–1632.
[11] ZHANG K, ZHANG L, LIU Q, et al. Fast visual tracking via dense spatio-temporal context learning[M].Berlin: Springer, 2014: 127-141.
[12] ZHANG K, SONG H. Real-time visual tracking via online weighted multiple instance learning[J].Pattern Recognition, 2013, 46(1): 397–411.DOI:10.1016/j.patcog.2012.07.013
[13] 丁建睿, 黄剑华, 刘家锋, 等. 局部特征与多示例学习结合的超声图像分类方法[J].自动化学报, 2013, 39(6): 861–867.
DING J R, HUANG J H, LIU J F, et al. Combining local features and multi-instance learning for ultrasound image classification[J].Acta Automatica Sinica, 2013, 39(6): 861–867.(in Chinese)
[14] VIOLA P, JONES M.Rapid object detection using a boosted cascade of simple features[C]//Proceedings of the 2001 IEEE Computer Society Conference on Computer Vision and Pattern Recognition, 2001.Piscataway, NJ:IEEE Press, 2001:511.
[15] CHENG M M, ZHANG Z, LIN W Y, et al.BING:Binarized normed gradients for objectness estimation at 300fps[C]//2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR).Piscataway, NJ:IEEE Press, 2014:3286-3293.
[16] LIANG P, LIAO C, MEI X, et al. Adaptive objectness for object tracking[J].IEEE Signal Processing Letters, 2016, 23(7): 949–953.DOI:10.1109/LSP.2016.2556706
[17] YUAN G X, CHANG K W, HSIEH C J, et al. A comparison of optimization methods and software for large-scale L1-regularized linear classification[J].Journal of Machine Learning Research, 2010, 11(2): 3183–3234.
[18] XU X, FRANK E. Logistic regression and boosting for labeled bags of instances[J].Lecture Notes in Computer Science, 2004, 3056(3): 272–281.
[19] EVERINGHAM M, GOOL L V, WILLIAMS C K I, et al. The pascal visual object classes (VOC) challenge[J].International Journal of Computer Vision, 2010, 88(2): 303–338.DOI:10.1007/s11263-009-0275-4


相关话题/概率 计算 序列 运动 图像

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19
  • AVB网络流量整形帧模型端到端延迟计算*
    音视频桥接技术(AVB)是由IEEE802.1AVB工作组(AVBTG)[1]定义的音视频流服务技术,已被车载电子系统等关键嵌入式领域考虑采用[2-4],是很具潜力的下一代实时网络标准[5-8]。AVB采用基于信用量的整形(CBS)算法对音视频流量进行整形,通过对不同类型流量设定统一的逻辑带宽进行限 ...
    本站小编 Free考研考试 2021-12-25
  • 基于大气光鲁棒估计的无人机图像去雾方法*
    近年来,无人机(UAV)作为一种新型的航空对地观测平台在民用遥感和军事侦察等领域发挥了越来越重要的作用。然而,在雾、霾等不良天气条件下,由于大气中气溶胶的散射作用,使得大气能见度降低,严重影响了对地观测图像的质量和清晰度,使图像的基本信息特征失真受损,进而影响无人机图像的目标识别、检测等后期任务。因 ...
    本站小编 Free考研考试 2021-12-25
  • 基于计算力矩法的眼内手术机器人的重力补偿*
    眼科手术对医生的操作精度及稳定性有着非常高的要求,借助先进的机器人技术进行精密的眼科手术已成为国内外眼科研究的热点。视网膜静脉阻塞等眼内手术[1-3]的典型过程是将末端器插入眼内,并绕插入点进行转动或移动,应用于该类手术的机器人均具有远程运动中心(RemoteCenterofMotion,RCM)机 ...
    本站小编 Free考研考试 2021-12-25
  • 不完全角度CT图像重建的模型与算法*
    计算机断层成像(ComputedTomography,CT)技术是指利用X射线穿透物体的衰减信息进行重建来获得物体断层图像的技术,该技术不但给医学诊断带来革命性的影响,还成功地应用于安检、工业无损检测等领域[1]。但在实际的应用过程中,由于受数据采集时间、辐射剂量等的约束,只能采集到不完全角度下的投 ...
    本站小编 Free考研考试 2021-12-25
  • 基于图像增强的无人机侦察图像去雾方法*
    目前,无人机研究领域中的热点,是将无人机应用于测绘、目标识别、地质灾害防治等领域。无人机的执行任务,很大程度依赖于成像质量较高的无人机图像。当无人机在中高空进行任务时,雾天下大气中气溶胶的散射作用,降低空气透明度,使能见度急剧恶化,无人机遥感图像的质量和清晰度严重受到影响,导致无人机图像出现退化和模 ...
    本站小编 Free考研考试 2021-12-25
  • 奇异谱分析在故障时间序列分析中的应用*
    数据驱动技术逐渐被证明为一种研究故障时间序列的有效方法[1],特别是对于飞机这种高可靠性需求的复杂系统。对于这种系统,人们很难从影响故障产生的众多要素入手对故障时间序列进行分析,原因是覆盖不全以及一些突发因素。因此,从历史故障数据出发,应用数学方法建立故障模型,发现其中的潜在规律并对未来做出预测,是 ...
    本站小编 Free考研考试 2021-12-25
  • 面向集群环境的虚拟化GPU计算平台*
    近年来,GPU的应用场景从传统的图形图像处理领域扩展到通用计算领域,如航空航天装备研制、卫星遥感数据处理、天气预报、石油勘探和流体动力学等。鉴于GPU的高效能、高性价比特性,越来越多的编程人员开始关注GPU编程,并将其用于相关领域的高性能计算。GPU通用计算一般在集群系统中的多个节点上配备数量不等的 ...
    本站小编 Free考研考试 2021-12-25
  • 基于图像特征分析的物体轮廓提取*
    图像特征分析是图像处理的重要研究方向之一。采用合适的图像特征检测方法,使其能在图像特定区域提取出合理的相应的图像特征,并且对光照强度、视角或尺度具有较强的鲁棒性,是图像特征分析的难点。本文从图像特征分析入手,研究单帧图像中物体的轮廓检测算法。基于图像特征分析的轮廓检测方法包括图像局部检测子方法,对某 ...
    本站小编 Free考研考试 2021-12-25
  • 用广义扩展有限元计算界面裂纹应力强度因子*
    双材料被广泛应用于如航空、航天和交通运输等领域,双材料界面处往往会出现裂纹等缺陷,这些缺陷会导致材料强度的降低,而且损伤通常开始于界面或界面附近区域,因此对双材料界面裂纹的研究至关重要。研究人员已使用如有限元法、边界元法[1]、扩展有限元法(ExtendedFiniteElementMethod,X ...
    本站小编 Free考研考试 2021-12-25
  • 一种高效计算各类基于方差灵敏度指标的方法
    灵敏度分析主要研究模型的输出不确定性是如何分配到输入不确定性的[1]。研究输入对输出不确定性的影响程度,有助于设计者选择更全面、合理和有效减小模型输出不确定性的方案。通常,灵敏度分为局部灵敏度、全局灵敏度和区域灵敏度。局部灵敏度不能反映输入变量整个分布范围对输出响应不确定性的影响,而全局灵敏度反映的 ...
    本站小编 Free考研考试 2021-12-25