在计算机视觉的许多不同应用之中,目标跟踪是最重要的组成部分之一。比如监视、人机交互和医疗图像[60,12]。在视频的一帧中,目标的初始状态(比如位置和尺寸)是给定的,跟踪的目的就是在随后的帧中评估出目标的状态。尽管目标跟踪问题已经被研究了数十年,近年来也取得了许多进展[28,16,47,5,40,26,19],但它仍是一个非常具有挑战性的问题。大量因素影响着跟踪算法的性能,比如光照变化、遮挡和杂乱的背景,目前也不存在单一跟踪方法可以成功地处理所有的应用场景。因此,评估这些最先进的跟踪器的性能以展示其优势和弱点是至关重要的,而且有助于明确该领域未来的研究方向,从而设计出更加鲁棒的算法。
对于综合性能评估,收集具有代表性的数据集是极其重要的。目前已经存在一些针对监控场景中视觉跟踪的数据集,比如VIVID[14],CAVIAR[21]和PETS数据集。然而,这些监控序列中的目标对象通常是人或小尺寸的车,并且背景通常都是静态的。尽管有一部分普通场景下的跟踪数据集[47,5,33]被标定好了边界框,但是绝大部分并没有被标定好。对于那些没有被标注groundtruth的序列,评估跟踪算法是困难的,因为结果是基于不一致的目标标注位置。
近年来,更多的跟踪源码已经可以公开获得,比如OAB[22],IVT[47],MIL[5],L1[40]和TLD[31]算法,这些算法通常都被用于评估。然而,大部分跟踪器的输入输出的格式是不同的,因此对于大规模的性能评估是不方便的。在本工作中,我们建立了一个代码库和一个测试数据集,其中代码库包括了大部分公开可得到的跟踪器,测试数据集标注了groundtruth以有助于评估工作。另外,数据集中的每一个序列都被标记了多种特性,比如遮挡、快速运动和光照变化,这些特性通常会影响跟踪的性能。
本工作的贡献体现在以下三个方面:
数据集我们建立了一个跟踪数据集,其中包含50个完全标注好的序列以便于跟踪算法的评估。
代码库在代码库里,我们整合了大部分公开可获得的跟踪器,并且统一了输入输出格式以便于大规模的算法性能评估。目前,代码库已经包含了29个跟踪算法。
鲁棒性评估跟踪中的初试边界框在时空上被抽样用于评估跟踪器的鲁棒性和特点。每一个跟踪器通过分析超过660000个边界框输出结果被全面地评估。
在本部分,我们从几个主要的模块上来回顾近年来的目标跟踪算法:目标表示方式、搜索机制和模型更新。另外,一些基于联合几个跟踪器或者挖掘上下文信息的跟踪方法也已经被提出来了。
搜索机制为了评估目标对象的状态,确定性和随机性方法已经被使用。鉴于跟踪问题是在最优化框架下提出的,假设目标函数对运动参数是可微的,梯度下降方法可以被用于有效地定位目标位置[37,16,20,49]。然而,这些目标函数通常是非线性的并且包含许多局部极小值。为了减轻该问题,密集抽样方法被采用了[22,5,26],而其代价是高计算负荷。另一方面,随机性搜索算法如粒子滤波[28,44]已经被广泛地使用,因为此类算法对局部极小值相对不太敏感而且计算非常有效[47,40,30]。
模型更新为了反映表观变化,更新目标表示或目标模型是至关重要的。Matthews等人[39]提出了Lucas-Kanade算法[37]中的模板更新问题,其模板通过联合从第一帧中抽取的固定参考模板和最近一帧的结果来更新。一些有效的更新算法是基于在线混合模型[29]、在线boosting[22]和增量子空间更新[47]提出来的。对于判别式模型,主要问题是改善样本收集环节,使在线训练得到的分类器更加鲁棒[23,5,31,26]。尽管已经取得了许多进步,寻找一种自适应的表观模型来避免跟踪漂移仍是非常困难的。
上下文和跟踪器的融合上下文信息对于跟踪也是相当重要的。近年来一些跟踪算法利用辅助对象或目标周围的局部视觉信息来协助跟踪[59,24,18]。当目标被完全遮挡或者离开图像区域[24]时,上下文信息尤其有用。为了提高跟踪性能,一些跟踪器融合方法最近被提出来了。Santner等人[48]提出联合静态、适度自适应和高度自适应跟踪器的方法来反映表观的变化。在贝叶斯框架下,(有些跟踪算法)甚至维持和选择多种跟踪器[34]或多重特征[61]来更好地反映表观的变化。
3.被评估的算法和数据集
Method
Representation
Search
MU
Code
FPS
CPF[44]
L,IH
PF
N
C
109
LOT[43]
L,color
Y
M
0.70
IVT[47]
H,PCA,GM
MC
33.4
ASLA[30]
L,SR,GM
8.5
SCM[65]
L,SR,GM+DM
0.51
L1APG[10]
H,SR,GM
2.0
MTT[64]
1.0
VTD[33]
H,SPCA,GM
MCMC
MC-E
5.7
VTS[34]
L,SPCA,GM
LSK[36]
LOS
M-E
5.5
ORIA[58]
H,T,GM
9.0
DFT[49]
L,T
13.2
KMS[16]
H,IH
3,159
SMS[13]
19.2
VR-V[15]
H,color
Frag[1]
DS
6.3
OAB[22]
H,Haar,DM
22.4
SemiT[23]
11.2
BSBT[50]
7.0
MIL[5]
38.1
CT[63]
64.4
TLD[31]
L,BP,DM
28.1
Struck[26]
20.2
CSK[27]
H,T,DM
362
CXT[18]
H,BP,DM
15.3
表1.被评估的跟踪算法(MU:modelupdate,FPS:framespersecond)。对于目标表示方法,L:local(局部),H:holistic(整体),T:template(模板),IH:intensityhistogram(灰度直方图),BP:binarypattern(二值模式),PCA:principalcomponentanalysis(主成分分析),SPCA:sparsePCA(稀疏PCA),SR:sparserepresentation(稀疏表示),DM:discriminativemodel(判别模型),GM:generativemodel(生成模型)。对于搜索机制,PF:particlefilter(粒子滤波),MCMC:MarkovChainMonteCarlo(马尔科夫链蒙特卡洛方法),LOS:localoptimumsearch(局部最优搜索),DS:densesamplingsearch(密集采样搜索)。对于模型更新,N:No,Y:Yes。在代码栏中,M:Matlab,C:C/C++,MC:Matlab和C/C++混合编程,suffixE:executablebinarycode(可执行二进制代码)。
近些年,针对各种视觉问题开发了许多标准数据集,比如伯克利分割数据集[38],FERET人脸识别[45]和光流数据集[9]。也有一些数据集用于监视场景下的跟踪,比如VIVID[14]和CAVIAR[21]数据集。对于一般的视觉跟踪,评估中使用了更多的序列[47,5]。然而,大部分序列没有作准确值标注,而且定量的评估结果可能是通过不同的初始条件生成的。为了便于公平的性能评估,我们收集并标注了大部分常用的跟踪测试序列。图1展示了每个序列的第一帧,其中目标对象用一个边界框进行初始化标记。
图1.用于评估的跟踪序列。图中展示了目标对象在每个序列的第一帧中的边界框。这些序列根据我们的结果排名进行排序(参考补充材料):左上角的序列比右下角的序列更难于跟踪。注意我们在jogging序列中标注了两个目标。
测试序列的特征由于诸多因素会影响跟踪的性能,评估跟踪算法是困难的。为了更好地评估和分析跟踪方法的优点和缺点,我们用11种属性标注所有序列来进行分类,这些属性列在表2中。
我们的数据集中的属性分布如图2(a)所示。某些属性,如OPR和IPR,出现得比其他属性更频繁。该表也说明了一个序列通常被标记了多种属性。除了在整个数据集上总结算法的性能,我们也给对应的属性分别创建了几个子集,用于描述特定的具有挑战性的条件下算法的性能。比如,OCC子集包括29个序列,可用于分析跟踪器处理遮挡的能力。OCC子集中的属性分布如图2(b)所示,其余的子集报表可以在补充材料中获取。
描述
IV
光照变化-目标区域内的光照剧烈变化
SV
尺度变化-第一帧中和当前帧中的边界框尺寸之比的范围超过[1/ts,ts],ts>1(ts=2)
OCC
遮挡-目标被部分或全部遮挡
DEF
形变-非刚体目标发生形变
MB
运动模糊-目标或摄像机的运动导致的目标区域变模糊
FM
快速运动-groundtruth的运动大于tm个像素点(tm=20)
IPR
平面内旋转-目标在图像平面内发生旋转
OPR
平面外旋转-目标在图像平面外发生旋转
OV
超出视野-目标的一部分离开视野
BC
背景杂斑-目标附近的背景具有和目标类似的颜色或纹理
LR
低分辨率-ground-truth边界框内的像素点个数少于tr(tr=400)
表2.测试序列所标注的各种属性的清单。表中也列出了测试中使用的阈值。
图2.(a)为整个测试数据集的属性分布,(b)为遮挡(OCC)特性在序列中的分布。
4.评估方法
在本研究工作中,我们使用精度和成功率做定量分析。另外,我们从两个方面评估了跟踪算法的鲁棒性。
精确度图在跟踪精度评估中,一个被广泛使用的标准是中心位置误差,其被定义为跟踪目标的中心位置和手工标定的准确位置之间的平均欧氏距离。一个序列中所有帧的平均中心位置误差被用于慨括跟踪算法对该序列的总体性能。但是,当跟踪器丢失目标时,输出的跟踪位置是随机的,此时的平均误差值可能无法正确估量跟踪的性能[6]。近年来,精确度图[6,27]已经被用于测量跟踪的整体性能。精确度图能够显示出评估的位置在给定的准确值的阈值距离之内的帧数占总帧数的百分比。对于每个跟踪器具有代表性的精度评分,我们使用的分数阈值等于20个像素点[6]。
成功率图另一个评估标准是边界框的重叠率。假设跟踪的边界框为γt,准确的边界框是γa,重叠率被定义为S=|γt∩γa|/|γt∪γa|,其中∩和∪分别表示两个区域的交集和并集,|·|指其区域内的像素点个数。为了估量算法在一系列帧中的性能,我们计算重叠率S大于给定的阈值to的成功帧的数量。成功率图给出了此阈值从0到1变化时成功帧所占的比例。使用某一特定阈值(比如to=0.5)下的一个成功率来评估跟踪器可能并不公平或具有代表性。我们使用每一个成功率图的曲线下面积(AUC)作为替代,用于给跟踪算法进行排序。
所提出的测试场景大部分就存在于现实世界中实际应用的场合,而跟踪器通常通过目标检测器来初始化,检测器在位置或尺寸方面可能会给跟踪器引入初始化误差。另外,在不同时刻的实例中,检测器可能被用于重新初始化跟踪器。通过研究跟踪器在不同鲁棒性评估中的特点,我们可以对跟踪算法进行更为深入的理解和分析。
空间鲁棒性评估我们在第一帧中通过移动或缩放准确的groundtruth来抽取初始化的边界框。在这里,我们使用8种空间位置上的偏移,包括4种中心偏移和4种角偏移,以及4种尺度变化(见补充材料)。偏移量为目标尺寸的10%,尺度比例变化可取准确值的0.8、0.9、1.1和1.2。因此,针对SRE我们对每个跟踪器评估12次。
5.评估结果
对于每一个跟踪器,所有的评估都使用了源码的默认参数。表1列出了每一个跟踪器在Inteli73770CPU(3.4GHz)的PC机上OPE运行时的FPS。更详细的速度统计数据,如最大值和最小值,可以在补充材料中获得。
对于OPE,每一个跟踪器进行了超过29000帧的测试。对于SRE,每个跟踪器在每个序列中被评估了12次,共生成了超过350000个边界框结果。对于TRE,每一个序列被分成20个片段,所以每个跟踪器测试了大约310000帧。据我们所知,这是对视觉跟踪最大规模的一次性能评估。在本文中,我们给出了最重要的发现,而更多的细节和图表可以在补充材料中找到。
5.1.整体性能
每一个跟踪器的整体性能以成功率图和精确度图的形式展示在图3中,其中只列出了前10名的算法,至于清晰和完整的图,则已在补充材料中给出。对于成功率图,我们使用AUC分数值来对跟踪器进行总结和排名,而对于精确度图,我们使用了在阈值为20时的结果来进行排名。在精确度图中,某些跟踪器的排名与成功率图中的排名略有不同,因为他们是基于测量跟踪器不同特性的不同标准。由于成功率的AUC评分估量了整体性能,它比单一阈值下成功率图的评分更加准确,下面我们将主要分析基于成功率图的排名,但是使用精确度图作为辅助。
TRE的平均性能比OPE的性能更高,因为OPE所测试的帧数少于TRE的从第一个片段到最后一个片段的帧数之加。由于跟踪器在较短的的序列中倾向于表现更好,TRE中的所有结果的平均值可能更高。另一方面,SRE的平均性能比OPE更低。初始化误差可能会导致跟踪器使用了不精确的表观信息来更新,从而导致跟踪框逐渐漂移。
图3.OPE、SRE和TRE图。图中给出了每个跟踪器的性能评分。对于每幅图,排名前10的跟踪器的清晰而完整的图在补充材料中给出(可以查看到高分辨图)。
在成功率图中,排名最高的跟踪器SCM在OPE中超过Struck2.6%,但是在SRE中低于Struck1.9%。结果也表明OPE不是最佳的性能指标,因为OPE只是SRE或TRE的一次实验而已。TLD在TRE中的排名比在OPE和SRE中的排名更低。这是因为TLD包含重新检测的模块而能在长序列中表现更好,但在TRE中则是大量的短序列片段。Struck在TRE和SRE中的成功率图表明,当重叠率阈值较小时,Struck的成功率比SCM和ALSA更高,但重叠率阈值较大时,Struck的成功率比SCM和ALSA要低。这是因为Struck仅仅估计目标的位置而并未处理尺度变化。
SCM,ASLA,LSK,MTT和L1APG都使用了稀疏表示。这些跟踪器在SRE和TRE中表现良好,这表明稀疏表示是反映表观变化(例如遮挡)的有效模型。我们注意到SCM,ASLA和LSK胜过MTT和L1APG。结果表明局部稀疏表示比全局稀疏模板更加有效。ASLA的AUC分数从OPE到SRE都低于其他前5名跟踪器而且ASLA的排名提升了。这表明ASLA所采用的配准池技术比未配准和背景杂乱更加鲁棒。
在前10名跟踪器中,CSK的速度最高,其所提出的循环行列式结构起到了很重要的作用。VTD和VTS方法采用了混合模型来提高跟踪性能。对比其他排名更高的跟踪器,他们的性能瓶颈归因于所采用的基于稀疏主成分分析表示方法中采用了全局模板。由于篇幅限制,下面章节的分析中只给出SRE图,补充材料中包含了更多的结果。
5.2.基于特性的性能分析
通过标记每一个序列的特性,我们用不同的显著特性构建序列的子集,以便于在每一种挑战性因素下分析跟踪器的性能。由于篇幅限制,我们仅仅阐述和分析了在OCC、SV和FM特性下SRE的成功率图和精确度图,如图4所示。补充材料提供了更多的结果。
图4.OCC,SV和FM子集的图。每幅图的标题中出现的数值是子集序列的序号。补充材料中仅仅提供了排名前10跟踪器的清晰且完整的图(可以查看到高分辨率图)。
当目标快速运动时,基于密集抽样的跟踪器(如Struck,TLD和CXT)比其它跟踪器表现得更好。原因之一就是搜索范围足够大并且判别模型能够在杂乱的背景中将目标辨别出来。然而,由于不好的动态模型,基于随机搜索的高整体性能跟踪器(如SCM和ASLA)在子集序列中表现并不佳。如果参数设置成较大的值,跟踪器需要采样更多的粒子才能使其性能保持稳定。这些跟踪器可以在动态模型方面设计更为有效的粒子滤波器来进一步提升性能。
在OCC子集中,Struck,SCM,TLD,LSK和ASLA方法胜过其他跟踪器。结果表明结构化学习和局部稀疏表示对解决遮挡问题是有效的。在SV子集中,ASLA,SCM和Struck性能最好。结果表明,具有仿射运动模型的跟踪器(如ASLA和SCM)通常比像Struck那种利用少量期望值只描述平移运动的跟踪器能更好地处理尺度变化。
5.3.不同尺度的初始化
我们已知跟踪器对初始化的变化通常是比较敏感的。图5和图6展示了在不同尺度的初始化条件下,跟踪器的整体性能表现情况。当计算重叠率时,我们重新缩放跟踪结果框,以便于整体性能可以和原始尺度时的性能作比较,即图3中的OPE图。图6说明了所有跟踪器在每一种尺度下的平均性能,当尺度因子较大(比如1.2倍)时跟踪器的性能通常会极大地下降,因为目标的初始表示不可避免地会包含许多背景像素点。随着初始化尺度的增大,TLD,CXT,DFT和LOT的性能会下降。这表明,这些跟踪器对杂乱的背景更加敏感。当尺度因子较小时,有些跟踪器性能会更好,如L1APG,MTT,LOT和CPF。L1APG和MTT出现这种情况的一个原因是目标模板必须被调整到适应通常更小的标准模板的尺寸,以便于如果初始模板较小时,更多的表观细节能够在模型中得以保留。另一方面,当初始边界框增大时,有些跟踪器表现良好甚至优异,比如Struck,OAB,SemiT和BSBT。这表明类哈尔特征由于在计算特征时使用了求和操作而对复杂背景具有一定的鲁棒性。总的来说,相对于其他性能良好的方法,Struck对尺度变化不太敏感。
图5.以不同尺寸边界框初始化的跟踪器的SRE。每幅图上面的数值为尺度因子。对于每幅图,排名前10的跟踪器的清晰且完整的图已在补充材料中给出。
图6.以不同尺寸边界框初始化的跟踪器的性能总结。AVG(最后一个)阐明了所有跟踪器在每一个尺度下的平均性能。
6.结论
在本文中,我们通过大规模的实验对近年来在线跟踪算法的性能进行了评估。基于我们的评估结果和观察,我们强调了对提高跟踪性能必需的一些模块。首先,背景信息对有效的跟踪是至关重要的,我们可以通过在判别模型中隐含地使用先进的学习技术对背景信息进行编码(如Struck),或显式地用作跟踪上下文信息(如CXT)来利用背景信息。其次,局部模型对跟踪是非常重要的,正如局部稀疏表示(如ASLA和SCM)比全局稀疏表示(如MTT和L1APG)更能提升性能。它在目标表观发生部分变化时尤其有用,比如部分遮挡或形变。再者,运动模型或者说动态模型在目标跟踪中也是至关重要的,尤其是当目标的运动幅度较大或突然运动时。然而,我们所评估的大部分跟踪器并未注意到这个部分。基于动态模型的位置预测能够减少搜索范围,因此可以提高跟踪的有效性和鲁棒性。改进这些部分将能进一步提高在线目标跟踪算法现有的技术。
评估结果展示了近十年来目标跟踪领域所取得的巨大进步。我们提出并演示了从多个方面深入分析跟踪算法的评估标准。这些大量的性能评估有助于更好地理解当前先进的在线目标跟踪方法,也给新算法的测评提供了一个平台。我们正在进行的工作着重于拓展数据集和代码库,旨在收录更多完整标注好的序列和跟踪器。
鸣谢略
参考文献
[1]A.Adam,E.Rivlin,andI.Shimshoni.RobustFragments-basedTrackingusingtheIntegralHistogram.InCVPR,2006.
[2]N.Alt,S.Hinterstoisser,andN.Navab.RapidSelectionofReliableTemplatesforVisualTracking.InCVPR,2010.
[3]S.Avidan.SupportVectorTracking.PAMI,26(8):1064–1072,2004.
[4]S.Avidan.EnsembleTracking.PAMI,29(2):261–271,2008.
[5]B.Babenko,M.-H.Yang,andS.Belongie.VisualTrackingwithOnlineMultipleInstanceLearning.InCVPR,2009.
[6]B.Babenko,M.-H.Yang,andS.Belongie.RobustObjectTrackingwithOnlineMultipleInstanceLearning.PAMI,33(7):1619–1632,2011.
[7]Y.BaiandM.Tang.RobustTrackingviaWeaklySupervisedRankingSVM.InCVPR,2012.
[8]S.BakerandI.Matthews.Lucas-Kanade20YearsOn:AUnifyingFramework.IJCV,56(3):221–255,2004.
[9]S.Baker,S.Roth,D.Scharstein,M.J.Black,J.Lewis,andR.Szeliski.ADatabaseandEvaluationMethodologyforOpticalFlow.InICCV,2007.
[10]C.Bao,Y.Wu,H.Ling,andH.Ji.RealTimeRobustL1TrackerUsingAcceleratedProximalGradientApproach.InCVPR,2012.
[11]M.J.Black.EigenTracking:RobustMatchingandTrackingofArticulatedObjectsUsingaView-BasedRepresentation.IJCV,26(1):63–84,1998.
[12]K.Cannons.AReviewofVisualTracking.TechnicalReportCSE2008-07,YorkUniversity,Canada,2008.
[13]R.Collins.Mean-shiftBlobTrackingthroughScaleSpace.InCVPR,2003.
[14]R.Collins,X.Zhou,andS.K.Teh.AnOpenSourceTrackingTestbedandEvaluationWebSite.InPETS,2005.
[15]R.T.Collins,Y.Liu,andM.Leordeanu.OnlineSelectionofDiscriminativeTrackingFeatures.PAMI,27(10):1631–1643,2005.
[16]D.Comaniciu,V.Ramesh,andP.Meer.Kernel-BasedObjectTracking.PAMI,25(5):564–577,2003.
[17]N.DalalandB.Triggs.HistogramsofOrientedGradientsforHumanDetection.InCVPR,2005.
[18]T.B.Dinh,N.Vo,andG.Medioni.ContextTracker:ExploringSupportersandDistractersinUnconstrainedEnvironments.InCVPR,2011.
[19]J.Fan,X.Shen,andY.Wu.ScribbleTracker:AMatting-basedApproachforRobustTracking.PAMI,34(8):1633–1644,2012.
[20]J.Fan,Y.Wu,andS.Dai.DiscriminativeSpatialAttentionforRobustTracking.InECCV,2010.
[21]R.B.Fisher.ThePETS04SurveillanceGround-TruthDataSets.InPETS,2004.
[22]H.Grabner,M.Grabner,andH.Bischof.Real-TimeTrackingviaOn-lineBoosting.InBMVC,2006.
[23]H.Grabner,C.Leistner,andH.Bischof.Semi-supervisedOn-LineBoostingforRobustTracking.InECCV,2008.
[24]H.Grabner,J.Matas,L.V.Gool,andP.Cattin.TrackingtheInvisible:LearningWheretheObjectMightbe.InCVPR,2010.
[25]G.D.HagerandP.N.Belhumeur.EfficientRegionTrackingWithParametricModelsofGeometryandIllumination.PAMI,20(10):1025–1039,1998.
[26]S.Hare,A.Saffari,andP.H.S.Torr.Struck:StructuredOutputTrackingwithKernels.InICCV,2011.
[27]F.Henriques,R.Caseiro,P.Martins,andJ.Batista.ExploitingtheCirculantStructureofTracking-by-DetectionwithKernels.InEC-CV,2012.
[28]M.IsardandA.Blake.CONDENSATION–ConditionalDensityPropagationforVisualTracking.IJCV,29(1):5–28,1998.
[29]A.D.Jepson,D.J.Fleet,andT.F.El-Maraghi.RobustOnlineAppearanceModelsforVisualTracking.PAMI,25(10):1296–1311,2003.
[30]X.Jia,H.Lu,andM.-H.Yang.VisualTrackingviaAdaptiveStructuralLocalSparseAppearanceModel.InCVPR,2012.
[31]Z.Kalal,J.Matas,andK.Mikolajczyk.P-NLearning:BootstrappingBinaryClassifiersbyStructuralConstraints.InCVPR,2010.
[32]J.KwonandK.M.Lee.TrackingofaNon-RigidObjectviaPatchbasedDynamicAppearanceModelingandAdaptiveBasinHoppingMonteCarloSampling.InCVPR,2009.
[33]J.KwonandK.M.Lee.VisualTrackingDecomposition.InCVPR,2010.
[34]J.KwonandK.M.Lee.TrackingbySamplingTrackers.InICCV,2011.
[35]X.Li,W.Hu,C.Shen,Z.Zhang,A.Dick,andA.Hengel.ASurveyofAppearanceModelsinVisualObjectTracking.TIST,2013,inpress.
[36]B.Liu,J.Huang,L.Yang,andC.Kulikowsk.RobustTrackingusingLocalSparseAppearanceModelandK-Selection.InCVPR,2011.
[37]B.D.LucasandT.Kanade.AnIterativeImageRegistrationTechniquewithAnApplicationtoStereoVision.InIJCAI,1981.
[38]D.R.Martin,C.C.Fowlkes,andJ.Malik.LearningtoDetectNaturalImageBoundariesUsingLocalBrightness,Color,andTextureCues.PAMI,26(5):530–49,2004.
[39]I.Matthews,T.Ishikawa,andS.Baker.TheTemplateUpdateProblem.PAMI,26(6):810–815,2004.
[40]X.MeiandH.Ling.RobustVisualTrackingusingL1Minimization.InICCV,2009.
[41]X.Mei,H.Ling,Y.Wu,E.Blasch,andL.Bai.MinimumErrorBoundedEfficientL1TrackerwithOcclusionDetection.InCVPR,2011.
[42]X.Mei,H.Ling,Y.Wu,E.Blasch,andL.Bai.EfficientMinimumErrorBoundedParticleResamplingL1TrackerwithOcclusionDe-tection.TIP,2013,inpress.
[43]S.Oron,A.Bar-Hillel,D.Levi,andS.Avidan.LocallyOrderlessTracking.InCVPR,2012.
[44]P.Pe′rez,C.Hue,J.Vermaak,andM.Gangnet.Color-BasedProbabilisticTracking.InECCV,2002.
[45]P.Phillips,H.Moon,S.Rizvi,andP.Rauss.TheFERETEvaluationMethodologyforFace-RecognitionAlgorithms.PAMI,22(10):1090–1104,2000.
[46]F.Porikli,O.Tuzel,andP.Meer.CovarianceTrackingusingModelUpdatebasedonLieAlgebra.InCVPR,2006.
[47]D.Ross,J.Lim,R.-S.Lin,andM.-H.Yang.IncrementalLearningforRobustVisualTracking.IJCV,77(1):125–141,2008.
[48]J.Santner,C.Leistner,A.Saffari,T.Pock,andH.Bischof.PROST:ParallelRobustOnlineSimpleTracking.InCVPR,2010.
[49]L.Sevilla-LaraandE.Learned-Miller.DistributionFieldsforTracking.InCVPR,2012.
[50]S.Stalder,H.Grabner,andL.vanGool.BeyondSemi-SupervisedTracking:TrackingShouldBeasSimpleasDetection,butnotSim-plerthanRecognition.InICCVWorkshop,2009.
[51]B.Stenger,T.Woodley,andR.Cipolla.LearningtoTrackwithMultipleObservers.InCVPR,2009.
[52]F.Tang,S.Brennan,Q.Zhao,andH.Tao.Co-TrackingUsingSemiSupervisedSupportVectorMachines.CVPR,2007.
[53]O.Tuzel,F.Porikli,andP.Meer.RegionCovariance:AFastDescriptorforDetectionandClassification.InECCV,2006.
[54]P.ViolaandM.J.Jones.RobustReal-TimeFaceDetection.IJCV,57(2):137–154,2004.
[55]D.Wang,H.Lu,andM.-H.Yang.OnlineObjectTrackingwithSparsePrototypes.TIP,22(1):314–325,2013.
[56]Y.Wu,J.Cheng,J.Wang,H.Lu,J.Wang,H.Ling,E.Blasch,andL.Bai.Real-timeProbabilisticCovarianceTrackingwithEfficientModelUpdate.TIP,21(5):2824–2837,2012.
[57]Y.Wu,H.Ling,J.Yu,F.Li,X.Mei,andE.Cheng.BlurredTargetTrackingbyBlur-drivenTracker.InICCV,2011.
[58]Y.Wu,B.Shen,andH.Ling.OnlineRobustImageAlignmentviaIterativeConvexOptimization.InCVPR,2012.
[59]M.Yang,Y.Wu,andG.Hua.Context-AwareVisualTracking.PAMI,31(7):1195–1209,2008.
[60]A.Yilmaz,O.Javed,andM.Shah.ObjectTracking:ASurvey.ACMComputingSurveys,38(4):1–45,2006.
[61]J.H.Yoon,D.Y.Kim,andK.-J.Yoon.VisualTrackingviaAdaptiveTrackerSelectionwithMultipleFeatures.InECCV,2012.
[62]L.Yuan,A.Haizhou,T.Yamashita,L.Shihong,andM.Kawade.TrackinginLowFrameRateVideo:ACascadeParticleFilterwithDiscriminativeObserversofDifferentLifeSpans.PAMI,30(10):1728–1740,2008.
[63]K.Zhang,L.Zhang,andM.-H.Yang.Real-timeCompressiveTracking.InECCV,2012.
[64]T.Zhang,B.Ghanem,S.Liu,andN.Ahuja.RobustVisualTrackingviaMulti-taskSparseLearning.InCVPR,2012.
[65]W.Zhong,H.Lu,andM.-H.Yang.RobustObjectTrackingviaSparsity-basedCollaborativeModel.InCVPR,2012.