视觉目标跟踪漫谈:从原理到应用

丰富的线上&线下活动,深入探索云世界

做任务,得社区积分和周边

最真实的开发者用云体验

让每位学生受益于普惠算力

让创作激发创新

资深技术专家手把手带教

遇见技术追梦人

技术交流,直击现场

海量开发者使用工具、手册,免费下载

极速、全面、稳定、安全的开源镜像

开发手册、白皮书、案例集等实战精华

为开发者定制的Chrome浏览器插件

在计算机视觉领域中并没有对视觉目标跟踪(简称跟踪,下同)的唯一定义。通常来说,跟踪的目标是视频帧或图像中的某个区域或物体,不需要其语义信息(类别等),此概念被形象地描述为“万物跟踪”。同时,也存在一些特例,通常被应用在一些特定场景中对已知类型物体的跟踪,例如工厂流水线监控中对某些特定产品的跟踪(如零部件等)。

很多学者对跟踪有着不同的阐释,包括:“跟踪是视频序列中识别感兴趣区域(regionofinterest)的过程”[1],或者“给定目标在视频中某一帧的状态(位置、尺寸等),跟踪是估计(estimate)该目标在后续帧中的状态”[2]等。这些定义看似大相径庭,但其实有很多共同点。通过提取这些共同点,我们将跟踪问题定义为:跟踪是在一个视频的后续帧中找到在当前帧中定义的感兴趣物体(objectofinterest)的过程。

图1.博尔特参加男子百米短跑的视频截图[3]

假设在视频上一帧我们找到了博尔特所在的位置,我们要做的是在当前帧中继续找到博尔特所在的位置。如前所述,视觉是跟踪问题(视觉目标跟踪)的限定条件,其带来了可以利用的性质。在这里,我们可以利用的defactorules是:在同一段视频中,相同的物体在前后两帧中的尺寸和空间位置不会发生巨大的变化[4]。比如我们可以做出如下判断:博尔特在当前帧中的空间位置大概率会在跑道中,而几乎不可能在旁边的草坪内。也就是说,如果我们想知道博尔特在当前帧中的空间位置,我们只需要在跑道中生成一些候选位置,然后在其中进行寻找即可。上述过程引出了跟踪中一个重要的子问题,即candidategeneration,通常被表述为候选框生成。

博尔特就是图像中个子最高,并且穿着黄色和绿色比赛服的人。但是,我们忽略了一个问题,就是我们对于博尔特的“定义”其实已经包含了很多高度抽象的信息,例如个子最高,还有黄色和绿色的比赛服。在计算机视觉领域中,我们通常将这些高度抽象的信息称之为特征。对于计算机而言,如果没有特征,博尔特和草坪、跑道、或者图像中其他对于人类有意义的物体没有任何区别。因此,想让计算机对博尔特进行跟踪,特征表达/提取(featurerepresentation/extraction)是非常重要的一环,也是跟踪中第二个重要的子问题。

在上述三个小节中我们分别介绍了跟踪基本原理中的三个子问题:候选框生成、特征表达/提取、及决策。需要注意的是,这三个子问题并非彼此独立。有时候,决策问题的解决方案会包含更为精确的候选框生成和/或更为抽象的特征提取,利用端到端(end-to-end)的思想解决跟踪问题,来提高跟踪系统和算法的性能。这在近几年流行的基于深度学习的跟踪算法中非常常见[1]。

从某种意义来说,在回答“视觉目标跟踪有哪些应用”的问题之前,我们应该先讨论学术研究方法论中“为什么”的问题,即“为什么要做视觉目标跟踪”。

跟踪在计算机视觉科学的经典应用领域,包括安防领域(车辆跟踪、车牌识别等)、监控领域(人脸识别、步态识别等)、巡检领域(无人机追踪、机器人导航等)、以及新兴的智慧生活(人机交互、VR/AR等)、智慧城市(流量监测等)、以及智慧工业(远程医疗等)等。跟踪问题的主要应用可以总结为:跟踪主要应用于对视频或连续有语义关联的图像中任意目标的空间位置、形状和尺寸的获知。

作为检测算法的补充,其可以在视频或连续有语义关联的图像中提供目标的空间位置,降低整个系统的复杂度(例如检测仅应用于视频第一帧识别出目标,以及后续帧中的某些帧来确定目标位置,然后在其余帧中应用跟踪确定目标位置)。

候选框生成、特征表达/提取、和决策构成了一条完整的逻辑链路。具体来说,对于视频中的每一帧(通常不包括第一帧),跟踪的系统流程可以用图3中的架构来表示:

图3.视觉跟踪系统架构[4,有改动]

如图所示,在跟踪系统中,上一帧(含跟踪结果,如图中inputframe)和当前帧会被作为系统输入,然后分别经过运动模型(motionmodel)、特征模型(featuremodel)、和观测模型(observationmodel),最终作为当前帧对目标位置的预测(finalprediction)输出。其中,候选框生成、特征表达/提取、和决策三个子问题分别在上述三个模型中被解决,其输入与输出的对应关系如表1。

表1.视觉跟踪系统架构中各模型的输入与输出

注意,图3中的跟踪系统架构应用了假设检验(hypothesistesting)模型。该模型是统计推断中的常用方法,其基本原理是先对系统的特征做出某种假设,然后通过研究抽样的统计分布,判断应该接受还是拒绝此假设。该模型能够很好地应用于跟踪问题,即假设当前帧的某个候选框是预测目标,然后通过特征表达/提取和决策,来判断该候选框是否可以作为当前帧目标位置的合理预测。

图4.视觉跟踪目标常用表达方式[5]

如图所示,目标可以被矩形框(4c)、骨架(4f)、或轮廓(4h)等不同形式所表达。其中,广泛被计算机视觉研究中所采用的是如4(c)中的矩形框(即boundingbox,一译包围盒)表达。这种表达形式的优点包括易生成(如最小外接矩形)、易表达(如左上角+右下角坐标,或中心点坐标+宽高)、易评估(如IOU(intersectionoverunion),一译交并比)等。详细的信息见[5]。

推理过程:即图3中的系统流程,用于预测当前帧的目标位置,任何跟踪算法都需要。在该过程中,运动模型生成候选框,然后经过特征模型进行特征表达/提取,将含有特征的候选框输入观测模型进行决策(对目标位置的预测)。如视觉目标跟踪的定义一节所述,defactorules是在同一段视频中,相同的目标在前后两帧中的尺寸和空间位置不会发生巨大的变化。基于此,我们可以大大减少候选框的数量和种类,即我们只需要在上一帧预测的目标位置附近生成和其尺寸近似的候选框,从而提高整个跟踪系统的效率。

训练过程:通常在基于判别式方法的跟踪算法中需要,属于跟踪系统学习如何区分目标和非目标的过程,将在视觉目标跟踪的算法分类一节中详述。在该过程中,所谓的候选框生成应该被称作“正负样本生成”。在这里,正样本可以近似地理解为目标,负样本可以近似地理解为非目标的干扰项,例如背景或其他像目标但不是目标的物体。为了提高该类算法的跟踪系统对于正负样本的判别能力,在生成负样本时通常会在整个图像中寻找,而不仅限于上一帧预测的目标位置附近。

总结来说,候选框生成被应用在推理过程,用来生成当前帧目标的潜在位置;正负样本生成被应用在基于判别式方法的跟踪算法的训练过程,用来生成正负样本训练跟踪系统,使得系统习得区分目标与分目标的能力。

图5示出了运动模型的系统架构以及如何得到候选框的方法分类。如图所示,前一帧(第n帧)中预测目标的位置被输入模型中,输出当前帧(第n+1帧)的候选框。这些候选框可能有位置变化、尺度变化、和旋转等,如图中绿色和橙色虚线框所示。

图5.运动模型系统架构与分类

通过仿射变换生成候选框。具体来说,假设输入的上一帧预测目标的位置矩形框坐标为x、仿射变换的参数矩阵为A、以及输出的(一个)候选框的坐标为y,则

y=Ax

其中,A中的参数包括候选框位置变换、尺度变换、旋转变换、和长宽比变换等信息,仿射变换的示例如图5所示。这里,概率体现在上述参数都是符合某种概率分布(通常是高斯分布)的随机变量,而采样则体现在生成不同数量的候选框。

如图6所示,以某个形状和大小的结构元素(形象地被称之为窗)在当前帧中按一定的空间间隔移动,每次移动后覆盖的图像中的相应像素即为生成的候选框。通常来说,通过此种方法生成的候选框和前一帧的矩形框相比仅有位置变换,其他变化(如旋转变换)需要进行额外的处理。

图6.划窗生成候选框示例

图7.循环移位生成候选框示例[6]

对于人类来说,图像特征是对于图像的直观感受。对于计算机来说,图像特征是图像内的一些区域/整个图像和其他区域/其他图像的差异。常用的图像特征包括颜色特征、形状特征、空间特征、纹理特征、以及在深度学习中通过卷积神经网络得到的深度特征等。博尔特的黄色和绿色的比赛服即属于颜色特征,而个子高则结合了空间特征和纹理特征。通常来说,特征越“深”(抽象且不直观的的特征,如深度特征),对目标的判别能力越好;反之,特征越“浅”(具体且直观的特征,如颜色等),对目标的空间位置信息保留越好。因此,特征表达/提取通常需要在两者之间做权衡,才能达到更好的跟踪效果。

了解什么是图像特征之后,特征表达/提取要解决的问题是如何来描述这些特征,即用计算机能够理解的语言来描述这些特征的数学特性的一个或多个维度。常用的特征表达/提取方法包括朴素方法(naive,如像素值)、统计方法(statistics,如直方图)、和变换(transformation,如像素值的梯度)等。

特征和特征表达被统称为特征模型。特征模型可以对从运动模型中得到的候选框进行分析,得到相应的候选框特征表达/提取,如图8所示。

图8.特征模型=特征+表达/提取

图9示出了如何得到对特征进行表达/提取的方法分类。可以看到的是,在应用卷积神经网络(CNN)得到深度特征(deep)之前,手工的(hand-crafted)特征表达/提取方法是跟踪问题中对于图像特征进行处理的主流方法,其包括上述提到的各种特征和表达方式。在诸多特征和表达方式中,应用最多的是颜色特征和梯度直方图。颜色特征比较容易理解,其不仅符合人类对于图像的直观理解,同时也是最简单的计算机表征图像的方法,即像素值。梯度直方图是关于梯度的直方图,其中梯度是图像像素值在某个特定空间方向上的变化,例如水平相邻像素之间的像素值差;而直方图是一种常用的数据分布的图像表示,可以直观地表示出一组数据在其取值范围内的数量变化。请各位同学参考[7]获取更多关于图像特征的信息。目前,基于深度学习的方法逐渐成为跟踪问题研究的主流,其通过卷积神经网络(CNN)得到的深度特征(deep)极大地提高了跟踪算法对目标的判别能力,所达到的性能也超过应用手工特征的跟踪算法。

**图9.特征与特征表达/提取方法的分类**

在观测模型中,如何在诸多候选框中选出一个作为我们对目标位置在当前帧的预测是在观测模型需要解决的主要问题,即做决策(“哪一个”)。直观理解,我们只需要在当前帧的候选框中找出最“像”前一帧的预测目标的候选框就可以,然而最“像”并不是仅有一种定义。

通常来说,在计算机视觉领域中解决最“像”问题可以被归类为匹配问题,即在候选框中找到和前一帧目标最为匹配的那个。匹配问题是整个跟踪问题的核心,也是绝大多数跟踪算法解决的主要的问题,其解决方案的效果直接影响整个跟踪算法的性能。有时候,即使在候选框生成和特征表达/提取方面做得不够好,例如候选框的形状和尺寸与实际有出入,或提取的特征的判别程度不高,优秀的匹配算法也可以在一定程度上弥补前两个模型中存在的不足,维持跟踪算法的整体性能。

前述中提到的最“像”或匹配问题在本质上是一个相似度度量(similaritymeasurement)问题。在解决相似度问题的时候,我们需要一个衡量机制,来计算两个相比较的个体的相似度。在跟踪问题中,被比较的个体通常是候选框和前一帧的预测结果(或者是groundtruth),而衡量机制可以被抽象成距离(distance)。这里的距离不仅仅是空间距离,即框与框之间在图像中相隔多少个像素,还包括两个概率分布的距离。

由于空间距离相对好理解,我们在这里仅对概率分布距离稍作解释:每一帧的跟踪结果是一个预测值,即每一个候选框是目标的概率。如果综合所有候选框,就可以构成一个概率分布。从概率分布的角度理解匹配问题,跟踪问题就转换成在当前帧寻找和上一帧的候选框概率分布“最接近”的一组候选框分布,该“最接近”即是概率分布距离。常用的空间距离有Minkowskidistance(Manhattandistance和Euclideandistance是其特殊情况),常用的概率分布距离有Kullback–Leibler(KL)散度、Bhattacharyyadistance、交叉熵、以及Wassersteindistance等。参考[8]。

图10示出了观测模型的系统架构。如图所示,前一帧(第n帧)中预测的目标位置、当前帧(第n+1帧)的候选框、和候选框的特征被输入模型,输出当前帧(第n+1帧)的预测结果(目标位置)。这些候选框可能有位置变化、尺度变化、和旋转等,如图中绿色和橙色虚线框所示。

图10.观测模型系统架构

图11示出了观测模型的模块拆解和分类。如图所示,观测模型的核心模块是匹配(match)。对于匹配方法的分类,业界的主流观点是:生成式方法(generative)和判别式方法(discriminative)[1,2,4,9]。这两种方法的主要区别在于是否有背景信息的引入。具体来说,生成式方法使用数学工具拟合目标的图像域特征,并在当前帧寻找拟合结果最佳(通常是拟合后重建误差最小的)的候选框。而判别式方法则是不同的思路,其将目标视为前景,将不包含目标的区域视为背景,从而将匹配问题转换成了将目标从背景中分离的问题。

对比起来,判别式方法具有更好的判别能力,即将目标和其他干扰项区分开的能力,这也是这一类匹配方法得名的由来。作为上述观点的论据支撑,应用判别式方法的跟踪算法的性能已经大幅度超越应用生成式方法的跟踪算法,成为学术界研究的主流方向[9]。总结来说,生成式方法把跟踪问题建模成拟合或多分类问题,而判别式方法把跟踪问题定义为二分类问题。

图11.观测模型的模块拆解和分类

此外,在图11中我们注意到还有两个虚线框示出的模块,分别代表特征表达/提取(featurerepresentation/extraction)和更新(update)。在这里,虚线表示这两个步骤不是必须被执行的。对于有的算法而言,通过特征模型得到的特征会被进一步抽象,来获取目标更深层次的特征信息,然后再被送进匹配模块执行匹配算法。同时,更新的步骤也非必须的,其存在的意义是获得更为准确的预测结果。

具体来说,匹配算法得到了一系列的参数,应用这些参数即可对当前帧的目标位置进行预测。如果在后续所有帧的预测过程中都应用这些参数,可能会出现的结果是预测趋向不准确,最终导致跟踪的失败。其可能的原因包括累积误差、外因(如遮挡、光照变化)、以及内因(如目标外观变化、快速运动)等。如果引入更新模块,在每若干帧之后根据之前的预测结果更新匹配算法的参数,则可以减小误差,提高跟踪的准确性。

跟踪算法根据其观测模型被分为两大类:生成式方法(generative)和判别式方法(discriminative)。值得注意的是,在这里我们强调分类的依据是观测模型,是为了将整个跟踪系统架构中的不同模型解耦合。具体来说,即使两个算法分别应用了生成式方法和判别式方法作为相似度匹配的解决方案,其可能都应用了相同的特征,例如颜色直方图。如果我们将应用在跟踪算法中的特征作为分类的依据,这两个算法应该被归为一类。很显然,这是另一种算法分类的角度,但是却存在将两个大相径庭的算法归为一类的可能性。

在明确了我们分类的前提之后,图12示出了我们对于跟踪算法的分类以及各分类下的一些经典算法。值得注意的是,在这里我们仅将分类细化到第二层,即将生成式和判别式做进一步分类。根据不同算法的具体细节,图中的分类可以继续深化,但是这有别于此文的宗旨,即对跟踪问题的系统性的概括。

图12.跟踪算法根据观测模型的分类和举例

关于生成式方法,其核心思想即衡量前一帧的预测目标与当前帧候选框的相似度,然后选择最为相似的候选框作为当前帧的跟踪结果(即预测目标在当前帧的位置)。生成式方法被进一步分成下述三类:

即用空间距离衡量相似度的解决方案,通常利用最优化理论将跟踪问题转换成空间距离最小化问题。利用此方法的经典算法包括IVT(IncrementallearningVisualTracking)[10]和ASLA(AdaptiveStructuralLocalsparseAppearancemodeltracking)[11]。其算法的核心思想是:计算当前帧候选框的像素灰度值与上一帧预测目标的像素灰度值之间的Euclideandistance,然后取距离最小的候选框作为当前帧的预测目标。在特征提取时应用了奇异值分解等技术来减小计算复杂度。

即用概率分布距离衡量相似度的解决方案,通常利用最优化理论将跟踪问题转换成概率分布距离最小化问题。利用此方法的经典算法包括CBP(Color-BasedProbabilistic)[12]和FRAG(robustFRAGments-based)[13]。其算法的核心思想是:计算当前帧候选框的颜色直方图分布与上一帧预测目标的颜色直方图分布之间的Bhattacharyyadistance,然后取距离最小的候选框作为当前帧的预测目标。

这部分解决方案以MeanShift[14]和CamShift算法为代表,其模糊了对于相似度匹配的距离衡量,甚至没有显式地候选框生成过程,而是借鉴了机器学习中meanshift聚类算法的思想,在每一帧中利用上一帧预测目标的颜色直方图分布,计算该帧中相应位置的像素的颜色直方图分布,然后进行聚类得到其分布的均值,其对应的像素位置是该帧中预测目标的中心位置,然后加上候选框宽高等信息即可得到当前帧预测目标的空间位置。在MeanShift算法中,宽高信息是固定的,因此其无法应对目标尺度和旋转变化,而CamShift通过将图像矩引入相似度匹配[7],得到目标尺度和旋转信息,进一步提高了算法的性能。

应用机器学习算法的思想将目标作为前景从背景中提取出来的方法。利用此方法的经典算法包括STRUCK(STRUCturedoutputtrackingwithKernels)[15]和Tracking-Learning-Detection(TLD)[16]。STRUCK和TLD算法分别采用经典机器学习算法中的支持向量机(supportvectormachine)和集成学习(ensemblelearning)进行分类,并采取了一系列优化方法来提高算法的性能。

上述提到的应用深度学习算法的思想将目标作为前景从背景中提取出来的方法。

更多优秀的跟踪算法参见[1,2,4,5,9,23]。我们将上述提到的算法总结在表2中,包括了被应用在这些算法中的运动模型、特征模型、和观测模型。表2体现了我们对整个跟踪系统架构中的不同模型的解耦合。通过表2我们可以清晰地了解每个算法在不同模型中应用了哪些方法,这有助于我们从不同的角度对算法进行分类,提炼同类算法中的共同点,以及对不同类算法进行有效地区分和对比。

表2.跟踪算法总结

下图展示了[17]对于跟踪算法的总结:

图13.跟踪算法总结[24]

在跟踪问题中,也有类似的定义。跟踪系统和算法广泛应用矩形框(boundingbox)的原因之一就是易评估,其评估的核心就是交并比,即IOU(intersectionoverunion)。IOU有如下定义:

较大的IOU值从一定程度上反应了两个进行比较的矩形框贴合程度较高。如果我们用预测目标的矩形框和groundtruth的矩形框计算IOU,我们就可以知道跟踪算法的效果:IOU越大,表示跟踪的效果越好。

VOT(visualobjecttracking)竞赛中从2013年开始举办,目前已经发展成评估跟踪算法的主流标准,VOT中比较重要的两个指标是accuracy和robustness。实际上,竞赛中采用的第一指标是EAO,即expectedaccuracyoverlap,是对accuracy的一种加权求和,其本质仍然是accuracy。Accuracy有如下定义:

即计算每一帧预测目标的矩形框与groundtruth的矩形框之间的IOU,然后对所有帧求和再做平均。其中N是总帧数,可以是一段视频的总帧数,也可以是多段视频,或者多段视频重复测试多次。Robustness有如下定义:

即跟踪失败的帧数与总帧数的比值,其中跟踪失败定义为当前帧预测目标的矩形框与groundtruth的矩形框的IOU为0。

上述两个指标从两个方面体现了跟踪算法的性能:accuracy体现了当跟踪成功时,算法的精确度有多高,即找准目标的位置的概率,侧重算法的精确性;robustness则体现了算法找到目标位置的概率,侧重算法的鲁棒性。有了这两个指标,不同的算法就可以在同一套衡量标准下进行比较。

除了评估指标以外,另一个对于跟踪算法评估非常重要的部分就是数据集。VOT竞赛不仅提供了评估指标,其本身的数据集也是评估跟踪算法的一个权威的数据集。除此之外,常用的评估数据集还包括OTB[2]、UAV123[18]、以及GOT-10K[19]等。不同的数据集对于评估指标有着不同的定义,但是其思想都和评估指标一节中提到的accuracy和robustness有着一定的共同点:即全面考虑算法的精确性和鲁棒性。

除了不同的评估指标,不同的数据集之间通常也有共同点,同时也是衡量一个数据集是否适合作为评估数据集的标准:视频数量充足、目标类别丰富、以及标注信息准确。如果没有充足的视频和足够丰富的目标类别,算法的性能很容易发生过拟合,即在少量的视频和/或类别中表现很好,但是在其他视频和/或类别中表现欠佳,因此无法准确地衡量出算法的真实性能。标注信息的准确性则不言而喻,它直接影响到评估的正确性。对于其他类型的数据集,例如作为训练算法使用的数据集,包括ImageNet[20]、COCO[21]等,如果能够满足上述条件,也可以拓展成为评估数据集。

我们以最新的2019年VOT竞赛(VOTchallenge2019)作为跟踪算法评估的示例。表3展示了竞赛的节选结果[9]。通用的竞赛流程是:竞赛组委会开放报名通道,参赛者可以通过该通道提交算法代码,然后组委会统一收集代码,再评估数据集上进行测试,最后将竞赛结果以报告或白皮书的形式公布。

表3.VOTchallenge2019结果节选

表3中的体现了参赛算法在该年的评估数据集上取得的结果,包括了EAO、accuracy、和robustness等指标。通常,竞赛结果是依据EAO进行排名的,不过结果中也会标注各单项指标的前三名,如表3中用圆圈标记的数字。

目前,基于深度学习的算法逐渐成为视觉目标跟踪研究的主流。除了文中介绍的算法之外,无监督学习、元学习(metalearning)、和其他人工智能领域的前沿算法也被引入视觉目标跟踪的学术研究。此外,基于深度学习的视觉目标跟踪算法也逐渐被应用在工业界,通过包括模型压缩在内的优化方法有效地降低其算法复杂度,从而达到并超越目前适合于实际计算机视觉应用的跟踪算法的性能。

[1]Fiaz,Mustansar,etal."Handcraftedanddeeptrackers:Recentvisualobjecttrackingapproachesandtrends."ACMComputingSurveys(CSUR)52.2(2019):1-44.

[2]Wu,Yi,JongwooLim,andMing-HsuanYang."Objecttrackingbenchmark."IEEETransactionsonPatternAnalysisandMachineIntelligence37.9(2015):1834-1848.

[4]Wang,Naiyan,etal."Understandinganddiagnosingvisualtrackingsystems."ProceedingsoftheIEEEinternationalconferenceoncomputervision.2015.

[5]Yilmaz,Alper,OmarJaved,andMubarakShah."Objecttracking:Asurvey."ACMcomputingsurveys(CSUR)38.4(2006):13-es.

[6]Henriques,JooF.,etal."High-speedtrackingwithkernelizedcorrelationfilters."IEEEtransactionsonpatternanalysisandmachineintelligence37.3(2014):583-596.

[7]Gonzalez,RafaelC.,RichardE.Woods,andStevenL.Eddins.DigitalimageprocessingusingMATLAB.PearsonEducationIndia,2004.

[8]Goodfellow,Ian,YoshuaBengio,andAaronCourville.Deeplearning.MITPress,2016.

[9]Li,Xi,etal."Asurveyofappearancemodelsinvisualobjecttracking."ACMtransactionsonIntelligentSystemsandTechnology(TIST)4.4(2013):1-48.

[10]Ross,DavidA.,etal."Incrementallearningforrobustvisualtracking."Internationaljournalofcomputervision77.1-3(2008):125-141.

[11]Jia,Xu,HuchuanLu,andMing-HsuanYang."Visualtrackingviaadaptivestructurallocalsparseappearancemodel."2012IEEEConferenceoncomputervisionandpatternrecognition.IEEE,2012.

[12]Pérez,Patrick,etal."Color-basedprobabilistictracking."EuropeanConferenceonComputerVision.Springer,Berlin,Heidelberg,2002.

[13]Adam,Amit,EhudRivlin,andIlanShimshoni."Robustfragments-basedtrackingusingtheintegralhistogram."2006IEEEComputersocietyconferenceoncomputervisionandpatternrecognition(CVPR'06).Vol.1.IEEE,2006.

[14]Comaniciu,Dorin,VisvanathanRamesh,andPeterMeer."Kernel-basedobjecttracking."IEEETransactionsonpatternanalysisandmachineintelligence25.5(2003):564-577.

[15]Hare,Sam,etal."Struck:Structuredoutputtrackingwithkernels."IEEEtransactionsonpatternanalysisandmachineintelligence38.10(2015):2096-2109.

[16]Kalal,Zdenek,KrystianMikolajczyk,andJiriMatas."Tracking-learning-detection."IEEEtransactionsonpatternanalysisandmachineintelligence34.7(2011):1409-1422.

[18]Mueller,Matthias,NeilSmith,andBernardGhanem."Abenchmarkandsimulatorforuavtracking."Europeanconferenceoncomputervision.Springer,Cham,2016.

[19]Huang,Lianghua,XinZhao,andKaiqiHuang."Got-10k:Alargehigh-diversitybenchmarkforgenericobjecttrackinginthewild."IEEETransactionsonPatternAnalysisandMachineIntelligence(2019).

[20]Russakovsky,Olga,etal."Imagenetlargescalevisualrecognitionchallenge."Internationaljournalofcomputervision115.3(2015):211-252.

[21]Lin,Tsung-Yi,etal."Microsoftcoco:Commonobjectsincontext."Europeanconferenceoncomputervision.Springer,Cham,2014.

THE END
1.十种常见典型算法算法有哪些那么又是哪10个计算机算法造就了我们今天的生活呢?请看下面的表单,排名不分先后: 1.归并排序(MERGE SORT),快速排序(QUICK SORT)和堆积排序(HEAP SORT) 哪个排序算法效率最高?这要看情况。这也就是我把这3种算法放在一起讲的原因,可能你更常用其中一种,不过它们各有千秋。 https://blog.csdn.net/darkhorsefly/article/details/134222961
2.10大计算机经典算法「建议收藏」腾讯云开发者社区BFPRT算法解决的问题十分经典,即从某n个元素的序列中选出第k大(第k小)的元素,通过巧妙的分析,BFPRT可以保证在最坏情况下仍为线性时间复杂度。该算法的思想与快速排序思想相似,当然,为使得算法在最坏情况下,依然能达到o(n)的时间复杂度,五位算法作者做了精妙的处理。 https://cloud.tencent.com/developer/article/2089934
3.数据挖掘的10大算法我用大白话讲清楚了,新手一看就懂数据挖掘主要分为分类算法,聚类算法和关联规则三大类,这三类基本上涵盖了目前商业市场对算法的所有需求。而这三类里又包含许多经典算法。市面上很多关于数据挖掘算法的介绍深奥难懂,今天就给大家用简单的大白话来介绍数据挖掘十大经典算法原理,帮助大家快速理解。算法分类 连接分析:PageRank 关联分析:Apriori 分类算法http://baijiahao.baidu.com/s?id=1669165676284257223&wfr=spider&for=pc
4.普通物理学(一)课程教学大纲简谐振动的描述、动力学方程、能量,同方向简谐振动的合成,相互垂直的两个简谐振动的合成,阻尼振动、受迫振动。 2.教学要点 使学生掌握简谐振动的余弦表达式,旋转矢量、相位等概念。掌握无阻尼自由振动的周期、频率、能量等概念,掌握同方向同频率简谐振动的合成,理解李萨如图形,了解阻尼振动、受迫振动。 https://physics.suda.edu.cn/6f/8f/c1873a28559/page.htm
5.数学的论文优秀(15篇)3)注重经典算法的数学软件的实现和改进 由于实际问题的特殊性导致数学模型没有固定的模式,这就要求既要熟练掌握一般数学软件和算法的实现,又要善于改进和总结,使得现有的算法和程序能够通过修正来解决实际问题,这对于学生能力的培养不可或缺。只有不断的学习和总结,才有数学素养的培养和创新能力的提高。 https://www.yjbys.com/biyelunwen/fanwen/shuxue/734624.html
6.《三位数乘两位数》教案(精选15篇)教材第5、6页,想想做做第5~10题 教学目标: 同过练习,使学生进一步掌握、规范末尾有0和中间有0的三位数乘两位数的简便笔算方法。 探索乘数、积的变化规律,进一步明白末尾有0乘法的口算依据。 教学重点: 末尾有0的三位数乘两位数的笔算 教学过程: 一、举例昨天学生作业中的几种典型错误:(竖式略) https://www.ruiwen.com/jiaoan/7431605.html
7.计算机网络与通信之局域网51CTO博客以太网交换机是一种即插即用设备,其内部的帧交换表是通过自学习算法自动地逐渐建立起来的; 支持不同的传输速率和工作模式; 低交换延迟–基于硬件交换技术; 支持虚拟局域网服务。 独占传输媒体的带宽而无碰撞地传输数据 对于普通 10 Mb/s 的共享式以太网,若共有 N 个用户,则每个用户占有的平均带宽只有总带宽(10https://blog.51cto.com/u_16011718/6127981
8.小学一年级数学人教版下册教案生1:我能用小棒摆出自己的算法:先摆出1捆零2根小棒,再从1捆中拿掉8根,把剩下的2根与原来的2根合起来是4根,所以12-8=4。 生2:我能把自己的算法画出来:先在左边画10个圆圈,右边画2个圆圈,表示12,然后从左边的10个圆圈中划掉8个,剩下的2个与右边的2个合起来是4个,即12-8=4。 https://www.unjs.com/jiaoan/shuxue/20220802201517_5383426.html
9.文案必读:创意100招上卷举例:我有一个朋友 / 同学 / 同事 比喻:你比如说 / 这就好像 段子搞:不一定非要段子,你怎样给孩子讲故事、和闺蜜怎样打闹、和兄弟怎样喝酒吹牛,就怎样写。因为文字会自然沾染你的情绪的,你情绪冷,文字就冷,你情绪热,文字就热。 11. 咒语 https://www.digitaling.com/articles/33865.html
10.生命宇宙以及任何事情的终极答案《终极算法》的作者佩德罗?多明戈斯教授有一个假设: 所有知识,无论是过去的、现在的还是未来的,都有可能通过单个通用学习算法来从数据中获得。 多明戈斯将该学习算法称为“终极算法”。 他认为,如果这种算法成为可能,它的发明将成为人类最伟大的科学成就之一。实际上,终极算法是我们最不愿意发明的东西,因为一旦对其https://36kr.com/p/1722788823041.html
11.10个经典的C语言面试基础算法及代码算法是一个程序和软件的灵魂,作为一名优秀的程序员,只有对一些基础的算法有着全面的掌握,才会在设计程序和编写代码的过程中显得得心应手。本文是近百个C语言算法系列的第二篇,包括了经典的Fibonacci数列、简易计算器、回文检查、质数检查等算法。也许他们能在你的毕业设计或者面试中派上用场。 1、计算Fibonacci数列 https://www.imooc.com/article/2775
12.统计学权威盘点过去50年最重要的统计学思想,因果推理bootstrap等他们认为,过去半个世纪中最重要的统计思想是:反事实因果推理,基于bootstrapping(自助抽样法)和基于模拟的推理,超参数化模型和正则化,多层模型,泛型计算算法(generic computation algorithms),自适应决策分析,鲁棒推理和探索性数据分析(未按时间顺序,排序不分先后)。 https://www.thepaper.cn/newsDetail_forward_12835098
13.2020年深度学习算法工程师面经(微软阿里商汤滴滴华为简单分为深度学习、机器学习基础、图像处理基础、数学基础、算法基础、程序设计语言、模型部署、HR面试以及与我本人简历相关的目标检测、属性识别、Kaggle及天池的比赛、创新想法等几个部分介绍。可能开始会有重叠或者分类不恰当,后面会逐渐更新完善。其中第一篇先介绍到HR面试,第二篇介绍个人相关的项目和比赛部分。https://maimai.cn/article/detail?fid=1514590373&efid=Oph3033j5Qs70xHZdz0sGA