摘要:目标视觉检测是计算机视觉领域的一个重要问题,在视频监控、自主驾驶、人机交互等方面具有重要的研究意义和应用价值.近年来,深度学习在图像分类研究中取得了突破性进展,也带动着目标视觉检测取得突飞猛进的发展.本文综述了深度学习在目标视觉检测中的应用进展与展望.首先对目标视觉检测的基本流程进行总结,并介绍了目标视觉检测研究常用的公共数据集;然后重点介绍了目前发展迅猛的深度学习方法在目标视觉检测中的最新应用进展;最后讨论了深度学习方法应用于目标视觉检测时存在的困难和挑战,并对今后的发展趋势进行展望.
目标视觉检测具有巨大的实用价值和应用前景.应用领域包括智能视频监控、机器人导航、数码相机中自动定位和聚焦人脸的技术、飞机航拍或卫星图像中道路的检测、车载摄像机图像中的障碍物检测等.同时,目标视觉检测也是众多高层视觉处理和分析任务的重要前提,例如行为分析、事件检测、场景语义理解等都要求利用图像处理和模式识别技术,检测出图像中存在的目标,确定这些目标对象的语义类型,并且标出目标对象在图像中的具体区域[4].
在自然环境条件下,目标视觉检测经常遇到以下几个方面的挑战:
1)类内和类间差异
对于很多物体,它们自身就存在很大的差异性,同类物体的不同实例在颜色、材料、形状等方面可能存在巨大的差异,很难训练一个能够包含所有类内变化的特征描述模型.另外,不同类型物体之间又可能具有很大的相似性,甚至非专业人员从外观上很难区分它们.类内差异可能很大,而类间差异可能很小,给目标视觉检测提出了挑战.
2)图像采集条件
在图像采集过程中,由于环境、光照、天气、拍摄视角和距离的不同、物体自身的非刚体形变以及可能被其他物体部分遮挡,导致物体在图像中的表观特征具有很大的多样性,对视觉算法的鲁棒性提出了很高要求.
3)语义理解的差异
4)计算复杂性和自适应性
目标视觉检测的计算复杂性主要来自于待检测目标类型的数量、特征描述子的维度和大规模标记数据集的获取.由于在真实世界中存在大量的目标类型,每种类型都包含大量的图像,同时识别每种类型需要很多视觉特征,这导致高维空间稀疏的特征描述[4].另外,目标模型经常从大规模标记数据集中学习得到,在许多情况下,数据采集和标注很困难,需要耗费大量的人力物力.这些情况导致目标检测的计算复杂性很高,需要设计高效的目标检测算法.同时,在动态变化的环境中,为了提高目标检测精度,还需要探索合适的机制来自动更新视觉模型,提高模型对复杂环境的自适应能力.
为了克服上述挑战,已经提出了许多目标视觉检测算法,它们在目标区域建议、图像特征表示、候选区域分类等步骤采用了不同的处理策略.近年来,随着深度学习技术的发展,很多基于深度学习的目标视觉检测方法陆续被提出,在精度上显著优于传统方法,成为最新的研究热点.本文首先介绍目标视觉检测的基本流程,然后重点介绍深度学习在目标视觉检测中的应用进展.
本文内容安排如下:第1节介绍目标视觉检测的基本流程;第2节对目标视觉检测研究常用的公共数据集进行概述;第3节介绍深度学习技术在目标视觉检测中的最新应用进展;第4节讨论深度学习技术应用于目标视觉检测时存在的困难和挑战,并对今后的发展趋势进行展望;第5节对本文进行总结.
1目标视觉检测的基本流程
目标视觉检测的根本问题是估计特定类型目标出现在图像中的哪些位置.如图1所示,目标视觉检测技术在流程上大致分为三个步骤:区域建议(Regionproposal)、特征表示(Featurerepresentation)和区域分类(Regionclassification).首先对图像中可能的目标位置提出建议,也就是提出一些可能含有目标的候选区域.然后采用合适的特征模型得到特征表示.最后借助分类器判断各个区域中是否含有特定类型的目标,并且通过一些后处理操作,例如非极大值抑制、边框位置回归等,得到最终的目标边框.该基本流程被许多工作所采用,例如文献[5]提出的HOG-SVM检测方法、文献[6]提出的Selectivesearch区域建议方法、目前在PASCALVOC、MSCOCO、ImageNet等数据集上取得领先精度的FasterR-CNN[7]检测方法以及FasterR-CNN采用的特征表示和区域分类方法ResNet[8]等.
图1目标视觉检测的基本流程
Figure1Basicprocedureforobjectdetection
本节接下来从区域建议、特征表示和区域分类三个方面来总结目标视觉检测的关键技术.
1.1区域建议
目标检测要求获得目标的位置和尺度信息,这需要借助区域建议来实现.区域建议是指在输入图像中搜寻特定类型目标的可能区域的一种策略.传统的区域建议策略包括三种[4]:基于滑动窗的区域建议、基于投票机制的区域建议和基于图像分割的区域建议.
1.1.1基于滑动窗的区域建议
基于滑动窗的方法是在输入图像所有可能的子窗口中执行目标检测算法来定位潜在的目标.在文献[5]中,检测窗口是一个给定大小的矩形框,在整幅图像的所有位置和尺度上进行扫描,并对区域分类结果做非极大值抑制.基于滑动窗的区域建议方法采用穷举搜索,原理简单,易于实现,但是计算复杂性高,太过耗时.于是一些研究者提出加快窗口搜索的方法.Lampert等[9]提出了一种高效的子窗口搜索策略(简称为ESS),采用分支限界法来减少搜索范围.但是它的性能在很大程度上取决于输入图像中的物体,当没有物体出现时,该算法退化到穷举搜索.An等[10]提出一种改进的ESS算法.Wei等[11]提出一种在直方图维度上具有常数复杂度的滑动窗口策略.VandeSande等[12]引入图像分割信息,将其作为目标假设区域,从而只对这些假设区域进行目标检测.
1.1.2基于投票机制的区域建议
基于投票机制的方法主要用于基于部件的模型,通常投票机制的实现可归纳为两步[13-14]:1)找到输入图像与模型中各个局部区域最匹配的区域,并最大化所有局部区域的匹配得分;2)利用拓扑评价方法取得最佳的结构匹配.由于投票机制是一种贪心算法,可能得不到最优的拓扑假设,并且部件匹配通常采用穷举搜索来实现,计算代价很高.
1.1.3基于图像分割的区域建议
基于图像分割的区域建议建立在图像分割的基础上,分割的图像区域就是目标的位置候选.语义分割是一种最直接的图像分割方法,需要对每个像素所属的目标类型进行标注[15].目前主要采用的方法是概率图模型,例如采用CRF[16]或MRF[17]方法来鼓励相邻像素之间的标记一致性.图像分割是一个耗时而又复杂的过程,而且很难将单个目标完整地分割出来.
1.2特征表示
特征表示是实现目标视觉检测必备的步骤,选择合适的特征模型将图像区域映射为特征向量,然后利用从训练样本学习到的分类器对该特征向量进行分类,判断其所属类型.特征的表达能力直接影响分类器精度,决定了算法的最终性能.特征模型主要分为手工设计的特征和自动学习的特征.
1.2.1手工设计的特征
在深度学习热潮之前,主要采用手工设计的特征.手工特征数目繁多,可以分为三大类:基于兴趣点检测的方法、基于密集提取的方法和基于多种特征组合的方法.
1)基于兴趣点检测的方法
兴趣点检测方法通过某种准则,选择具有明确定义并且局部纹理特征比较明显的像素、边缘和角点等[3].其中Sobel、Prewitt、Roberts、Canny和LoG(LaplacianofGaussian)等是典型的边缘检测算子[26-29].而Harris、FAST(Featuresfromacceleratedsegmenttest)、CSS(Curvaturescalespace)和DOG(DifferenceofGaussian)等是典型的角点检测算子[30-32].兴趣点检测方法通常具有一定的几何不变性,能够以较小的计算代价得到有意义的表达.
2)基于密集提取的方法
密集提取方法主要提取局部特征.区别于颜色直方图等全局特征,局部特征有利于处理目标部分遮挡问题.常用的局部特征有SIFT(Scale-invariantfeaturetransform)[33]、HOG(Histogramoforientedgradient)[5]、Haar-like[34]和LBP(Localbinarypattern)[35-36]等.局部特征包含的信息丰富、独特性好,并且具有较强的不变性和可区分性,能够最大程度地对图像进行底层描述.但是其计算一般比较复杂,近些年图像的局部特征正在向快速和低存储方向发展.
3)基于多种特征组合的方法
手工特征具有良好的可扩展性,将兴趣点检测与密集提取相结合的多种特征组合方法,能够弥补利用单一特征进行目标表示的不足.DPM(Deformablepart-basedmodel)[2]提出了一种有效的多种特征组合模型,被广泛应用于目标检测任务并取得了良好效果,例如行人检测[37-38]、人脸检测[39-40]和人体姿态估计[41]等.另外,文献[42]提出了一种改进的DPM方法,大大提升了检测速度.
1.2.2自动学习的特征
近年来,深度学习在图像分类和目标检测等领域取得了突破性进展,成为目前最有效的自动特征学习方法.深度学习模型具有强大的表征和建模能力,通过监督或非监督的方式,逐层自动地学习目标的特征表示,将原始数据经过一系列非线性变换,生成高层次的抽象表示,避免了手工设计特征的繁琐低效.深度学习在目标视觉检测中的研究现状是本文的核心内容,将在第3节进行详细介绍.
1.3区域分类
区域分类是指把候选区域的特征向量作为分类器输入,预测候选区域所属的目标类型.分类器在目标检测中的作用可以概括为:先利用训练数据集进行模型学习,然后利用学习到的模型对新的候选区域进行类型预测.分类器一般是利用监督学习方法训练得到的,常用的有支持向量机(Supportvectormachine,SVM)、Adaboost、随机森林、神经网络等.目前,图像识别任务中广泛采用一对多(One-vs-others)的分类器训练方式[43],就是把其中一类模式作为正样本,其余模式作为负样本,针对每一类模式分别训练一个分类器;在测试阶段,将图像特征分别输入到所有的分类器,选择分类器响应最大的一类模式作为类型预测.Girshick等[44]就是采用这种方式,提取候选区域的特征表示,利用一对多SVM分类器实现对PASCALVOC图像集20种目标的检测.
2目标视觉检测的公共数据集
为了促进目标视觉检测的研究进展,建设大规模的公共数据集成为必然要求.目前,目标视觉检测研究常用的公共数据集有ImageNet、PASCALVOC、SUN和MSCOCO等.下面将从这些数据集包含的图像数目、类型数目、每类样本数等方面对它们进行介绍.直观对比如图2所示.
图2几种公共数据集的对比图
Figure2Comparisonofseveralcommondatasets
1)ImageNet数据集[45]
该数据集是目前世界上最大的图像分类数据集,包含1400万幅图像、2.2万个类型,平均每个类型包含1000幅图像.此外,ImgeNet还建立了一个包含1000类物体,有120万图像的数据集,并将该数据集作为图像识别竞赛的数据平台.
2)PASCALVOC数据集[46]
2005~2012年,该数据集每年都发布关于图像分类、目标检测和图像分割等任务的数据集,并在相应数据集上举行算法竞赛,极大地推动了计算机视觉领域的研究进展.该数据集最初只提供了4个类型的图像,到2007年稳定在20个类;测试图像的数量从最初的1578幅,到2011年稳定在11530幅.虽然该数据集类型数目比较少,但是由于图像中物体变化极大,每幅图像可能包含多个不同类型目标对象,并且目标尺度变化很大,因而检测难度非常大.
3)SUN数据集[47]
该数据集是一个覆盖较大场景、位置、物体变化的数据集,其中的场景名主要是从WorldNet中描述场景、位置、环境等任何具体的名词得来.SUN数据集包含两个评测集:一个是场景识别数据集,称为SUN397,共包含397类场景,每类至少包含100幅图像,总共有108754幅图像;另一个评测集为物体检测数据集,称为SUN2012,包含16873幅图像.
4)MSCOCO数据集[48]
该数据集包含约30多万幅图像、200多万个标注物体、91个物体类型.虽然比ImageNet和SUN包含的类型少,但是每一类物体的图像多,另外图像中包含精确的分割信息,是目前每幅图像平均包含目标数最多的数据集.MSCOCO不但能够用于目标视觉检测研究,还能够用来研究图像中目标之间的上下文关系.
3深度学习在目标视觉检测中的应用进展
3.1深度学习简介
目前应用于图像识别和分析研究的深度学习模型主要包括堆叠自动编码器(Stackedauto-encoders,SAE)[53]、深度信念网络(Deepbeliefnetwork,DBN)[51-52]和卷积神经网络(Convolutionalneuralnetworks,CNN)[59]等.
SAE模型的实质是多个自动编码器(Auto-encoder,AE)的堆叠.一个自动编码器是由编码器和解码器两部分组成,能够尽可能复现输入信号.作为一种无监督学习的非线性特征提取方法,其输出与输入具有相同的维度,隐藏层则被用来进行原始数据的特征表示或编码.SAE模型将前一层自动编码器的输出作为后一层自动编码器的输入,逐层地对自动编码器进行预训练,然后利用BP算法对整个网络进行微调.目前基于SAE的扩展模型有很多,例如,堆叠去噪自动编码器(Stackeddenoisingautoencoders,SDA)[60],以及堆叠卷积自动编码器(Stackedconvolutionalauto-encoders,SCAE)[61].
DBN类似于SAE,它的基本单元是受限玻尔兹曼机(RestrictedBoltzmannmachines,RBM),整个网络的训练分为两个阶段:预训练和全局微调.首先以原始输入为可视层,训练一个单层的RBM,该RBM训练完成后,其隐层输出作为下一层RBM的输入,继续训练下一层RBM.以此类推,逐层训练,直至将所有RBM训练完成,通过这种贪婪式的无监督训练,使整个DBN模型得到一个比较好的初始值,然后加入数据标签对整个网络进行有监督的微调,进一步改善网络性能.
CNN是图像和视觉识别中的研究热点,近年来取得了丰硕成果.图3给出了由LeCun等[59]提出的用于数字手写体识别的CNN网络结构,CNN通常包含卷积层、池化层和全连接层.卷积层通过使用多个滤波器与整个图像进行卷积,可以得到图像的多个特征图表示;池化层实际上是一个下采样层,通过求局部区域的最大值或平均值来达到降采样的目的,进一步减少特征空间;全连接层用于进行高层推理,实现最终分类.CNN的权值共享和局部连接大大减少了参数的规模,降低了模型的训练复杂度,同时卷积操作保留了图像的空间信息,具有平移不变性和一定的旋转、尺度不变性.2012年,Krizhevsky等[57]将CNN模型用于ImageNet大规模视觉识别挑战赛(ImageNetlargescalevisualrecognitionchallenge,ILSVRC)的图像分类问题,使错误率大幅降低,在国际上引起了对CNN模型的高度重视,也因此推动了目标视觉检测的研究进展.
图3卷积神经网络的基本结构[59]
Figure3Basicstructureofconvolutionalneuralnetwork[59]
3.2AlexNet及其改进模型
随着深度学习的发展,人们将深度学习应用于图像分类和目标检测任务中,在许多公开竞赛中取得了明显优于传统方法的结果.Krizhevsky等[57]提出了一种新型卷积神经网络模型AlexNet,随后其他研究者相继提出ZFNet[62]、VGG[63]、GoogLeNet[64]和ResNet[8]等改进模型,进一步提高了模型精度.表1显示了几种经典CNN模型在图像分类任务中的性能对比.ILSVRC的图像分类错误率每年都在被刷新,如图4所示.随着模型变得越来越深,图像分类的Top-5错误率也越来越低,目前已经降低到3.08%附近[65].而在同样的ImageNet数据集上,人眼的辨识错误率大约在5.1%.尽管这些模型都是针对图像分类来做的,但是都在解决一个最根本的问题,即更强大的特征表示.采用这些CNN模型得到更强大的特征表示,然后应用到目标检测任务,可以获得更高的检测精度.
表1经典CNN模型在ILSVRC图像分类任务上的性能对比
Table1PerformancecomparisonofclassicalCNNmodelinimageclassificationtaskofILSVRC
图4ILSVRC图像分类任务历年冠军方法的Top-5错误率(下降曲线)和网络层数(上升曲线)
Figure4Top-5errorrate(descentcurve)andnetworklayers(risecurve)ofthechampionmethodseachyearinimageclassificationtaskofILSVRC
Simonyan等[63]随后提出VGG网络,探索在网络参数总数基本不变的情况下,CNN随着层数的增加,导致其性能的变化.不同于AlexNet,VGG采用的滤波器尺寸是3×3,通过将多个3×3滤波器堆叠的方式来代替一个大尺寸的滤波器,因为多个3×3尺寸的卷积层比一个大尺寸滤波器卷积层具有更高的非线性,使模型更有判别能力,而且多个3×3尺寸的卷积层比一个大尺寸的滤波器有更少的参数.通过加入1×1卷积层,在不影响输入输出维数的情况下,进一步增加网络的非线性表达能力.
2015年,He等[8]提出了深度高达上百层的残差网络ResNet,网络层数(152层)比以往任何成功的神经网络的层数多5倍以上,在ImageNet测试集上的图像分类错误率低至3.57%.ResNet使用一种全新的残差学习策略来指导网络结构的设计,重新定义了网络中信息流动的方式,重构了网络学习的过程,很好地解决了深度神经网络层数与错误率之间的矛盾(即网络达到一定层数后,更深的网络导致更高的训练和测试错误率).ResNet具有很强的通用性,不但在图像分类任务,而且在ImageNet数据集的目标检测、目标定位任务以及MSCOCO数据集的目标检测和分割任务上都取得了当时最好的竞赛成绩.此后,Szegedy等[65]通过将Inception结构与ResNet结构相结合,提出了Inception-ResNet-v1和Inception-ResNet-v2两种混合网络,极大地加快了训练速度,并且性能也有所提升.除了这种混合结构,他们还设计了一个更深更优化的Inception-v4网络,单纯依靠Inception结构,达到与Inception-ResNet-v2相近的性能.Szegedy等[65]将3个Inception-ResNet-v2网络和1个Inception-v4网络相集成,在ILSVRC2012图像分类任务上的Top-5错误率降低到3.08%.
3.3深度学习在目标视觉检测中的应用
接下来,我们从基于区域建议的方法和无区域建议的方法两方面来介绍深度学习在目标视觉检测中的研究现状.
3.3.1基于区域建议(Proposal-based)的方法
图5R-CNN的计算流程[44]
Figure5CalculationflowofR-CNN[44]
图6FastR-CNN的计算流程[58]
Figure6CalculationflowofFastR-CNN[58]
图7区域建议网络的基本结构[7]
Figure7Basicstructureofregionproposalnetwork[7]
Bell等[69]提出的ION(Inside-outsidenet)也是基于区域建议的目标检测方法.为了提高检测精度,ION同时利用RoI的内部和外部信息.其中内部信息是指多尺度的信息提取.不同于以前的方法将最后一层卷积层输出作为特征图,Bell等将不同卷积层的特征连接在一起,作为一个多尺度特征用来预测,这样做的目的是对于一些很小的物体,不会丢失在低层的高分辨率信息.RoI的外部信息是指上下文信息,在视觉识别中上下文信息具有很重要的作用.为了得到上下文特征,Bell等采用沿着图像的横轴或纵轴独立地使用RNN的方法,并把它们的输出组合在一起,重复该过程得到的输出作为上下文特征.最后把这两种特征组合在一起,并调整到固定的大小输入到全连接层,进行Softmax分类和边框回归.该方法在检测小物体上的性能比以前的方法更好,在PASCALVOC2012目标检测任务上将平均精度mAP从73.9%提高到76.4%,在MSCOCO2015目标检测任务上取得第3名的成绩.
为了提高FastR-CNN训练时的效率,Shrivastava等[71]提出了困难样本在线挖掘(Onlinehardexamplemining,OHEM)的思想,该方法利用Bootstrapping[72]技术,对随机梯度下降算法进行修改,使得在训练过程中加入在线挖掘困难样本的策略.OHEM机制的加入提高了FastR-CNN方法在PASCALVOC2007和2012上的检测精度.
在FasterR-CNN基础上,Kong等[73]提出了HyperNet,计算流程如图8所示.通过把不同卷积层得到的特征图像聚集起来得到超特征(Hyperfeature)来获得质量更高的候选区域.由于不同卷积层的输出尺寸不同,较浅层的特征图像分辨率较高,边框定位精度高,但是召回率低;较深层的特征图像分辨率低,对小尺寸物体的边框定位精度低,但是这些特征有利于提高召回率.因此,他们通过多层特征的融合,解决了对小物体很难提取到精细特征的问题.该方法在每幅图像中仅提取100个候选区域,在PASCALVOC2007和2012数据集上获得了很好的检测效果.
图8HyperNet的计算流程[73]
Figure8CalculationflowofHyperNet[73]
许多基于区域建议的目标检测方法存在一个共同问题,就是有一部分子网络需要重复计算.例如最早提出的R-CNN,每一个候选区域都要经历一次CNN网络提取特征,这导致目标检测速度非常慢.之后提出的FastR-CNN和FasterR-CNN等方法,在最后一个卷积层通过RoIpooling把每一个候选区域变成一个尺寸一致的特征图,但是对于每一个特征图,还要经过若干次全连接层才能得到结果.于是,Dai等[74]提出了一种新的基于区域的全卷积网络检测方法R-FCN.为了给网络引入平移变化,用专门的卷积层构建位置敏感的分数图(Position-sensitivescoremaps),编码感兴趣区域的相对空间位置信息.该网络解决了FasterR-CNN由于重复计算全连接层而导致的耗时问题,实现了让整个网络中所有的计算都可以共享.
最近,Kim等[75]提出PVANET网络,在TITANX上实现了基于轻量级模型的目标检测,处理一幅图像仅需要46ms,在PASCALVOC2012数据集上的检测平均精度达到82.5%.为了减少网络参数,PVANET采用了ConcatenatedReLU[76]结构,在不损失精度的情况下使通道数减少一半,并在拼接操作之后加入了尺度变化和偏移.网络中还加入了Inception[64]模型来更有效地捕捉各种尺度的物体,以及HyperNet[73]中多尺度特征融合的思想,来增加对细节的提取.
3.3.2无区域建议(Proposal-free)的方法
基于区域建议的目标检测方法不能利用局部目标在整幅图像中的空间信息,所以一些研究者开展了无区域建议的目标检测研究,主要采用回归的思想.早期提出的无区域建议的方法,检测效果不太理想.
DPM模型[2]是一种性能较好的传统目标检测模型.它对目标内在部件进行结构化建模,可以更好地适应非刚体目标的较大形变,大大提高了检测性能.但是DPM模型的构建需要关于物体结构的先验知识(例如部件个数),并且模型训练也比较复杂.Szegedy等[1]将目标检测看做一个回归问题,估计图像中的目标位置和目标类型概率.作者通过采用基于深度神经网络(Deepneuralnetwork,DNN)的回归来输出目标包围窗口的二元掩膜(Mask),从掩膜中提取目标窗口.该方法的运行框架如图9所示,网络中采用的卷积神经网络是AlexNet结构,但是用回归层代替最后一层.基于DNN的回归不仅能学习到有利于分类的特征表示,还能捕获到很强的目标几何信息,Szegedy等还采用DNN定位器进一步提高了定位准确度.由于用单一的掩膜很难区分出识别的前景是单个物体还是粘连的多个物体,作者采用了多个掩膜,为每种掩膜训练一个单独的DNN,这也使得网络训练复杂度很高,很难扩展到多种目标类型.
图9基于DNN回归的目标检测框架[1]
Figure9ObjectdetectionframeworkbasedonDNNregression[1]
Sermanet等[77]提出Overfeat模型,把一个卷积神经网络同时用于分类、定位和检测这几个不同的任务.卷积层作为特征提取层保持不变,只需要针对不同的任务改变网络的最后几层为分类或回归层.Overfeat的模型结构与AlexNet结构[57]基本相同.其中,前面5个卷积层为不同任务的共享层,其余的层则根据任务进行相应的调整,并对网络做了一些改动.为了避免图像的某些位置被忽略,Sermanet等采用偏置池化层来替换最后一层池化层,既实现了池化操作,也减小了采样间隔.Overfeat训练分类模型时只使用单个尺度(221×221)进行训练,测试时使用多个尺度输入图像,没有使用AlexNet中的对比归一化.对于检测问题,传统的方法是采用不同尺寸的滑动窗对整幅图像进行密集采样,然后对每一个采样所得的图像块进行检测,从而确定目标物体的位置.Overfeat使用CNN来进行滑动窗操作,避免了对各图像块的单独操作,提高了算法效率;而且将全连接层看作卷积层,使得输入图像的尺寸不受限制.但是Overfeat对于较小尺寸目标的识别依然存在困难.
近年来,Redmon等[78]提出了一种新的无区域建议的目标检测方法,称为YOLO(Youonlylookonce).作为一种统一的、实时的检测框架,YOLO的检测速度非常快,可以达到45fps(Framepersecond).YOLO用一个单一的卷积网络直接基于整幅图像来预测包围边框的位置及所属类型,首先将一幅图像分成S×S个网格,每个网格要预测B个边框,每个边框除了要回归自身的位置之外,还要附带预测一个置信度.置信度不仅反映了包含目标的可信程度,也反映了预测位置的准确度.另外对每个网格还要预测C个类型的条件概率,将这些预测结果编码为一个S×S×(B×5+C)维的张量(Tensor).整个网络的结构类似于GoogLeNet,包含24个卷积层和2个全连接层,卷积层用来从图像中提取特征,全连接层预测边框的位置坐标和类型概率.YOLO模型通过采用空间限制,减少了对同一目标的重复检测,大大提高了效率,能够达到实时的效果.但是YOLO的整体性能不如FastR-CNN和FasterR-CNN,并且对于相邻的目标和成群的小尺寸目标(例如成群的鸟)的检测效果不好,对于新的或异常尺度的目标泛化能力较差.
与YOLO类似,Najibi等[79]提出的G-CNN模型也着重于检测速度的提升.该方法将目标检测模型转化为迭代回归问题,通过对整个图像进行不同尺度的网格划分得到初始检测框,然后采用分段回归模型多次迭代,不断提高边框准确度.G-CNN使用了约180个初始边框,经过5次迭代达到与FastR-CNN相当的检测精度,但是计算速度比FastR-CNN快5倍.
针对YOLO存在的不足,Liu等[80]提出SSD模型,在提高mAP的同时兼顾实时性的要求.SSD使用卷积神经网络对图像进行卷积后,在不同层次的特征图上生成一系列不同尺寸和长宽比的边框.在测试阶段,该网络对每一个边框中分别包含各个类型的物体的可能性进行预测,并且调整边框来适应目标物体的形状.在PASCALVOC、MSCOCO和ILSVRC数据集上的实验显示,SSD在保证精度的同时,其速度要比用候选区域的方法快很多.与YOLO相比,即使是在输入图像较小的情况下,SSD也能取得更高的精度.例如输入300×300尺寸的PASCALVOC2007测试图像,在单台NvidiaTitanX上的处理速度达到58fps,平均精度mAP达到72.1%;如果输入图像尺寸为500×500,平均精度mAP达到75.1%.
与基于候选区域的方法相比,YOLO定位准确率低且召回率不高.因此,Redmon等[81]提出了改进的YOLO模型,记作YOLOv2,主要目标是在保持分类准确率的同时提高召回率和定位准确度.通过采用多尺度训练、批规范化和高分辨率分类器等多种策略,提升了检测准确率的同时速度超过其他检测方法,例如FasterR-CNN和SSD.Redmon等还提出了一种新的联合训练算法,同时在检测数据集和分类数据集上训练物体检测器,用检测数据集的数据学习物体的准确位置,用分类数据集的数据增加分类的类别量,提升健壮性,采用这种方法训练出来的YOLO9000模型可以实时地检测超过9000种物体分类.
3.3.3总结
基于区域建议的目标检测方法,特别是R-CNN系列方法(包括R-CNN、SPPnet、FastR-CNN和FasterR-CNN等),取得了非常好的检测精度,但是在速度方面还达不到实时检测的要求.在不损失精度的情况下实现实时检测,或者在提高检测精度的同时兼顾速度,逐渐成为目标检测的研究趋势.R-FCN比FasterR-CNN计算效率更高,在检测精度和速度上平衡的很好.PVANET是一种轻量级的网络结构,通过调整和结合最新的技术达到最小化计算资源的目标.无区域建议的方法(例如YOLO)虽然能够达到实时的效果,但是其检测精度与FasterR-CNN相比有很大的差距.SSD对YOLO进行了改进,同时兼顾检测精度和实时性的要求,在满足实时性的条件下,缩小了与FasterR-CNN检测精度的差距.YOLOv2在检测精度和速度上都超过了SSD.一些目标视觉检测方法在公共数据集上的性能对比如图10所示.
图10一些目标视觉检测方法在公共数据集上的性能比较
Figure10Performancecomparisonofsomeobjectvisualdetectionmethodsonpublicdatasets
4思考与展望
1)深度学习理论还不完善
深度学习的优势之一是能够自动学习表达能力强的抽象特征,不需要由专家手工进行特征设计和选择.但是,将深度学习模型应用于目标检测时还缺乏足够的理论支撑,学习到的模型的可解释性较弱.目前的研究通常是把深度学习模型当作一个黑盒子(Blackbox)来直接使用,对于如何选择和构建模型、如何确定模型的深度以及深度学习的本质等基本问题还没有给出很好的解释.理论的不完善导致研究时缺乏充分的原理性指导,在设计新的模型时往往只能凭借经验和运气.Pepik等[82]利用Pascal3D+[83]数据集对R-CNN方法进行分析,结果表明卷积神经网络对于场景和目标的各种外观因素的变化不具有视觉不变性,目前大多数深度学习方法在处理多目标遮挡和小尺寸目标等困难问题时效果还不是很好,增加额外的训练数据并不能克服这些缺陷,有必要对模型结构做出改变.因此必须进一步完善深度学习理论,为改进模型结构、加速模型训练和提高检测效果等提供指导.
2)大规模多样性数据集还很缺乏
深度学习模型主要是数据驱动的,依赖于大规模多样性的标记数据集.对一个特定的任务,增加训练数据的规模和多样性,可以提高深度学习模型的泛化能力,避免过拟合.但是目前缺乏可用于目标检测的大规模多样性数据集,即便是最大的公共数据集也只提供了很有限的标记类型,比如PASCALVOC有20个类型,MSCOCO有80个类型,ImageNet有1000个类型.由人工采集和标注含有大量目标类型的大规模多样性数据集非常费时耗力,并且由于光照、天气、复杂背景、目标外观、摄像机视角和物体遮挡等导致的复杂性和挑战性,同一类型目标在不同图像中可能看起来非常不同,使得人工标注变得困难甚至容易出错.虽然可以采用众包方法(例如AmazonMTurk[84])进行数据标注,但是同样要耗费大量的人力财力,并且标注困难.另外在一些特殊领域(例如在医疗和军事等领域)很难获得大规模实际图像.标记数据集的不足,可能导致训练出的目标检测模型的可靠性和鲁棒性达不到要求.目前许多目标检测模型都采用先在ImageNet数据集上进行预训练,再针对具体任务进行微调的方式.如果针对具体的目标检测任务,有大规模多样性的标记数据集可供使用,那么目标检测效果可以得到进一步提高.
为了解决上述问题,我们认为可以采用平行视觉[85-86]的思路进行研究.2016年,王坤峰等[85]将复杂系统建模与调控的ACP(Artificialsocieties,computationalexperiments,andparallelexecution)理论[87-89]推广到视觉计算领域,提出平行视觉的基本框架和关键技术.其核心是利用人工场景来模拟和表示复杂挑战的实际场景,通过计算实验进行各种视觉模型的设计与评估,最后借助平行执行来在线优化视觉系统,实现对复杂环境的智能感知与理解.图11显示了平行视觉的基本框架.为了解决复杂环境下的目标视觉检测问题,我们可以按照平行视觉的ACP三步曲开展研究.
图11平行视觉的基本框架[85]
Figure11Basicframeworkofparallelvision[85]
1)人工场景(Artificialscenes)
2)计算实验(Computationalexperiments)
结合人工场景数据集和实际场景数据集,进行全面充分的计算实验,把计算机变成视觉计算实验室,设计和评价视觉算法,提高其在复杂环境下的性能.与基于实际场景的实验相比,在人工场景中实验过程可控、可观、可重复,并且可以真正地产生实验大数据,用于知识提取和算法优化.计算实验包含两种操作模式,即学习与训练、实验与评估.学习与训练是针对视觉算法设计而言,实验与评估是针对视觉算法评价而言.两种操作模式都需要结合人工场景数据集和实际场景数据集,能够增加实验的深度和广度.
3)平行执行(Parallelexecution)
将视觉算法在实际场景与人工场景中平行执行,使模型训练和评估在线化、长期化,通过实际与人工之间的虚实互动,持续优化视觉系统.由于应用环境的复杂性、挑战性和变化性,不存在一劳永逸的解决方案,只能接受这些困难,在系统运行过程中不断调节和改善.平行执行基于物理和网络空间的大数据,以人工场景的在线构建和利用为主要手段,通过在线自举(Onlinebootstrapping)或困难实例挖掘(Hardexamplemining),自动挖掘导致视觉算法失败或性能不佳的实例,利用它们重新调节视觉算法和系统,提高对动态变化环境的自适应能力.
目前,已经有一些工作基于人工场景数据进行目标检测模型的训练.例如,Peng等[90]利用3DCAD模型自动合成2D图像,使用这种虚拟图像数据来扩大深度卷积神经网络的训练集非常有效,尤其是在真实的训练数据很有限或不能很好地匹配目标领域的情况下,避免了代价昂贵的大规模手工标注.Johnson-Roberson等[91]利用游戏引擎生成逼真的虚拟图像,用于目标检测模型的训练.实验表明,在KITTI数据集上,使用大规模的虚拟图像集训练的模型比基于较小规模的真实世界数据集训练的检测器精度更高.但是,已有的工作主要集中在人工场景和计算实验,忽视了平行执行.我们认为,将视觉算法在实际场景与人工场景中平行执行,持续优化视觉系统,提高其在复杂环境下的鲁棒性和适应性是非常重要的.
许多机器学习算法假设训练数据与测试数据具有相同的数据分布以及特征空间[92],然而使用ACP时会遇到虚拟数据与真实数据的分布差异问题.迁移学习[93]能够很好解决分布差异问题.通过迁移学习,我们能够运用ACP中人工模拟出的虚拟数据来不断提高模型的精准度与鲁棒性.
另外,在深度学习模型自身方面,如何提高模型的可解释性,改善模型结构,设计新的优化方法,降低模型训练和应用时的计算复杂性,提高计算效率,得到更加有用(Moreeffective)和更加有效的(Moreefficient)深度学习模型,这些问题都需要深入研究.目前,基于候选区域的目标检测方法精度最高,而基于回归的SSD方法在实时性上表现最好,如何将这两类方法相结合,借鉴和吸收彼此的优点,在检测精度和速度上取得新的突破还有待研究.
5结论
在今后的工作中,还需要进一步完善深度学习理论,提高目标视觉检测的精度和效率.另外,平行视觉作为一种新的智能视觉计算方法学,通过人工场景提供大规模多样性的标记数据集,通过计算实验全面设计和评价目标视觉检测方法,通过平行执行在线优化视觉系统,能够激发深度学习的潜力.我们相信,深度学习与平行视觉相结合,必将大力推动目标视觉检测的研究和应用进展.
参考文献
1SzegedyC,ToshevA,ErhanD.Deepneuralnetworksforobjectdetection.In:Proceedingsofthe2013AdvancesinNeuralInformationProcessingSystems(NIPS).HarrahsandHarveys,LakeTahoe,USA:MITPress,2013,2553-2561.
2FelzenszwalbPF,GirshickRB,McAllesterD,RamananD.Objectdetectionwithdiscriminativelytrainedpart-basedmodels.IEEETransactionsonPatternAnalysisandMachineIntelligence,2010,32(9):1627-1645.
3HuangKai-Qi,RenWei-Qiang,TanTie-Niu.Areviewonimageobjectclassificationanddetection.ChineseJournalofComputers,2014,37(6):1225-1240.
(黄凯奇,任伟强,谭铁牛.图像物体分类与检测算法综述.计算机学报,2014,37(6):1225-1240.)
4ZhangX,YangYH,HanZG,WangH,GaoC.Objectclassdetection:asurvey.ACMComputingSurveys(CSUR),2013,46(1):ArticleNo.10.
5DalalN,TriggsB.Histogramsoforientedgradientsforhumandetection.In:Proceedingsofthe2005IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition(CVPR).SanDiego,CA,USA:IEEE,2005,1:886-893
6UijlingsJRR,vandeSandeKEA,GeversT,SmeuldersAWM.Selectivesearchforobjectrecognition.InternationalJournalofComputerVision,2013,104(2):154-171.
7RenSQ,HeKM,GirshickR,SunJ.FasterR-CNN:towardsreal-timeobjectdetectionwithregionproposalnetworks.IEEETransactionsonPatternAnalysisandMachineIntelligence,2017,39(6):1137-1149.
8HeKM,ZhangXY,RenSQ,SunJ.Deepresiduallearningforimagerecognition.In:Proceedingsofthe2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR).LasVegas,Nevada,USA:IEEE,2016.770-778
9LampertCH,BlaschkoMB,HofmannT.Beyondslidingwindows:objectlocalizationbyefficientsubwindowsearch.In:Proceedingsofthe2008IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Anchorage,Alaska,USA:IEEE,2008.1-8
10AnSJ,PeursumP,LiuWQ,VenkateshS.Efficientalgorithmsforsubwindowsearchinobjectdetectionandlocalization.In:Proceedingsofthe2009IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Miami,Florida,USA:IEEE,2009.264-271
11WeiYC,TaoLT.Efficienthistogram-basedslidingwindow.In:Proceedingsofthe2010IEEEConferenceonComputerVisionandPatternRecognition(CVPR).SanFrancisco,CA,USA:IEEE,2010.3003-3010
12VandeSandeKEA,UijlingsJRR,GeversT,SmeuldersAWM.Segmentationasselectivesearchforobjectrecognition.In:Proceedingsofthe2011IEEEInternationalConferenceonComputerVision(ICCV).Barcelona,Spain:IEEE,2011.1879-1886
13ShottonJ,BlakeA,CipollaR.Multiscalecategoricalobjectrecognitionusingcontourfragments.IEEETransactionsonPatternAnalysisandMachineIntelligence,2008,30(7):1270-1281.
14LeibeB,LeonardisA,SchieleB.Robustobjectdetectionwithinterleavedcategorizationandsegmentation.InternationalJournalofComputerVision,2008,77(1-3):259-289.
15ArbelaezP,MaireM,FowlkesC,MalikJ.Contourdetectionandhierarchicalimagesegmentation.IEEETransactionsonPatternAnalysisandMachineIntelligence,2011,33(5):898-916.
16ShottonJ,WinnJ,RotherC,CriminisiA.TextonBoost:jointappearance,shapeandcontextmodelingformulti-classobjectrecognitionandsegmentation.In:Proceedingsofthe9thEuropeanConferenceonComputerVision(ECCV).Berlin,Heidelberg,Germany:Springer,2006.1-15
17VerbeekJ,TriggsB.RegionclassificationwithMarkovfieldaspectmodels.In:Proceedingsofthe2007IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Minneapolis,Minnesota,USA:IEEE,2007.1-8
18ChengMM,ZhangZM,LinWY,TorrP.BING:binarizednormedgradientsforobjectnessestimationat300fps.In:Proceedingsofthe2014IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Columbus,USA:IEEE,2014.3286-3293
19ZitnickCL,DollárP.Edgeboxes:locatingobjectproposalsfromedges.In:Proceedingsofthe13thEuropeanConferenceonComputerVision(ECCV).Zurich,Switzerland:Springer,2014.391-405
20HosangJ,BenensonR,SchieleB.Howgoodaredetectionproposals,reallyarXiv:1406.6962,2014.
21SzegedyC,ReedS,ErhanD,AnguelovD,IoffeS.Scalable,high-qualityobjectdetection.arXiv:1412.1441,2014.
22ErhanD,SzegedyC,ToshevA,AnguelovD.Scalableobjectdetectionusingdeepneuralnetworks.In:Proceedingsofthe2014IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Columbus,Ohio,USA:IEEE,2014.2155-2162
23KuoWC,HariharanB,MalikJ.Deepbox:learningobjectnesswithconvolutionalnetworks.In:Proceedingsofthe2015IEEEInternationalConferenceonComputerVision(ICCV).Santiago,Chile:IEEE,2015.2479-2487
24GhodratiA,DibaA,PedersoliM,TuytelaarsT,VanGoolL.Deepproposal:huntingobjectsbycascadingdeepconvolutionallayers.In:Proceedingsofthe2015IEEEInternationalConferenceonComputerVision(ICCV).Santiago,Chile:IEEE,2015.2578-2586
25GidarisS,KomodakisN.Locnet:improvinglocalizationaccuracyforobjectdetection.In:Proceedingsofthe2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR).LasVegas,NV,USA:IEEE,2016.789-798
26LawrenceGR.MachinePerceptionofThree-dimensionalSolids[Ph.D.dissertation],MassachusettsInstituteofTechnology,USA,1963.
27CannyJ.Acomputationalapproachtoedgedetection.IEEETransactionsonPatternAnalysisandMachineIntelligence,1986,PAMI-8(6):679-698.
28MarrD,HildrethE.Theoryofedgedetection.ProceedingsoftheRoyalSocietyB:BiologicalSciences,1980,207(1167):187-217.
29PellegrinoFA,VanzellaW,TorreV.Edgedetectionrevisited.IEEETransactionsonSystems,Man,andCybernetics,PartB(Cybernetics),2004,34(3):1500-1518.
30HarrisC,StephensM.Acombinedcornerandedgedetector.In:Proceedingsofthe4thAlveyVisionConference.Manchester,UK:UniversityofSheffieldPrintingUnit,1988.147-151
31RostenE,PorterR,DrummondT.Fasterandbetter:amachinelearningapproachtocornerdetection.IEEETransactionsonPatternAnalysisandMachineIntelligence,2010,32(1):105-119.
32LoweDG.Objectrecognitionfromlocalscale-invariantfeatures.In:Proceedingsofthe7thIEEEInternationalConferenceonComputerVision(ICCV).Kerkyra,Greece:IEEE,1999,2:1150-1157
33LoweDG.Distinctiveimagefeaturesfromscale-invariantkeypoints.InternationalJournalofComputerVision,2004,60(2):91-110.
34PapageorgiouCP,OrenM,PoggioT.Ageneralframeworkforobjectdetection.In:Proceedingsofthe6thInternationalConferenceonComputerVision(ICCV).Bombay,India:IEEE,1998.555-562
35OjalaT,PietikäinenM,HarwoodD.PerformanceevaluationoftexturemeasureswithclassificationbasedonKullbackdiscriminationofdistributions.In:Proceedingsofthe12thIAPRInternationalConferenceonPatternRecognition,ConferenceA:ComputerVisionandImageProcessing.Jerusalem,Israel,Palestine:IEEE,1994,1:582-585
36OjalaT,PietikäinenM,HarwoodD.Acomparativestudyoftexturemeasureswithclassificationbasedonfeatureddistributions.PatternRecognition,1996,29(1):51-59.
37YanJJ,LeiZ,YiD,LiSZ.Multi-pedestriandetectionincrowdedscenes:aglobalview.In:Proceedingsofthe2012IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Providence,RhodeIsland,USA:IEEE,2012.3124-3129
38YanJJ,ZhangXC,LeiZ,LiaoSC,LiSZ.Robustmulti-resolutionpedestriandetectionintrafficscenes.In:Proceedingsofthe2013IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Portland,Oregon,USA:IEEE,2013.3033-3040
39YanJJ,ZhangXC,LeiZ,YiD,LiSZ.Structuralmodelsforfacedetection.In:Proceedingsofthe10thIEEEInternationalConferenceandWorkshopsonAutomaticFaceandGestureRecognition(FG).Shanghai,China:IEEE,2013.1-6
40ZhuXX,RamananD.Facedetection,poseestimation,andlandmarklocalizationinthewild.In:Proceedingsofthe2012IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Providence,RhodeIsland,USA:IEEE,2012.2879-2886
41YangY,RamananD.Articulatedposeestimationwithflexiblemixtures-of-parts.In:Proceedingsofthe2011IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Providence,RI,USA:IEEE,2011.1385-1392
42YanJJ,LeiZ,WenLY,LiSZ.Thefastestdeformablepartmodelforobjectdetection.In:Proceedingsofthe2014IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Columbus,Ohio,USA:IEEE,2014.2497-2504
43LazebnikS,SchmidC,PonceJ.Beyondbagsoffeatures:spatialpyramidmatchingforrecognizingnaturalscenecategories.In:Proceedingsofthe2006IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition(CVPR).NewYork,NY,USA:IEEE,2006.2169-2178
44GirshickR,DonahueJ,DarrellT,MalikJ.Richfeaturehierarchiesforaccurateobjectdetectionandsemanticsegmentation.In:Proceedingsofthe2014IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Columbus,Ohio,USA:IEEE,2014.580-587
45RussakovskyO,DengJ,SuH,KrauseJ,SatheeshS,MaS,HuangZH,KarpathyA,KhoslaA,BernsteinM,BergAC,Fei-FeiL.ImageNetlargescalevisualrecognitionchallenge.InternationalJournalofComputerVision,2015,115(3):211-252.
46EveringhamM,VanGoolL,WilliamsCKI,WinnJ,ZissermanA.ThePASCALvisualobjectclasses(VOC)challenge.InternationalJournalofComputerVision,2010,88(2):303-338.
47XiaoJX,HaysJ,EhingerKA,OlivaA,TorralbaA.Sundatabase:large-scalescenerecognitionfromabbeytozoo.In:Proceedingsofthe2010IEEEConferenceonComputerVisionandPatternRecognition(CVPR).SanFrancisco,CA,USA:IEEE,2010.3485-3492
48LinTY,MaireM,BelongieS,HaysJ,PeronaP,RamananD,DollárP,ZitnickCL.MicrosoftCOCO:commonobjectsincontext.In:Proceedingsofthe13thEuropeanConferenceonComputerVision(ECCV).Zurich,Switzerland:Springer,2014.740-755
49RumelhartDE,HintonGE,WilliamsRJ.Learningrepresentationsbyback-propagatingerrors.Nature,1986,323(6088):533-536.
50LeCunY,BengioY,HintonG.Deeplearning.Nature,2015,521(7553):436-444.
51HintonGE,SalakhutdinovRR.Reducingthedimensionalityofdatawithneuralnetworks.Science,2006,313(5786):504-507.
52HintonGE,OsinderoS,TehYW.Afastlearningalgorithmfordeepbeliefnets.NeuralComputation,2006,18(7):1527-1554.
53BengioY,LamblinP,PopoviciD,LarochelleH.Greedylayer-wisetrainingofdeepnetworks.In:Proceedingsofthe19thInternationalConferenceonNeuralInformationProcessingSystems.Cambridge,MA,USA:MITPress,2006.153-160
54LeCunY,ChopraS,HadsellR,RanzatoM,HuangF.Atutorialonenergy-basedlearning.PredictingStructuredData.Cambridge,MA,USA:MITPress,2006.
55LeeH,EkanadhamC,NgAY.SparsedeepbeliefnetmodelforvisualareaV2.In:Proceedingsofthe2007AdvancesinNeuralInformationProcessingSystems(NIPS).Vancouver,BritishColumbia,Canada:MITPress,2007.873-880
56HintonG,DengL,YuD,DahlGE,MohamedAR,JaitlyN,SeniorA,VanhouckeV,NguyenP,SainathTN,KingsburyB.Deepneuralnetworksforacousticmodelinginspeechrecognition:thesharedviewsoffourresearchgroups.IEEESignalProcessingMagazine,2012,29(6):82-97.
57KrizhevskyA,SutskeverI,HintonGE.ImageNetclassificationwithdeepconvolutionalneuralnetworks.In:Proceedingsofthe25thInternationalConferenceonNeuralInformationProcessingSystems.LakeTahoe,Nevada,USA:MITPress,2012.1097-1105
58GirshickR.FastR-CNN.In:Proceedingsofthe2015IEEEInternationalConferenceonComputerVision(ICCV).Santiago,Chile:IEEE,2015.1440-1448
59LecunY,BottouL,BengioY,HaffnerP.Gradient-basedlearningappliedtodocumentrecognition.ProceedingsoftheIEEE,1998,86(11):2278-2324.
60VincentP,LarochelleH,BengioY,ManzagolPA.ExtractingandcomposingrobustfeatureswithdenoisingAutoencoders.In:Proceedingsofthe25thIEEEInternationalConferenceonMachineLearning(ICML).Helsinki,Finland:IEEE,2008.1096-1103
61MasciJ,MeierU,CireanD,SchmidhuberJ.Stackedconvolutionalauto-encodersforhierarchicalfeatureextraction.In:Proceedingsofthe21thInternationalConferenceonArtificialNeuralNetworks.Berlin,Heidelberg,Germany:Springer,2011.52-59
62ZeilerMD,FergusR.Visualizingandunderstandingconvolutionalnetworks.In:Proceedingsofthe13thEuropeanConferenceonComputerVision(ECCV).Zurich,Switzerland:Springer,2014.818-833
63SimonyanK,ZissermanA.Verydeepconvolutionalnetworksforlarge-scaleimagerecognition.arXiv:1409.1556,2014.
64SzegedyC,LiuW,JiaYQ,SermanetP,ReedS,AnguelovD,ErhanD,VanhouckeV,RabinovichA.Goingdeeperwithconvolutions.In:Proceedingsofthe2015IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Boston,Massachusetts,USA:IEEE,2015.1-9
65SzegedyC,IoffeS,VanhouckeV,AlemiA.Inception-v4,Inception-ResNetandtheimpactofresidualconnectionsonlearning.arXiv:1602.07261,2016.
66IoffeS,SzegedyC.Batchnormalization:acceleratingdeepnetworktrainingbyreducinginternalcovariateshift.arXiv:1502.03167,2015.
67SzegedyC,VanhouckeV,IoffeS,ShlensJ,WojnaZ.Rethinkingtheinceptionarchitectureforcomputervision.arXiv:1512.00567,2015.
68HeK,ZhangX,RenS,SunJ.Spatialpyramidpoolingindeepconvolutionalnetworksforvisualrecognition.In:Proceedingsofthe2014EuropeanConferenceonComputerVision(ECCV).Zurich,Switzerland:Springer,2014.346-361
69BellS,LawrenceZitnickC,BalaK,GirshickR.Inside-outsidenet:detectingobjectsincontextwithskippoolingandrecurrentneuralnetworks.In:Proceedingsofthe2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR).LasVegas,NV,USA:IEEE,2016.2874-2883
70YangF,ChoiW,LinYQ.Exploitallthelayers:fastandaccurateCNNobjectdetectorwithscaledependentpoolingandcascadedrejectionclassifiers.In:Proceedingsofthe2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR).LasVegas,NV,USA:IEEE,2016.2129-2137
71ShrivastavaA,GuptaA,GirshickR.Trainingregion-basedobjectdetectorswithonlinehardexamplemining.In:Proceedingsofthe2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR).LasVegas,NV,USA:IEEE,2016.761-769
72SungKK.LearningandExampleSelectionforObjectandPatternDetection[Ph.D.dissertation],MassachusettsInstituteofTechnology,USA,1996.
73KongT,YaoAB,ChenYR,SunFC.HyperNet:towardsaccurateregionproposalgenerationandjointobjectdetection.In:Proceedingsofthe2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR).LasVegas,NV,USA:IEEE,2016.845-853
74DaiJF,LiY,HeKM,SunJ.R-FCN:objectdetectionviaregion-basedfullyconvolutionalnetworks.In:Proceedingsofthe2016AdvancesinNeuralInformationProcessingSystems(NIPS).Barcelona,Spain:MITPress,2016.379-387
75KimKH,HongS,RohB,CheonY,ParkM.PVANET:deepbutlightweightneuralnetworksforreal-timeobjectdetection.arXiv:1608.08021,2016.
76ShangWL,SohnK,AlmeidaD,LeeH.Understandingandimprovingconvolutionalneuralnetworksviaconcatenatedrectifiedlinearunits.In:Proceedingsofthe33rdInternationalConferenceonMachineLearning(ICML).NewYork,USA:IEEE,2016.2217-2225
77SermanetP,EigenD,ZhangX,MathieuM,FergusR,LeCunY.Overfeat:integratedrecognition,localizationanddetectionusingconvolutionalnetworks.arXiv:1312.6229,2013.
78RedmonJ,DivvalaS,GirshickR,FarhadiA.Youonlylookonce:unified,real-timeobjectdetection.In:Proceedingsofthe2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR).LasVegas,NV,USA:IEEE,2016.779-788
79NajibiM,RastegariM,DavisLS.G-CNN:aniterativegridbasedobjectdetector.In:Proceedingsofthe2016IEEEConferenceonComputerVisionandPatternRecognition(CVPR).LasVegas,NV,USA:IEEE,2016.2369-2377
80LiuW,AnguelovD,ErhanD,SzegedyC,ReedSE,FuCY,BergAC.SSD:singleshotmultiboxdetector.In:Proceedingsofthe14thEuropeanConferenceonComputerVision(ECCV).Amsterdam,Netherlands:Springer,2016.21-37
81RedmonJ,FarhadiA.YOLO9000:better,faster,stronger.arXiv:1612.08242,2016.
82PepikB,BenensonR,RitschelT,SchieleB.WhatisholdingbackconvnetsfordetectionIn:Proceedingsofthe2015GermanConferenceonPatternRecognition.Cham,Germany:Springer,2015.517-528
83XiangY,MottaghiR,SavareseS.BeyondPASCAL:abenchmarkfor3dobjectdetectioninthewild.In:Proceedingsofthe2014IEEEWinterConferenceonApplicationsofComputerVision(WACV).SteamboatSprings,Colorado,USA:IEEE,2014.75-82
85WangKun-Feng,GouChao,WangFei-Yue.Parallelvision:anACP-basedapproachtointelligentvisioncomputing.ActaAutomaticaSinica,2016,42(10):1490-1500.
(王坤峰,苟超,王飞跃.平行视觉:基于ACP的智能视觉计算方法.自动化学报,2016,42(10):1490-1500.)
87WangFei-Yue.Parallelsystemmethodsformanagementandcontrolofcomplexsystems.ControlandDecision,2004,19(5):485-489,514.
(王飞跃.平行系统方法与复杂系统的管理和控制.控制与决策,2004,19(5):485-489,514.)
88WangFY.Parallelcontrolandmanagementforintelligenttransportationsystems:concepts,architectures,andapplications.IEEETransactionsonIntelligentTransportationSystems,2010,11(3):630-638.
89WangFei-Yue.Parallelcontrol:amethodfordata-drivenandcomputationalcontrol.ActaAutomaticaSinica,2013,39(4):293-302.
(王飞跃.平行控制:数据驱动的计算控制方法.自动化学报,2013,39(4):293-302.)
90PengXC,SunBC,AliK,SaenkoK.Learningdeepobjectdetectorsfrom3Dmodels.In:Proceedingsofthe2015IEEEInternationalConferenceonComputerVision(ICCV).Santiago,Chile:IEEE,2015.1278-1286
91Johnson-RobersonM,BartoC,MehtaR,SridharSN,RosaenK,VasudevanR.Drivinginthematrix:canvirtualworldsreplacehuman-generatedannotationsforrealworldtasksarXiv:1610.01983,2016.
92PanSJ,YangQ.Asurveyontransferlearning.IEEETransactionsonKnowledgeandDataEngineering,2010,22(10):1345-1359.
93TaylorME,StoneP.Transferlearningforreinforcementlearningdomains:asurvey.TheJournalofMachineLearningResearch,2009,10:1633-1685.
-End-
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”