基于深度卷积网络和在线学习跟踪的驾驶员打哈欠检测

1.上海工程技术大学机械与汽车工程学院,上海,2016202.中国标准化研究院,北京,100191

摘要:提出了一种基于多信息融合的驾驶员打哈欠检测方法。首先,建立驾驶员面部图像数据库并训练深度卷积神经网络来依次检测驾驶员的面部和鼻子;然后,采用局部二比特特征和随机森林分类器训练生成在线鼻子检测器,以此来校正光流跟踪器在鼻子跟踪过程中产生的漂移误差等参数;最后,分析鼻子下方嘴部区域的边界梯度变化情况,并结合鼻子跟踪器置信度、面部横向运动等信息来判断驾驶员是否打哈欠。实验结果表明,深度卷积网络相对于其他面部分类方法,可以获得更好的分类检测效果;基于在线学习的跟踪方法可以很好地减小光流跟踪引起的漂移误差;整个算法可以在多种驾驶环境下以较高准确率检测驾驶员打哈欠事件的发生。

关键词:卷积神经网络;光流跟踪;打哈欠检测;信息融合;二比特特征

驾驶员疲劳是造成交通事故的重要原因[1],而检测驾驶员面部疲劳信号之一的驾驶员打哈欠事件已经成为计算机视觉技术领域研究的热点。驾驶员打哈欠检测的首要任务是定位驾驶员面部,然后在面部区域检测嘴部并分析嘴角或嘴内的形状变化等。在人脸检测方面,学者们已经提出了多种不同的方法,如主成分分析法[2]、神经网络法[3]、支持向量机[4]以及建立人脸几何模型[5]等。VIOLA等[6]提出了一种基于Haar特征的人脸自适应提升训练方法(AdaBoost),获得了较好的检测效果;SOCHMAN等[7]提出的Wald-Boost算法结合序列概率原理改进了AdaBoost算法,使其具有了更高的分类检测效率;HSU等[8]通过皮肤亮度补偿以及非线性颜色变换等技术来检测面部区域,然而该方法只在静态图像上进行了测试,且在具有宽动态光照范围的真实驾驶环境中,其“真白”假设前提不再成立,很难获得可靠的检测结果;CHOI等[9]采用CDF(cumulativedistributionfuntion)分析方法定位驾驶员的瞳孔位置,然后根据检测到的驾驶员视线的变化来确定驾驶员的疲劳状态。实际上当驾驶员处于疲劳状态时,眨眼和点头的频率会显著增加,这些参数都可以用作疲劳评估的指标。

为适应真实驾驶环境,并虑及面部特征易受性别、面部朝向、光照、遮挡、面部表情以及图像尺度和图像低分辨率的影响等因素,本文提出一种基于深度卷积网络[17-18]和在线学习跟踪的驾驶员打哈欠检测方法。

系统框架如图1所示。首先,面部检测器在图像多尺度滑窗中根据深度卷积网络定位驾驶员面部区域,同时,采用基于另一深度卷积网络的鼻子检测器在面部区域定位鼻子区域;然后,通过在线学习的方法训练随机森林目标检测器,对光流跟踪器的漂移误差进行校正。有相对刚性的人脸轮廓中,嘴部区域位于鼻子下方,当打哈欠事件发生时,嘴角具有较大形变,其边缘的水平方向梯度强度值将有剧烈的增大;而驾驶过程中驾驶员经常扭头查看两侧交通状况,因此,打哈欠检测器融合了左右嘴部区域的边缘梯度值、鼻子跟踪置信度以及面部运动方向等信息综合判断是否有打哈欠事件发生。

图1驾驶员打哈欠检测系统原理框图Fig.1Pipelineofdriveryawningdetectionsystem

深度卷积网络实质上是一种多层神经网络,其融合了局部感知野、共享权重以及空间降采样等特性,不仅可以大幅减少训练参数个数,还可以对一定程度的尺度缩放、旋转以及平移等保持鲁棒性。该深度卷积网络主要由交替连接的卷积层和降采样层组成,其中卷积层本质上是由不同的局部滤波器组合而成,而最终将得到的高层级的特征向量全连接到一个神经网络上。在驾驶员面部检测过程中,可以采用大量的原始面部图像数据库进行训练。图2显示了基于深度卷积网络的驾驶员面部检测结构图。

图2用于驾驶员人脸检测的深度卷积网络的多层级结构Fig.2Multi-levelstructureofdeepconvolutionnetworkfordriverfacedetection

在图2的深度卷积网络中,输入图像统一设定为96pixel(宽)×120pixel(高)(图中简写为96×120)。第一层是一个滤波器感知野大小为4×4的卷积层,通过该卷积层,每一个输入图像得到4个特征图,其中显示了2个特征图例子。卷积层的下一层是降采样层,该层通过一个3×3的局部平均核对上一层的特征图进行空间降采样,最终其特征图像素由93pixel×117pixel降低至31pixel×39pixel,使得该卷积网络降低对于旋转和畸变的敏感度,该层中显示了3个经过降采样的特征图例子。经过三次不同的卷积层和降采样层的迭代,输入层最终演变为具有1pixel×2pixel的40个高层级特征图,因此最终形成的特征向量具有80个参数,全部连接至输出层的神经网络进行分类训练。如图2所示,每一层均由不同大小的卷积核或降采样核进行处理,形成不同个数的特征图,为简化表达,将图2所描述的深度卷积网络结构描述为96×120-4C4-3S4-4C6-2S6-3C12-2S12-3C20-2S20-2C40,其中字母C代表卷积层,字母S代表降采样层,字母前的数字为核尺寸,字母后的数字为特征图数量。

采用类似的方法设计了用于驾驶员鼻子检测的深度卷积网络架构。鼻子检测的训练图片全部来自于驾驶员人脸检测的数据集,同时鼻子的图像像素(14pixel×18pixel)远远小于驾驶员面部,且鼻子相对人脸具有较小的个体差异,因此,该深度卷积网络架构具有较少的层级结构和较少的层内滤波参数。用于驾驶员鼻子检测的深度卷积网络简化为14×18-3C6-2S6-3C10-2S10。

在确定跟踪目标的初始位置之后,需要根据目标的外观以及周围背景在线训练目标检测器。为便于实时计算,在线训练的特征应能在反映物体梯度方向性的情况下尽量保持简洁性。启发于物体检测常用训练特征Haar[6]、LBP(localbinarypattern)[21]以及HOG(histogramorientalgradient)[22]等,特设计了更简洁的二比特特征,仅通过计算水平和垂直方向灰度总和,并比较大小便可实现前述三种特征对物体梯度方向的反映,避免了大量的梯度求导运算,具有更快的运行速度。该特征反映了图像区域内的边缘梯度方向,并对该梯度方向性进行了量化,最终获得了四种可能的编码结果。如图3所示,对目标区域随机选取若干个矩形框(图3中虚线框和实线框),对矩形实线框内灰度进行编码结果为00,其中I(Ai)(i=1,2,3,4)代表选定的图像框内的第i个区域内的灰度值总和;所有虚线框内二比特特征构成当前目标图像的特征向量X=(x1,x2,…,xk),其中k是目标区域选定的矩形图像框数量,反映了特征的维度,xk是四种可能的二比特特征。

图3在目标边界框内进行局部灰度梯度方向编码的二比特特征Fig.3Binary-bitfeatureoflocalgraygradientdirectioncodinginthetargetboundingbox

为适应目标外观的动态改变,在线训练检测器的正负样本均来自于当前帧目标周围的图像块,其大小与目标大小一致。为提高在线检测器的分辨能力,只选择那些区域内部像素方差在目标图像方差一半以上的样本图像块。与目标区域的重合率大于0.7的100个图像块选为训练的正样本,重合率小于0.7的300个图像块视为训练的负样本。样本图像块与目标图像区域的重合率O的计算方法为

其中,b1和b2分别为样本图像块和目标图像区域的边界面积;∩代表图像边界框之间重叠部分的面积。

随机森林分类器是一种由多棵决策树组合而成的联合预测模型,是一种快速且有效的分类模型[23]。各决策树独立进行样本类别的预测,对所有的预测类别进行投票,票数最高的类别被选举为最终的结果。在训练中,每棵树上的叶节点记录了经过该节点的正样本的数量p和负样本数量n。而每棵决策树对每个输入图像的特征向量通过叶节点的后验概率进行类别的预测,其目标类别的后验概率

其中,k既是目标区域选定的矩形图像框数量,也代表了随机森林分类器中决策树的数量。

最终对来自所有决策树的后验概率进行均值计算,若均值大于0.5,则随机森林分类器输出类型为目标,否则为背景。而在整幅图像的扫描窗内检测单目标时,往往只选择具有最高随机森林预测概率输出的扫描窗格作为目标物体的边界框。

随机森林分类器由两个参数来决定其精度和速度:森林中决策树的数量m以及每棵决策树中包含特征的数量k。决策树的数量越多,随机森林分类器的分类性能越好,但运行的速度越慢。在本试验中,决策树数量m设定为10可以在满足实时性的同时保证分类的性能。而每棵树中所使用的特征维度k越大,随机森林分类器的判别能力越强。由于每个特征有4种可能的编码模式,因此每个决策树中叶节点的数量有4k个。在本文中,选定k为10。

采用LK光流法由帧Ft到帧Ft+1前向跟踪目标时,跟踪点坐标Pt转换为Pt+1,而Pt+1也可由LK光流法在帧Ft上得到反向虚拟跟踪点P′t。若LK光流法跟踪正确,则跟踪误差e=|Pt-P′t|应足够小,如图4所示。

根据LK光流跟踪的误差以及在线随机森林检测器的目标位置,最终目标边界框的范围为

图4LK光流跟踪误差Fig.4Opticalflowtrackingerror

其中,PLk(x,y,w,h)为LK光流法得到的纯跟踪边界框的左上角坐标(x,y)以及边界框的宽度w和高度h;POLD(x,y,w,h)为在线检测方法得到的目标边界框位置;eth为跟踪误差,其阈值为5个像素,大于此误差时认为光流法跟踪失败。

根据相邻帧得到的跟踪目标的边界框所选定的图像块bt之间的相似程度,可以大概估计目标跟踪的质量,即跟踪置信度T:

整个视频算法在公开的行人跟踪视频测试集[24]上进行了测试,并与行人的标准参考位置进行了对比,其效果如图5所示。

图5中,行人跟踪测试视频的分辨率为QVGA格式,各跟踪方法使用的测试函数(如光流、均值漂移、梯度直方图、随机森林分类器等)均采用MATLABR2014a库函数。从图5中可以明显看出,梯度直方图与均值漂移等方法的跟踪效率随着视频帧数增加逐渐降低,大部分视频帧内不能有效跟踪行人的移动,而光流法虽能根据帧差原理检测到行人移动,但跟踪效率受光照影响太大而导致大部分跟踪结果产生漂移误差,与标准参考框的重合率大部分在0.5以下,而通过在线学习的方式训练的检测器可以有效地校正光流跟踪器产生的漂移误差,在随机森林决策树数量m为10的情况下(配置1)可以显著地改善跟踪效果,能连续跟踪复杂场景下的行人目标,使得大部分视频帧的跟踪重合率大部分在0.7以上,而决策树数量m降低为8(配置2)时,跟踪重合率有所下降,如图5a所示。

图5在公开测试集上的跟踪重合率及其帧数统计直方图Fig.5Thetrackingoverlapandframehistogramonopendatasets

在通过检测跟踪获得驾驶员鼻子位置之后,可以在鼻子正下方直接选定一个区域为嘴部形变分析区域。根据经验,该嘴部区域的宽度和高度分别设定为鼻子的1.5倍和1.8倍。嘴部区域由其竖直中心线分为左右两部分,如图6所示。

当打哈欠事件发生时,在嘴角处有明显的形变发生,竖直边沿的比例增大,因此,在嘴部区域对图像进行水平和竖直方向边缘滤波器卷积,并求取绝对梯度方向在0~10°内的像素的梯度强度和:当打哈欠事件发生时,0~10°范围内的像素梯度强度和会有明显的增大。像素梯度计算方法如下:

图6两种状态嘴角梯度方向示意图Fig.6Twostateofmouthcornergradient

其中,I(x,y)为坐标点(x,y)处的像素值;θ和M分别为点(x,y)处的梯度角度值和强度值。

图7显示了在打哈欠过程中,左侧嘴角部分0~10°范围内的像素梯度强度和(在3左右浮动)相对于正常状态数值明显增大(最高可达20)。在不同的光照条件下,相同的打哈欠事件的梯度强度和应该会有较大的差异。为在不同光照场景下确定不同嘴型打哈欠检测的统一阈值,需要将所有嘴部区域大小正则化至同一尺度(36×46),亮度值均由0~255正则化至0~1范围内。然而,当外界光照强烈变化时,跟踪质量急剧下降,此时无法分析嘴角梯度强度;当驾驶员扭头观察两侧车流时,嘴部区域往往包含面部与背景之间的竖直边沿,这为嘴角梯度强度的分析造成了极大的干扰。图8显示了车辆通过桥梁下方时光照的突变导致鼻子跟踪失败的情景。很明显,由于鼻子跟踪失败导致嘴部区域的误判,在右侧嘴角处面部与背景之间形成了较长的竖直边沿,使得右侧嘴角0~10°内的梯度强度和增大至29.40,该值远远大于左侧嘴角的8.7,同时右侧嘴角10°~20°范围内的梯度强度和18.61也远大于左侧梯度强度和3.68,而鼻子跟踪置信度降低至0.5743,但此时并没有明显的嘴部打哈欠事件发生。

图7正常状态和打哈欠状态(矩形框内)下左侧嘴角0~10°范围内梯度强度和Fig.7Gradientintensityin0~10degreeofleftmouthcornerinnormalandyawningstate(rectanglebox)

为获得打哈欠检测的精确描述,在进行嘴角梯度强度分析的同时,引入鼻子跟踪置信度以及面部横向运动等信息以作综合判断。设定打哈欠判别值YD来融合以上三种信息:

图8车辆通过桥梁时面部目标跟踪失败后的左右侧嘴部梯度强度和的对比Fig.8Comparisonsofgradientintensityofleftandrightmouthcornersafterfailureoffacialtrackingwhenvehiclepassbridge

其中,SL和SR分别为尺寸亮度正则化后的左右两侧嘴部区域0~10°范围内梯度强度和,T为鼻子跟踪器输出的跟踪置信度,Tth为可靠跟踪的置信度阀值,设定为0.6。当跟踪失败时,T值为0。而面部运动方向可以通过跟踪过程中的鼻子中心位置进行判断:如果鼻子中心横向像素值突然增大,则代表驾驶员面部向右运动;反之,则代表驾驶员面部向左运动,即

其中,vh和vth分别为驾驶员鼻子中心横向运动速度(横向坐标的帧间差分值)及其速度阈值。

驾驶员面部分类数据库图像截取于本实验室内9名驾驶员的行车视频,以及公开的打哈欠测试视频YawDD[25]中的89个驾驶视频,该数据库共有52344个正样本图像以及108323个负样本图像,样本图像大小为96pixel×120pixel,图9显示了部分正样本示例。

图9驾驶员面部数据库正样本示例Fig.9Positivesamplesofdriverfacialdatabase

从图9可以看出,驾驶员面部数据库正样本中包含多种光照条件下的不同面部角度的驾驶员面部图像。训练和测试均经过图2所示的卷积神经网络配置下的十折交叉验证,其中图2中的参数配置为缺省配置。为对比深度卷积网络的训练检测性能,分别设定了另外两种不同配置的深度卷积网络架构:第一种与本文缺省配置具有同样的网络层数,但每层具有更多的特征图数量,其网络结构简化为96×120-4C4-3S4-4C8-2S8-3C16-2S16-3C32-2S32-2C64,该网络架构称为“多特征图网络”;第二种较本文缺省配置仅缺少最后一层降采样层,其他层数配置相同,其网络结构简化为96×120-4C4-3S4-4C6-2S6-3C12-2S12-3C20-2S20,该网络称为“少一卷积层网络”。图10显示了三种方法下驾驶员面部检测深度卷积网络的ROC(receiveroperatingcharacteristic)性能曲线。

图10不同深度卷积网络配置下的驾驶员面部分类ROC曲线Fig.10TheROCcurvesofdriverfacialclassificationwithdifferentdeepnetworkconfigurations

从图10可以看出,具有相同网络层数的情况下,多特征图网络相对于本文缺省配置具有更好的分类性能,但性能改善效果一般;而本文缺省配置若缺少一层网络配置,则其性能下降较为明显。表1显示了三种方法在同一工作站(配置酷睿i5-6500CPU和MATLABR2014a)上的训练开销和测试精度。

表1不同深度卷积网络配置下的训练开销和测试精度Tab.1Trainingoverheadandtestaccuracywithdifferentdeepnetworkconfigurations

图11用于驾驶员面部图像分类的深度卷积网络与Boost算法的ROC曲线性能比较Fig.11PerformancecomparisonofROCcurvesbetweendepthconvolutionnetworkandBoostalgorithmfordriverfaceimageclassification

图12车辆通过桥梁下方时跟踪失败引起的打哈欠误警事件的典型视频序列截图Fig.12Typicalvideosequencesofyawningerroralerteventscausedbytrackingfailurewhenvehiclespassunderbridges

另一种易引起误警率的现象是驾驶员行车过程中扭头引起的嘴部区域选择误差。图14显示了驾驶员面部在视频331~385帧中转向右侧时右侧嘴角梯度强度与鼻子中心横向位置分析。

图13跟踪质量下降时的驾驶员打哈欠检测的多数据分析Fig.13Multi-dataanalysisofyawningdetectionwhenthetrackingqualityisdegrading

图14驾驶员扭头时的打哈欠检测的多数据分析Fig.14Multi-dataanalysisofyawningdetectionwhendriverturninghead

在图14所示的视频序列中,打哈欠事件发生在517~645帧之间,如矩形实线区域所示,然而仅进行梯度强度分析将在331~382帧之间引入误警,如矩形虚线区域所示,此段区间内驾驶员面部转向右侧,如图14b所示。因此有必要综合考虑嘴部区域的梯度强度、鼻子跟踪置信度以及驾驶员面部运动方向等信息来确定是否有打哈欠事件发生。

图15显示了图13和图14两个视频序列内对应的打哈欠判别值YD的变化情况。

图15图13和图14对应的视频序列内的打哈欠判别值YD的变化情况Fig.15ThechangesofyawningdiscriminationvalueYDinFig.13andFig.14videosequences

图15中,在打哈欠事件发生时,YD可以智能化地选择左侧或右侧嘴部区域作为分析对象,从而在图15a和图15b分别显示了图13和图14视频序列内打哈欠事件发生时YD值的明显增大,可以通过左侧区域的恒虚警率自适应阈值[26]检测到矩形实线框内打哈欠事件的发生,且最大限度地降低了误警事件发生的可能性。该驾驶员打哈欠检测方法在YawDD视频集[25]上进行了测试,打哈欠检测成功率达到93.7%,远高于文献[25]中60%的检测成功率。本方法仍未达到完全的检测效率,其主要原因在于:①少量视频内驾驶员打哈欠时面部有旋转,在鼻子正下方无法准确选定嘴部区域;②少量视频内驾驶员打哈欠时有用手遮挡面部的习惯,导致面部跟踪失败或嘴部区域无法定位。

(1)根据交通场景复杂多变、光照强度变化范围大、驾驶员面部特征个体差异大的特点,设计了深度卷积网络架构对驾驶员面部进行分类检测,根据其监督式训练学习机制,可以深度提取面部的主要特征,使得该分类网络获得较为理想的分类检测效果。

(2)设计了低维的局部二比特特征,同时利用该类特征在线训练了随机森林面部目标检测器,将其与传统的光流跟踪器搭配,可以克服光流跟踪器易受光照影响的缺点,弥补了光流跟踪器的漂移误差。整个在线学习跟踪算法可以通过跟踪置信度反映跟踪质量。

(3)采用统计方式分析了嘴角区域的梯度强度,可以避免低分辨率下直接定位嘴角的困难;同时,在驾驶视频测试集上的实验结果证明,结合鼻子跟踪器置信度以及面部运动方向等综合判断驾驶员打哈欠行为,在提高检测正确率的同时也降低了误警事件发生的可能。

参考文献:

[1]李家文,成波.驾驶员疲劳状态适应式复合预警方法的研究[J].汽车工程,2012,34(3):211-216.LIJiawen,CHENGBo.AStudyontheAdaptiveMultipleWarningsSchemeforDriverDrowsiness[J].AutomotiveEngineering,2012,34(3):211-216.

[2]LIUChengjun.Gabor-basedKernelPCAwithFractionalPowerPolynomialforFaceDetection[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2004,26(5):572-581.

[3]FERAUNDR,BERNIERQJ,VIALLETJE,etal.AFastandAccurateFaceDetectorBasedonNeuralNetwork[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2001,23(1):42-53.

[4]祝海龙,屈梁生,张海军.基于小波变换和支持向量机的人脸检测系统[J].西安交通大学学报,2002,36(9):947-950.ZHUHailong,QULiangsheng,ZHNAGHaijun.FaceDetectionBasedonWaveletTransformandSupportVectorMachine[J].JournalofXi’anJiaotongUniversity,2002,36(9):947-950.

[5]CASTRILLONM,DENIZO,GUERRAC,etal.ENCARA2:Real-timeDetectionofMultipleFacesatDifferentResolutionsinVideoStreams[J].JournalofVisualCommunicationandImageRepresentation,2007,18:130-140.

[6]VIOLAP,JONESMJ.RobustReal-timeFaceDetection[J].InternationalJournalofComputerVision,2004,57(2):137-154.

[7]SOCHMANJ,MATASJ.WaldBoost-LearningforTimeConstrainedSequentialDetection[C]//IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition(CVPR).Diego:IEEE,2005:150-156.

[8]HSURL,ABDELMOTTALEBM,JAINAK.FaceDetectioninColorImages[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2002,24(5):696-706.

[9]CHOIIH,KIMYG.HeadPoseandGazeDirectionTrackingforDetectingaDrowsyDriver[C]//IEEEInternationalConferenceonBigData&SmartComputing.Bangkok,2014:241-244.

[10]SHABNAMA,BEHBOOSHH,SHERVINS.DriverDrowsinessMonitoringBasedonYawningDetection[C]//IEEEInstrumentationandMeasurementTechnologyConference(I2MTC).Binjiang,2011:1-4.

[11]MANDALAPUS,PREETIB.DriverFatigueDetectionUsingMouthandYawningAnalysis[J].InternationalJournalofComputerScienceandNetworkSecurity,2008,8(6):183-188.

[12]童兵亮.基于嘴部状态的疲劳驾驶和精神分散状态监测方法研究[D].长春:吉林大学,2004.TONGBingliang.StudyontheMonitoringMethodforDriver’sFatigueandDistractionBasedonMouthState[D].Changchun:JilinUniversity,2004.

[13]SHABNAMA,SHERVINS,BEHBOOSHH,etal.AYawningMeasurementMethodUsingEmbeddedSmartCamera[C]//2013IEEEInternationalConferenceonInstrumentationandMeasurementTechnology.Minneapolis,2013:1605-1608.

[14]NENOITA,CAPLIERA.FusingBio-inspiredVisionDataforSimplifiedHighLevelSceneInterpretation:ApplicationtoFaceMotionAnalysis[J].ComputerVisionandImageUnderstanding,2010,114:774-789.

[15]FANXiao,YINBC,SUNYF.YawningDetectionforMonitoringDriverFatigue[C]//2007IEEEInternationalConferenceonMachineLearning&Cybernetics.Hongkong,2007:664-668.

[16]HYUNYangji,LIMS.DriverStateEstimationbyConvolutionalNeuralNetworkUsingMultimodalSensorData[J].ElectronicsLetters,2016,52(17):1495-1497.

[17]CIRE爧ANDC,MEIERU,GAMBARDELLALM,et.al.Big,SimpleNeuralNetsforHandwrittenDigitRecognition[J].NeuralComputation,2010,22(12):3207-3220.

[18]YANNL,KORAYK,CLMENTF.ConvolutionalNetworksandApplicationsinVision[C]//InternationalSymposiumonCircuitsandSystems.Paris,2010:253-256.

[19]MATURANAD,MERYD,SOTOA.FaceRecognitionwithLocalBinaryPatterns,SpatialPyramidHistogramsandNaiveBayesNearestNeighborClassification[C]//InternationalConferenceoftheChileanComputerScienceSociety.Chile,2009:125-132.

[20]ALBERTOA,DAVIDM,ANTOINEMetal.FaceRecognitionUsingHOG-EBOM[J].PatternRecognitionLetters,2008,29(10):1537-1543.

[21]李平岐,陈万春,邢晓岚.复杂背景下运动目标的检测与跟踪[J].红外与激光工程,2007,36(增刊2):182-186.LIPingqi,CHENWanchun,XINGXiaolan.DetectionandTrackingofMovingObjectinComplexBackground[J].InfraredandLaserEngineering,2007,36(S2):182-186.

[22]李光,金学波.基于张量梯度直方图的MeanShift跟踪算法[J].浙江理工大学学报,2009,26(6):880-885.LIGuang,JINXuebo.MeanShiftTrackingAlgorithmBasedonTensorGradientHistogram[J].JournalofZhejiangSci-TechUniversity,2009,26(6):880-885.

[23]刘足华,熊惠霖.基于随机森林的目标检测与定位[J].计算机工程,2012,38(13):5-8.LIUZuhua,XIONGHuilin.ObjectDetectionandLocalizationBasedonRandomForest[J].ComputerEngineering,2012,38(13):5-8.

[24]KWONJ,LEEKM.VisualTrackingDecomposition[C]//IEEEConferenceonCompnterVisionandPatternRecognition.SanFrancisco,2010:1269-1276.

[25]SHABNAMA,MONAO,SHERVINS,etal.YawDD:AYawningDetectionDataset[C]//Proceedingsofthe5thACMMultimediaSystemsConference.NewYork,2014:24-28.

[26]刘盼芝,韩崇昭.分布式自动删除平均恒虚警率检测技术[J].自动化学报,2007,35(7):903-910.LIUPanzhi,HANChongzhao.DistributedAutomaticCensoredCell-averagingCFARDetector[J].ActaAtuomaticSinica,2007,35(7):903-910.

DriverYawningDetectionBasedonDeepConvolutionalNetworkandTrackingwithOnlineLearning

ZHANGWeiwei1MIZeyang1XIAOLingyun2QIANYubin11.SchoolofMechanicalandAutomotiveEngineering,ShanghaiUniversityofEngineeringScience,Shanghai,2016202.ChinaNationalInstituteofStandardization,Beijing,100191

Abstract:Amethodfordriveryawningdetectionwasproposedbasedonmulti-informationfusion.Firstly,thedriverfacedatabasewasbuilt,andthedeepconvolutionalneuralnetworkwastrainedfordriverfaceandnosedetectioninsequence.Secondly,anonlinenosedetectorwasgeneratedthroughtrainingarandomforestclassifierwithlocalbinaryfeature,whichwasintroducedtocompensatethenosetrackingerrorscausedbyopticalflow-basednosetracker.Atlast,theedgegradientchangeswereanalyzedinthemouthareaunderthenose.Theinformationslikenosetrackingconfidenceandfacelateralmovementwerecombinedtodeterminethedriverswereyawning.Theexperimentalresultsshowthat,comparedwithotherfaceclassificationmethod,thedeepconvolutionnetworkmayobtainbetterclassificationdetectioneffectiveness.Theonlinelearning-basedtrackingmethodmayreducethedrifterrorsgreatlyintroducedbytheopticalflow-basedtracker.Thewholealgorithmmaydetectdriveryawningeventwithsatisfactoryaccuracyunderdifferentdrivingconditions.

Keywords:convolutionalneuralnetwork;opticalflowtracker;yawningdetection;informationfusion;binaryfeature

中图分类号:U471.15;TP29

DOI:10.3969/j.issn.1004-132X.2019.08.004开放科学(资源服务)标识码(OSID):

收稿日期:2018-01-15

基金项目:国家重点研发计划资助项目(2016YFC0800702-1);国家自然科学基金资助项目(51805312,51675324,51575169);中央高校基本科研业务费专项资金资助项目(282019Y-6694,282018Y-5976)

(编辑王艳丽)

作者简介:张伟伟,男,1987年生,博士、讲师。研究方向为智能网联汽车、图像处理、计算机视觉。发表论文10余篇。E-mail:zwwhnu@163.com。肖凌云(通信作者),男,1980年生,博士。研究方向为车辆先进主动安全评价理论、标准与应用。E-mail:xiaoly@dpac.gov.cn。

THE END
1.在线学习有什么特点?现如今人们在教育上的需求有了明显的转变,因为工作和日常生活的琐碎,所以没有时间到指定的地点去学习,而在线学习平台的出现满足了他们的一切要求。不需要受到时间的限制,随时随地都能学习,加快了学习进度,也提升了学习效率。那么,除了学习方式灵活,还有哪些特点呢? https://www.ckjr001.com/newsdetail/1412.html
2.在线学习是什么什么是在线学习3. 自适应性:在线学习可以根据新数据的特点动态调整模型,适应数据的变化。 在线学习的应用场景包括在线广告投放、实时推荐系统、网络安全监测等需要实时决策和反馈的领域。常见的在线学习算法包括在线梯度下降、随机梯度下降、递增式学习等。 在线学习的流程通常包括数据流接收、特征提取、模型训练和评估等步骤。在数据流接https://blog.csdn.net/u010605984/article/details/136640833
3.在线学习与传统课堂学习相比,有哪些优势和不足?随着科技的进步和互联网的普及,学习方式也在不断地演变。在线学习和传统课堂学习是两种主流的学习方式,它们各有千秋,吸引着不同类型的学习者。本文将从多个角度深入探讨在线学习与传统课堂学习相比的优势和不足,以期帮助读者更全面地了解这两种学习方式,从而做出更合适的选择。一、在线学习的优势 1.灵活性和便利性https://baijiahao.baidu.com/s?id=1799935647637488672&wfr=spider&for=pc
4.互联网时代在线学习的特征随着互联网技术的发展、在线教育的兴起、数字学习资源跨地区的合理流动、各种即时通讯软件的普及,数字学习所依赖的环境和载体不再单一。 过去,学习的标志只是校园和教室里的读书声,学习场所也仅限于学校。然而,在“互联网+”时代,数字学习可以支持学习者通过网络随时随地访问各种在线学习平台。 https://www.mtavip.com/news/1000213
5.在线学习(OnlineLearning)导读FTRL是一种在线学习的常见优化算法,方便实用,而且效果很好,常用于更新在线的CTR预估模型。之前的传统实现多见于Storm。但是实际应用中,数据集的维度往往很大,且模型稀疏性,这种Case下,用Spark Streaming结合Angel,其实会有更好的效果,而且代码很少,性能稳健。 https://zhuanlan.zhihu.com/p/36410780
6.在线学习力:结构特征及影响因素丁亚元等(2015)认为在线学习力由内驱力、认知力、意志力、转化力四要素构成,并据此调研远程学习者在线学习力的现状。李宝敏等(2017,2018)从在线学习的特征出发,得出学习力包含内驱力、顺应力、策应力、管理与调节力以及互惠力。 学习力与在线学习力的本质属性相同,二者的构成要素基本相似,即主要包含内驱力、认识力https://maimai.cn/article/detail?fid=1527297080&efid=XUDmn34HY91HTKNshubb-A
7.融入高阶行为特征的在线学习预警模型研究本文的主要创新点包含以下四个方面:(1)构建了融入人机交互行为时序特征的学习预警模型。本文关注了学习行为出现的顺序对学习结果的影响,从自我调节学习理论出发,在序列模式发掘的基础上,提出了融入人机交互时序特征的在线学习预警模型。实验表明,在人机交互行为的基本特征基础之上融入行为的时序特征后,四种在线学习预测模型https://cdmd.cnki.com.cn/Article/CDMD-10511-1021163718.htm
8.未来教育之教学新形态:弹性教学与主动学习摘要:为了遏制新冠肺炎疫情的传播,全球大部分学校被迫关停,大规模在线学习成为“停课不停学”的不二选择。这次超大规模的在线教育实践,呈现出以弹性教学和主动学习为基本特征的新型教育教学形态,不仅凸显了教育信息化的价值,也成为我们共同定义“未来教育”的一个契机。总结校园关闭期间线上教学的有益经验,适时保护和发挥https://zysh.nwsuaf.edu.cn/xxyd/920491d366d3427cb25ee4a24226ac4d.htm
9.线上教学经验做法总结(通用15篇)腾讯课堂可以利用签到功能进行学习签到,方便统计参与学习人数,而且也可以导出学生的在线学习时长;钉钉直播结束后,学生立刻可以看回放,教师可以看到学生的在线学习时长(包括直播时长和回放时长)。腾讯课堂和钉钉直播都可以线上教学中使用举手模式进行提问。本组教师结合课堂教学特点常常交换使用两种线上教学软件。https://www.ruiwen.com/zongjie/6744587.html
10.学习用于视觉跟踪的深度紧凑图像表示腾讯云开发者社区其次,与先前也从辅助数据学习特征的方法不同,DLT中的学习特征可以进一步调整以适应在线跟踪过程中的特定对象。因为DLT利用多个非线性变换,所获得的图像表示比基于PCA的先前方法更具表现力。此外,由于表示跟踪对象不需要解决基于稀疏编码的先前跟踪器中的优化问题,因此DLT明显更有效,因此更适合于实时应用。https://cloud.tencent.com/developer/article/2080065
11.在线学习中国式现代化的重大理论和实践问题工作动态习近平总书记在党的二十大报告中深入阐述中国式现代化理论,是科学社会主义的最新重大成果。在新进中央委员会的委员、候补委员和省部级主要领导干部学习贯彻习近平新时代中国特色社会主义思想和党的二十大精神研讨班上,习近平总书记对中国式现代化是强国建设、民族复兴的唯一正确道路,中国式现代化是中国共产党领导的社会主义https://www.syszx.gov.cn/syszx/gzdt/202307/6580f864a8864796b2ae4f568cea1147.shtml
12.培训交流发言材料通用12篇这是参与式培训的最基本形式。康德指出,人有联合他人的倾向,因为在和人交往状态中会有一种比个人更丰富的感觉。小组合作学习正好适应了人的这种心理倾向,更可以使学员从不同方面对同一个问题进行理解。这种方法符合建构主义学习观对于成人学习特征的解释,实践效果很好。 https://gxly.xueshu.com/haowen/41184.html
13.在线学习平台参考全部答案广东继续教育网2021年广东省专业技术人员继续教育公需科目《人工智能发展与产业应用》在线学习平台参考全部答案https://www.gdjxjy.com/html/xinwen/ziliao/2141.html
14.教师支持对在线学习者自我调节学习的影响研究澎湃号·政务2020年以来,在线学习更是成为全国范围内各学段教育实施“停课不停学”的主要途径。与传统学习方式相比,在线学习具有明显的自主性、弱控性特征,其过程突出强调学习者的自我调节[1]。因此,整合学习者认知、动机和情感等多要素的自我调节学习(self-regulated learning)成为近年来在线学习研究的热点。https://www.thepaper.cn/newsDetail_forward_15898407
15.TCCT通讯Newsletter2017No.01郭金海 杨锦伟 李军亮 杨明合 向量变换研究离散GM(1,1)模型的病态性 控制与决策, 2017 Vol. 32 (01): 181-186 Abstract | PDF 周晓杰 蔡元强 夏克江 富月 基于火焰图像显著区域特征学习与分类器融合的回转窑烧结工况识别 控制与决策, 2017 Vol. 32 (01): 187-192 Abstract | PDF https://tcct.amss.ac.cn/newsletter/2017/201701/journal.html
16.范慧杰5) 机器人在线学习和场景感知研究 经费来源:国家自然科学基金; 2014-2017 6) 基于稀疏表达和字典选择的一致异常行为算法研究 经费来源:国家自然科学基金; 2012-2014 7) 基于水平集理论PLIF火焰前锋与特征提取算法研究 经费来源:国家自然科学基金; 2009-2011 http://www.sia.cn/vision/kytd/yjry/202307/t20230726_6834850.html