基于深度卷积网络和在线学习跟踪的驾驶员打哈欠检测

1.上海工程技术大学机械与汽车工程学院,上海,2016202.中国标准化研究院,北京,100191

摘要:提出了一种基于多信息融合的驾驶员打哈欠检测方法。首先,建立驾驶员面部图像数据库并训练深度卷积神经网络来依次检测驾驶员的面部和鼻子;然后,采用局部二比特特征和随机森林分类器训练生成在线鼻子检测器,以此来校正光流跟踪器在鼻子跟踪过程中产生的漂移误差等参数;最后,分析鼻子下方嘴部区域的边界梯度变化情况,并结合鼻子跟踪器置信度、面部横向运动等信息来判断驾驶员是否打哈欠。实验结果表明,深度卷积网络相对于其他面部分类方法,可以获得更好的分类检测效果;基于在线学习的跟踪方法可以很好地减小光流跟踪引起的漂移误差;整个算法可以在多种驾驶环境下以较高准确率检测驾驶员打哈欠事件的发生。

关键词:卷积神经网络;光流跟踪;打哈欠检测;信息融合;二比特特征

驾驶员疲劳是造成交通事故的重要原因[1],而检测驾驶员面部疲劳信号之一的驾驶员打哈欠事件已经成为计算机视觉技术领域研究的热点。驾驶员打哈欠检测的首要任务是定位驾驶员面部,然后在面部区域检测嘴部并分析嘴角或嘴内的形状变化等。在人脸检测方面,学者们已经提出了多种不同的方法,如主成分分析法[2]、神经网络法[3]、支持向量机[4]以及建立人脸几何模型[5]等。VIOLA等[6]提出了一种基于Haar特征的人脸自适应提升训练方法(AdaBoost),获得了较好的检测效果;SOCHMAN等[7]提出的Wald-Boost算法结合序列概率原理改进了AdaBoost算法,使其具有了更高的分类检测效率;HSU等[8]通过皮肤亮度补偿以及非线性颜色变换等技术来检测面部区域,然而该方法只在静态图像上进行了测试,且在具有宽动态光照范围的真实驾驶环境中,其“真白”假设前提不再成立,很难获得可靠的检测结果;CHOI等[9]采用CDF(cumulativedistributionfuntion)分析方法定位驾驶员的瞳孔位置,然后根据检测到的驾驶员视线的变化来确定驾驶员的疲劳状态。实际上当驾驶员处于疲劳状态时,眨眼和点头的频率会显著增加,这些参数都可以用作疲劳评估的指标。

为适应真实驾驶环境,并虑及面部特征易受性别、面部朝向、光照、遮挡、面部表情以及图像尺度和图像低分辨率的影响等因素,本文提出一种基于深度卷积网络[17-18]和在线学习跟踪的驾驶员打哈欠检测方法。

系统框架如图1所示。首先,面部检测器在图像多尺度滑窗中根据深度卷积网络定位驾驶员面部区域,同时,采用基于另一深度卷积网络的鼻子检测器在面部区域定位鼻子区域;然后,通过在线学习的方法训练随机森林目标检测器,对光流跟踪器的漂移误差进行校正。有相对刚性的人脸轮廓中,嘴部区域位于鼻子下方,当打哈欠事件发生时,嘴角具有较大形变,其边缘的水平方向梯度强度值将有剧烈的增大;而驾驶过程中驾驶员经常扭头查看两侧交通状况,因此,打哈欠检测器融合了左右嘴部区域的边缘梯度值、鼻子跟踪置信度以及面部运动方向等信息综合判断是否有打哈欠事件发生。

图1驾驶员打哈欠检测系统原理框图Fig.1Pipelineofdriveryawningdetectionsystem

深度卷积网络实质上是一种多层神经网络,其融合了局部感知野、共享权重以及空间降采样等特性,不仅可以大幅减少训练参数个数,还可以对一定程度的尺度缩放、旋转以及平移等保持鲁棒性。该深度卷积网络主要由交替连接的卷积层和降采样层组成,其中卷积层本质上是由不同的局部滤波器组合而成,而最终将得到的高层级的特征向量全连接到一个神经网络上。在驾驶员面部检测过程中,可以采用大量的原始面部图像数据库进行训练。图2显示了基于深度卷积网络的驾驶员面部检测结构图。

图2用于驾驶员人脸检测的深度卷积网络的多层级结构Fig.2Multi-levelstructureofdeepconvolutionnetworkfordriverfacedetection

在图2的深度卷积网络中,输入图像统一设定为96pixel(宽)×120pixel(高)(图中简写为96×120)。第一层是一个滤波器感知野大小为4×4的卷积层,通过该卷积层,每一个输入图像得到4个特征图,其中显示了2个特征图例子。卷积层的下一层是降采样层,该层通过一个3×3的局部平均核对上一层的特征图进行空间降采样,最终其特征图像素由93pixel×117pixel降低至31pixel×39pixel,使得该卷积网络降低对于旋转和畸变的敏感度,该层中显示了3个经过降采样的特征图例子。经过三次不同的卷积层和降采样层的迭代,输入层最终演变为具有1pixel×2pixel的40个高层级特征图,因此最终形成的特征向量具有80个参数,全部连接至输出层的神经网络进行分类训练。如图2所示,每一层均由不同大小的卷积核或降采样核进行处理,形成不同个数的特征图,为简化表达,将图2所描述的深度卷积网络结构描述为96×120-4C4-3S4-4C6-2S6-3C12-2S12-3C20-2S20-2C40,其中字母C代表卷积层,字母S代表降采样层,字母前的数字为核尺寸,字母后的数字为特征图数量。

采用类似的方法设计了用于驾驶员鼻子检测的深度卷积网络架构。鼻子检测的训练图片全部来自于驾驶员人脸检测的数据集,同时鼻子的图像像素(14pixel×18pixel)远远小于驾驶员面部,且鼻子相对人脸具有较小的个体差异,因此,该深度卷积网络架构具有较少的层级结构和较少的层内滤波参数。用于驾驶员鼻子检测的深度卷积网络简化为14×18-3C6-2S6-3C10-2S10。

在确定跟踪目标的初始位置之后,需要根据目标的外观以及周围背景在线训练目标检测器。为便于实时计算,在线训练的特征应能在反映物体梯度方向性的情况下尽量保持简洁性。启发于物体检测常用训练特征Haar[6]、LBP(localbinarypattern)[21]以及HOG(histogramorientalgradient)[22]等,特设计了更简洁的二比特特征,仅通过计算水平和垂直方向灰度总和,并比较大小便可实现前述三种特征对物体梯度方向的反映,避免了大量的梯度求导运算,具有更快的运行速度。该特征反映了图像区域内的边缘梯度方向,并对该梯度方向性进行了量化,最终获得了四种可能的编码结果。如图3所示,对目标区域随机选取若干个矩形框(图3中虚线框和实线框),对矩形实线框内灰度进行编码结果为00,其中I(Ai)(i=1,2,3,4)代表选定的图像框内的第i个区域内的灰度值总和;所有虚线框内二比特特征构成当前目标图像的特征向量X=(x1,x2,…,xk),其中k是目标区域选定的矩形图像框数量,反映了特征的维度,xk是四种可能的二比特特征。

图3在目标边界框内进行局部灰度梯度方向编码的二比特特征Fig.3Binary-bitfeatureoflocalgraygradientdirectioncodinginthetargetboundingbox

为适应目标外观的动态改变,在线训练检测器的正负样本均来自于当前帧目标周围的图像块,其大小与目标大小一致。为提高在线检测器的分辨能力,只选择那些区域内部像素方差在目标图像方差一半以上的样本图像块。与目标区域的重合率大于0.7的100个图像块选为训练的正样本,重合率小于0.7的300个图像块视为训练的负样本。样本图像块与目标图像区域的重合率O的计算方法为

其中,b1和b2分别为样本图像块和目标图像区域的边界面积;∩代表图像边界框之间重叠部分的面积。

随机森林分类器是一种由多棵决策树组合而成的联合预测模型,是一种快速且有效的分类模型[23]。各决策树独立进行样本类别的预测,对所有的预测类别进行投票,票数最高的类别被选举为最终的结果。在训练中,每棵树上的叶节点记录了经过该节点的正样本的数量p和负样本数量n。而每棵决策树对每个输入图像的特征向量通过叶节点的后验概率进行类别的预测,其目标类别的后验概率

其中,k既是目标区域选定的矩形图像框数量,也代表了随机森林分类器中决策树的数量。

最终对来自所有决策树的后验概率进行均值计算,若均值大于0.5,则随机森林分类器输出类型为目标,否则为背景。而在整幅图像的扫描窗内检测单目标时,往往只选择具有最高随机森林预测概率输出的扫描窗格作为目标物体的边界框。

随机森林分类器由两个参数来决定其精度和速度:森林中决策树的数量m以及每棵决策树中包含特征的数量k。决策树的数量越多,随机森林分类器的分类性能越好,但运行的速度越慢。在本试验中,决策树数量m设定为10可以在满足实时性的同时保证分类的性能。而每棵树中所使用的特征维度k越大,随机森林分类器的判别能力越强。由于每个特征有4种可能的编码模式,因此每个决策树中叶节点的数量有4k个。在本文中,选定k为10。

采用LK光流法由帧Ft到帧Ft+1前向跟踪目标时,跟踪点坐标Pt转换为Pt+1,而Pt+1也可由LK光流法在帧Ft上得到反向虚拟跟踪点P′t。若LK光流法跟踪正确,则跟踪误差e=|Pt-P′t|应足够小,如图4所示。

根据LK光流跟踪的误差以及在线随机森林检测器的目标位置,最终目标边界框的范围为

图4LK光流跟踪误差Fig.4Opticalflowtrackingerror

其中,PLk(x,y,w,h)为LK光流法得到的纯跟踪边界框的左上角坐标(x,y)以及边界框的宽度w和高度h;POLD(x,y,w,h)为在线检测方法得到的目标边界框位置;eth为跟踪误差,其阈值为5个像素,大于此误差时认为光流法跟踪失败。

根据相邻帧得到的跟踪目标的边界框所选定的图像块bt之间的相似程度,可以大概估计目标跟踪的质量,即跟踪置信度T:

整个视频算法在公开的行人跟踪视频测试集[24]上进行了测试,并与行人的标准参考位置进行了对比,其效果如图5所示。

图5中,行人跟踪测试视频的分辨率为QVGA格式,各跟踪方法使用的测试函数(如光流、均值漂移、梯度直方图、随机森林分类器等)均采用MATLABR2014a库函数。从图5中可以明显看出,梯度直方图与均值漂移等方法的跟踪效率随着视频帧数增加逐渐降低,大部分视频帧内不能有效跟踪行人的移动,而光流法虽能根据帧差原理检测到行人移动,但跟踪效率受光照影响太大而导致大部分跟踪结果产生漂移误差,与标准参考框的重合率大部分在0.5以下,而通过在线学习的方式训练的检测器可以有效地校正光流跟踪器产生的漂移误差,在随机森林决策树数量m为10的情况下(配置1)可以显著地改善跟踪效果,能连续跟踪复杂场景下的行人目标,使得大部分视频帧的跟踪重合率大部分在0.7以上,而决策树数量m降低为8(配置2)时,跟踪重合率有所下降,如图5a所示。

图5在公开测试集上的跟踪重合率及其帧数统计直方图Fig.5Thetrackingoverlapandframehistogramonopendatasets

在通过检测跟踪获得驾驶员鼻子位置之后,可以在鼻子正下方直接选定一个区域为嘴部形变分析区域。根据经验,该嘴部区域的宽度和高度分别设定为鼻子的1.5倍和1.8倍。嘴部区域由其竖直中心线分为左右两部分,如图6所示。

当打哈欠事件发生时,在嘴角处有明显的形变发生,竖直边沿的比例增大,因此,在嘴部区域对图像进行水平和竖直方向边缘滤波器卷积,并求取绝对梯度方向在0~10°内的像素的梯度强度和:当打哈欠事件发生时,0~10°范围内的像素梯度强度和会有明显的增大。像素梯度计算方法如下:

图6两种状态嘴角梯度方向示意图Fig.6Twostateofmouthcornergradient

其中,I(x,y)为坐标点(x,y)处的像素值;θ和M分别为点(x,y)处的梯度角度值和强度值。

图7显示了在打哈欠过程中,左侧嘴角部分0~10°范围内的像素梯度强度和(在3左右浮动)相对于正常状态数值明显增大(最高可达20)。在不同的光照条件下,相同的打哈欠事件的梯度强度和应该会有较大的差异。为在不同光照场景下确定不同嘴型打哈欠检测的统一阈值,需要将所有嘴部区域大小正则化至同一尺度(36×46),亮度值均由0~255正则化至0~1范围内。然而,当外界光照强烈变化时,跟踪质量急剧下降,此时无法分析嘴角梯度强度;当驾驶员扭头观察两侧车流时,嘴部区域往往包含面部与背景之间的竖直边沿,这为嘴角梯度强度的分析造成了极大的干扰。图8显示了车辆通过桥梁下方时光照的突变导致鼻子跟踪失败的情景。很明显,由于鼻子跟踪失败导致嘴部区域的误判,在右侧嘴角处面部与背景之间形成了较长的竖直边沿,使得右侧嘴角0~10°内的梯度强度和增大至29.40,该值远远大于左侧嘴角的8.7,同时右侧嘴角10°~20°范围内的梯度强度和18.61也远大于左侧梯度强度和3.68,而鼻子跟踪置信度降低至0.5743,但此时并没有明显的嘴部打哈欠事件发生。

图7正常状态和打哈欠状态(矩形框内)下左侧嘴角0~10°范围内梯度强度和Fig.7Gradientintensityin0~10degreeofleftmouthcornerinnormalandyawningstate(rectanglebox)

为获得打哈欠检测的精确描述,在进行嘴角梯度强度分析的同时,引入鼻子跟踪置信度以及面部横向运动等信息以作综合判断。设定打哈欠判别值YD来融合以上三种信息:

图8车辆通过桥梁时面部目标跟踪失败后的左右侧嘴部梯度强度和的对比Fig.8Comparisonsofgradientintensityofleftandrightmouthcornersafterfailureoffacialtrackingwhenvehiclepassbridge

其中,SL和SR分别为尺寸亮度正则化后的左右两侧嘴部区域0~10°范围内梯度强度和,T为鼻子跟踪器输出的跟踪置信度,Tth为可靠跟踪的置信度阀值,设定为0.6。当跟踪失败时,T值为0。而面部运动方向可以通过跟踪过程中的鼻子中心位置进行判断:如果鼻子中心横向像素值突然增大,则代表驾驶员面部向右运动;反之,则代表驾驶员面部向左运动,即

其中,vh和vth分别为驾驶员鼻子中心横向运动速度(横向坐标的帧间差分值)及其速度阈值。

驾驶员面部分类数据库图像截取于本实验室内9名驾驶员的行车视频,以及公开的打哈欠测试视频YawDD[25]中的89个驾驶视频,该数据库共有52344个正样本图像以及108323个负样本图像,样本图像大小为96pixel×120pixel,图9显示了部分正样本示例。

图9驾驶员面部数据库正样本示例Fig.9Positivesamplesofdriverfacialdatabase

从图9可以看出,驾驶员面部数据库正样本中包含多种光照条件下的不同面部角度的驾驶员面部图像。训练和测试均经过图2所示的卷积神经网络配置下的十折交叉验证,其中图2中的参数配置为缺省配置。为对比深度卷积网络的训练检测性能,分别设定了另外两种不同配置的深度卷积网络架构:第一种与本文缺省配置具有同样的网络层数,但每层具有更多的特征图数量,其网络结构简化为96×120-4C4-3S4-4C8-2S8-3C16-2S16-3C32-2S32-2C64,该网络架构称为“多特征图网络”;第二种较本文缺省配置仅缺少最后一层降采样层,其他层数配置相同,其网络结构简化为96×120-4C4-3S4-4C6-2S6-3C12-2S12-3C20-2S20,该网络称为“少一卷积层网络”。图10显示了三种方法下驾驶员面部检测深度卷积网络的ROC(receiveroperatingcharacteristic)性能曲线。

图10不同深度卷积网络配置下的驾驶员面部分类ROC曲线Fig.10TheROCcurvesofdriverfacialclassificationwithdifferentdeepnetworkconfigurations

从图10可以看出,具有相同网络层数的情况下,多特征图网络相对于本文缺省配置具有更好的分类性能,但性能改善效果一般;而本文缺省配置若缺少一层网络配置,则其性能下降较为明显。表1显示了三种方法在同一工作站(配置酷睿i5-6500CPU和MATLABR2014a)上的训练开销和测试精度。

表1不同深度卷积网络配置下的训练开销和测试精度Tab.1Trainingoverheadandtestaccuracywithdifferentdeepnetworkconfigurations

图11用于驾驶员面部图像分类的深度卷积网络与Boost算法的ROC曲线性能比较Fig.11PerformancecomparisonofROCcurvesbetweendepthconvolutionnetworkandBoostalgorithmfordriverfaceimageclassification

图12车辆通过桥梁下方时跟踪失败引起的打哈欠误警事件的典型视频序列截图Fig.12Typicalvideosequencesofyawningerroralerteventscausedbytrackingfailurewhenvehiclespassunderbridges

另一种易引起误警率的现象是驾驶员行车过程中扭头引起的嘴部区域选择误差。图14显示了驾驶员面部在视频331~385帧中转向右侧时右侧嘴角梯度强度与鼻子中心横向位置分析。

图13跟踪质量下降时的驾驶员打哈欠检测的多数据分析Fig.13Multi-dataanalysisofyawningdetectionwhenthetrackingqualityisdegrading

图14驾驶员扭头时的打哈欠检测的多数据分析Fig.14Multi-dataanalysisofyawningdetectionwhendriverturninghead

在图14所示的视频序列中,打哈欠事件发生在517~645帧之间,如矩形实线区域所示,然而仅进行梯度强度分析将在331~382帧之间引入误警,如矩形虚线区域所示,此段区间内驾驶员面部转向右侧,如图14b所示。因此有必要综合考虑嘴部区域的梯度强度、鼻子跟踪置信度以及驾驶员面部运动方向等信息来确定是否有打哈欠事件发生。

图15显示了图13和图14两个视频序列内对应的打哈欠判别值YD的变化情况。

图15图13和图14对应的视频序列内的打哈欠判别值YD的变化情况Fig.15ThechangesofyawningdiscriminationvalueYDinFig.13andFig.14videosequences

图15中,在打哈欠事件发生时,YD可以智能化地选择左侧或右侧嘴部区域作为分析对象,从而在图15a和图15b分别显示了图13和图14视频序列内打哈欠事件发生时YD值的明显增大,可以通过左侧区域的恒虚警率自适应阈值[26]检测到矩形实线框内打哈欠事件的发生,且最大限度地降低了误警事件发生的可能性。该驾驶员打哈欠检测方法在YawDD视频集[25]上进行了测试,打哈欠检测成功率达到93.7%,远高于文献[25]中60%的检测成功率。本方法仍未达到完全的检测效率,其主要原因在于:①少量视频内驾驶员打哈欠时面部有旋转,在鼻子正下方无法准确选定嘴部区域;②少量视频内驾驶员打哈欠时有用手遮挡面部的习惯,导致面部跟踪失败或嘴部区域无法定位。

(1)根据交通场景复杂多变、光照强度变化范围大、驾驶员面部特征个体差异大的特点,设计了深度卷积网络架构对驾驶员面部进行分类检测,根据其监督式训练学习机制,可以深度提取面部的主要特征,使得该分类网络获得较为理想的分类检测效果。

(2)设计了低维的局部二比特特征,同时利用该类特征在线训练了随机森林面部目标检测器,将其与传统的光流跟踪器搭配,可以克服光流跟踪器易受光照影响的缺点,弥补了光流跟踪器的漂移误差。整个在线学习跟踪算法可以通过跟踪置信度反映跟踪质量。

(3)采用统计方式分析了嘴角区域的梯度强度,可以避免低分辨率下直接定位嘴角的困难;同时,在驾驶视频测试集上的实验结果证明,结合鼻子跟踪器置信度以及面部运动方向等综合判断驾驶员打哈欠行为,在提高检测正确率的同时也降低了误警事件发生的可能。

参考文献:

[1]李家文,成波.驾驶员疲劳状态适应式复合预警方法的研究[J].汽车工程,2012,34(3):211-216.LIJiawen,CHENGBo.AStudyontheAdaptiveMultipleWarningsSchemeforDriverDrowsiness[J].AutomotiveEngineering,2012,34(3):211-216.

[2]LIUChengjun.Gabor-basedKernelPCAwithFractionalPowerPolynomialforFaceDetection[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2004,26(5):572-581.

[3]FERAUNDR,BERNIERQJ,VIALLETJE,etal.AFastandAccurateFaceDetectorBasedonNeuralNetwork[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2001,23(1):42-53.

[4]祝海龙,屈梁生,张海军.基于小波变换和支持向量机的人脸检测系统[J].西安交通大学学报,2002,36(9):947-950.ZHUHailong,QULiangsheng,ZHNAGHaijun.FaceDetectionBasedonWaveletTransformandSupportVectorMachine[J].JournalofXi’anJiaotongUniversity,2002,36(9):947-950.

[5]CASTRILLONM,DENIZO,GUERRAC,etal.ENCARA2:Real-timeDetectionofMultipleFacesatDifferentResolutionsinVideoStreams[J].JournalofVisualCommunicationandImageRepresentation,2007,18:130-140.

[6]VIOLAP,JONESMJ.RobustReal-timeFaceDetection[J].InternationalJournalofComputerVision,2004,57(2):137-154.

[7]SOCHMANJ,MATASJ.WaldBoost-LearningforTimeConstrainedSequentialDetection[C]//IEEEComputerSocietyConferenceonComputerVisionandPatternRecognition(CVPR).Diego:IEEE,2005:150-156.

[8]HSURL,ABDELMOTTALEBM,JAINAK.FaceDetectioninColorImages[J].IEEETransactionsonPatternAnalysisandMachineIntelligence,2002,24(5):696-706.

[9]CHOIIH,KIMYG.HeadPoseandGazeDirectionTrackingforDetectingaDrowsyDriver[C]//IEEEInternationalConferenceonBigData&SmartComputing.Bangkok,2014:241-244.

[10]SHABNAMA,BEHBOOSHH,SHERVINS.DriverDrowsinessMonitoringBasedonYawningDetection[C]//IEEEInstrumentationandMeasurementTechnologyConference(I2MTC).Binjiang,2011:1-4.

[11]MANDALAPUS,PREETIB.DriverFatigueDetectionUsingMouthandYawningAnalysis[J].InternationalJournalofComputerScienceandNetworkSecurity,2008,8(6):183-188.

[12]童兵亮.基于嘴部状态的疲劳驾驶和精神分散状态监测方法研究[D].长春:吉林大学,2004.TONGBingliang.StudyontheMonitoringMethodforDriver’sFatigueandDistractionBasedonMouthState[D].Changchun:JilinUniversity,2004.

[13]SHABNAMA,SHERVINS,BEHBOOSHH,etal.AYawningMeasurementMethodUsingEmbeddedSmartCamera[C]//2013IEEEInternationalConferenceonInstrumentationandMeasurementTechnology.Minneapolis,2013:1605-1608.

[14]NENOITA,CAPLIERA.FusingBio-inspiredVisionDataforSimplifiedHighLevelSceneInterpretation:ApplicationtoFaceMotionAnalysis[J].ComputerVisionandImageUnderstanding,2010,114:774-789.

[15]FANXiao,YINBC,SUNYF.YawningDetectionforMonitoringDriverFatigue[C]//2007IEEEInternationalConferenceonMachineLearning&Cybernetics.Hongkong,2007:664-668.

[16]HYUNYangji,LIMS.DriverStateEstimationbyConvolutionalNeuralNetworkUsingMultimodalSensorData[J].ElectronicsLetters,2016,52(17):1495-1497.

[17]CIRE爧ANDC,MEIERU,GAMBARDELLALM,et.al.Big,SimpleNeuralNetsforHandwrittenDigitRecognition[J].NeuralComputation,2010,22(12):3207-3220.

[18]YANNL,KORAYK,CLMENTF.ConvolutionalNetworksandApplicationsinVision[C]//InternationalSymposiumonCircuitsandSystems.Paris,2010:253-256.

[19]MATURANAD,MERYD,SOTOA.FaceRecognitionwithLocalBinaryPatterns,SpatialPyramidHistogramsandNaiveBayesNearestNeighborClassification[C]//InternationalConferenceoftheChileanComputerScienceSociety.Chile,2009:125-132.

[20]ALBERTOA,DAVIDM,ANTOINEMetal.FaceRecognitionUsingHOG-EBOM[J].PatternRecognitionLetters,2008,29(10):1537-1543.

[21]李平岐,陈万春,邢晓岚.复杂背景下运动目标的检测与跟踪[J].红外与激光工程,2007,36(增刊2):182-186.LIPingqi,CHENWanchun,XINGXiaolan.DetectionandTrackingofMovingObjectinComplexBackground[J].InfraredandLaserEngineering,2007,36(S2):182-186.

[22]李光,金学波.基于张量梯度直方图的MeanShift跟踪算法[J].浙江理工大学学报,2009,26(6):880-885.LIGuang,JINXuebo.MeanShiftTrackingAlgorithmBasedonTensorGradientHistogram[J].JournalofZhejiangSci-TechUniversity,2009,26(6):880-885.

[23]刘足华,熊惠霖.基于随机森林的目标检测与定位[J].计算机工程,2012,38(13):5-8.LIUZuhua,XIONGHuilin.ObjectDetectionandLocalizationBasedonRandomForest[J].ComputerEngineering,2012,38(13):5-8.

[24]KWONJ,LEEKM.VisualTrackingDecomposition[C]//IEEEConferenceonCompnterVisionandPatternRecognition.SanFrancisco,2010:1269-1276.

[25]SHABNAMA,MONAO,SHERVINS,etal.YawDD:AYawningDetectionDataset[C]//Proceedingsofthe5thACMMultimediaSystemsConference.NewYork,2014:24-28.

[26]刘盼芝,韩崇昭.分布式自动删除平均恒虚警率检测技术[J].自动化学报,2007,35(7):903-910.LIUPanzhi,HANChongzhao.DistributedAutomaticCensoredCell-averagingCFARDetector[J].ActaAtuomaticSinica,2007,35(7):903-910.

DriverYawningDetectionBasedonDeepConvolutionalNetworkandTrackingwithOnlineLearning

ZHANGWeiwei1MIZeyang1XIAOLingyun2QIANYubin11.SchoolofMechanicalandAutomotiveEngineering,ShanghaiUniversityofEngineeringScience,Shanghai,2016202.ChinaNationalInstituteofStandardization,Beijing,100191

Abstract:Amethodfordriveryawningdetectionwasproposedbasedonmulti-informationfusion.Firstly,thedriverfacedatabasewasbuilt,andthedeepconvolutionalneuralnetworkwastrainedfordriverfaceandnosedetectioninsequence.Secondly,anonlinenosedetectorwasgeneratedthroughtrainingarandomforestclassifierwithlocalbinaryfeature,whichwasintroducedtocompensatethenosetrackingerrorscausedbyopticalflow-basednosetracker.Atlast,theedgegradientchangeswereanalyzedinthemouthareaunderthenose.Theinformationslikenosetrackingconfidenceandfacelateralmovementwerecombinedtodeterminethedriverswereyawning.Theexperimentalresultsshowthat,comparedwithotherfaceclassificationmethod,thedeepconvolutionnetworkmayobtainbetterclassificationdetectioneffectiveness.Theonlinelearning-basedtrackingmethodmayreducethedrifterrorsgreatlyintroducedbytheopticalflow-basedtracker.Thewholealgorithmmaydetectdriveryawningeventwithsatisfactoryaccuracyunderdifferentdrivingconditions.

Keywords:convolutionalneuralnetwork;opticalflowtracker;yawningdetection;informationfusion;binaryfeature

中图分类号:U471.15;TP29

DOI:10.3969/j.issn.1004-132X.2019.08.004开放科学(资源服务)标识码(OSID):

收稿日期:2018-01-15

基金项目:国家重点研发计划资助项目(2016YFC0800702-1);国家自然科学基金资助项目(51805312,51675324,51575169);中央高校基本科研业务费专项资金资助项目(282019Y-6694,282018Y-5976)

(编辑王艳丽)

作者简介:张伟伟,男,1987年生,博士、讲师。研究方向为智能网联汽车、图像处理、计算机视觉。发表论文10余篇。E-mail:zwwhnu@163.com。肖凌云(通信作者),男,1980年生,博士。研究方向为车辆先进主动安全评价理论、标准与应用。E-mail:xiaoly@dpac.gov.cn。

THE END
1.腾讯音乐娱乐科技申请神经网络模型训练专利,得到适用于终端的神经腾讯音乐娱乐科技申请神经网络模型训练专利,得到适用于终端的神经网络模型 快报金融界灵通君 北京 0 打开网易新闻 体验效果更佳猎豹饿肚子一周,为了活着牺牲太多,强者从不抱怨环境! 爱搞笑的晨晨 1212跟贴 打开APP 猥琐之王封神之作,学长任昌丁花式追女神,让人看得又笑又哭 小古趣影 481跟贴 打开APP 严格追究https://m.163.com/v/video/VPI2DMLA6.html
2.利用EdgeImpulse在线网站自行训练神经网络进行分类识别而基于STM32H7的OpenMV机器视觉模组和云端AI平台Edge Impulse合作,就很好的打通了从数据收集、打标,NN模型训练、优化到部署的整个流程。 去年4月份我们的新品OpenMV4 H7 Plus上市啦,今天我来给大家介绍一下OpenMV4 H7 Plus的新功能——利用EdgeImpulse在线网站自行训练神经网络进行分类识别。 https://www.elecfans.com/d/1532483.html
3.随时间在线训练脉冲神经网络模型的图像数据分类方法与流程10.为了克服上述现有技术的不足,本发明提供一种基于随时间在线训练的脉冲神经网络模型进行图像视觉数据分类的方法,方法取名为ottt(online training through time)。通过本发明提供的方法,可以在训练snn模型时极大地减小训练内存的开销,将训练得到的模型用于计算机图像数据和神经形态图像视觉数据的分类与识别等视觉任务,能够https://www.xjishu.com/zhuanli/55/202210694741.html
4.如何训练YOLOv5神经网络(本地+云端)yolo在线训练1. 本地上训练YOLOv5 # 指定好训练好的模型的路径,然后用这个训练好的模型来初始化我们网络当中的参数,一般训练时都是一开始来进行训练,即default为空 # default='' Yolov5s.pt Yolov5m.pt Yolov5l.pt Yolov5x.pt parser.add_argument('--weights', type=str, default='', help='initial weights https://blog.csdn.net/m0_52127604/article/details/124810089
5.精雕细琢:如何训练一个卷积神经网络在线免费阅读前一章讲解了如何构建一个卷积神经网络,如何使一个卷积神经网络达到期望的分类或预测效果,这就需要对网络进行合理的训练。本章将结合案例介绍卷积神经网络训练的方法、步骤和技巧。 3.1 基本概念一点通 从数学角度看,机器学习的目标是建立起输入数据与输出的函数关系,如果用x代表输入数据、用y代表输出,机器学习的目标https://fanqienovel.com/reader/7109745755388120079
6.机器学习术语表:机器学习基础知识MachineLearningGoogle训练神经网络涉及多次迭代以下两步循环: 在正向传递期间,系统会处理一批用于生成预测结果的样本。系统会将每个 根据每个标签值进行预测。两者的区别在于 预测值,标签值是该样本的损失。 系统会汇总所有样本的损失,以计算总的 当前批次的损失。 在反向传播(反向传播算法)期间,系统会通过以下方式减少损失: 调整所有神经元https://developers.google.cn/machine-learning/glossary/fundamentals?hl=zh-cn
7.智能车竞赛技术报告智能车视觉中国矿业大学我们独立完成了控制方案及系统设计,包括电磁信号采集处理、赛道图像信号采集处理、循迹控制算法及执行、动力电机驱动、十分类神经网络训练、靶标图片识别、单片机之间通信等,最终实现了具有 AI视觉功能的基于电磁与摄像头的快速寻迹智能车控制系统。 智能车是一个软硬件与机械相结合的整体,其中硬件主要包括电源模块、电机https://www.eefocus.com/article/503552.html
8.科学网—[转载]群视角下的多智能体强化学习方法综述通过训练神经网络参数化的策略,能够以完全分散的方式控制集群中的单个无人机。仿真实验展示了先进的群集行为,在紧密队形中执行攻击性机动,同时避免相互碰撞,打破和重新建立队形以避免与移动障碍物碰撞,并在“追赶—逃避”任务中有效协作。此外,模拟环境中学习到的模型可以成功部署到真实的四旋翼无人机上。 2.6 可扩展https://blog.sciencenet.cn/home.php?mod=space&uid=3472670&do=blog&id=1422698
9.带惩罚项的BP神经网络在线梯度法带惩罚项的BP神经网络在线梯度法,BP神经网络,惩罚项, 在线梯度法, 有界, 收敛,多层前传神经网络在许多领域有着广泛的应用。网络的泛化能力,即网络在训练集以外的样本上的精度,是标志神经网络性能的一个重要https://wap.cnki.net/touch/web/Dissertation/Article/2004094593.nh.html
10.2020年最值得收藏的60个AI开源工具语言&开发李冬梅你可以用开发者训练好的深度神经网络来编辑所有类型的人脸照片。SC-FEGAN 非常适合使用直观的用户输入与草图和颜色生成高质量的合成图像。 项目地址:https://github.com/JoYoungjoo/SC-FEGAN LazyNLP (用于创建海量文本数据集) LazyNLP 的使用门槛很低——用户可以使用它爬网页、清洗数据或创建海量单语数据集。 https://www.infoq.cn/article/2uabiqaxicqifhqikeqw
11.基于机器学习的自适应码率算法的进一步探索与改进2、改善训练效率,在线终身学习 第二个挑战来自强化学习的低训练效率。在强化学习方案中,智能体通过与环境交互获得{状态,动作,回报}集合,随后通过学习增大每次动作获得的回报。然而,在学习过程中,智能体无法获取在当前状态下的最优动作,因此不能为神经网络提供准确的梯度方向更新,基于强化学习的ABR算法也遭受着这个缺点https://www.thepaper.cn/newsDetail_forward_8338381
12.分析股市预测的深度学习技术持续学习是一种用于连续地学习用于若干任务的模型同时牢记从较早任务学习的信息的技术,其中在训练新任务期间旧任务中的数据不再可用。因此,持续学习允许神经网络在股票预测的不同任务中连续地积累知识并且减轻灾难性遗忘。对于股票预测任务,深度模型主要在静态均匀分布的数据集上进行训练,这些数据集无法随时间调整或扩展其https://maimai.cn/article/detail?fid=1810610871&efid=k8hnL1-NvJ2kAfW8I85mSg
13.7.3.2用Deeplearning4j训练卷积神经网络.pdf范东来7.3.2用Deeplearning4j训练卷积神经网络.pdf-范东来-人民邮电出版社 关闭预览 想预览更多内容,点击免费在线预览全文 免费在线预览全文 254第7章Spark深度学习:Deeplearning4j络的感受野以一个像素的步长进行滑动,C1层选用了6种卷积核,代表了6种特征。从这里可以看出,卷积层的 https://max.book118.com/html/2021/0819/7031135200003162.shtm
14.机器学习:使用批归一化有哪些缺点?典型的在线学习管道 由于它依赖于外部数据源,数据可以单独到达,也可以成批到达。由于每次迭代中batch size的变化,它不能很好地概括输入数据的规模和shift,这最终会影响性能。 不适用于循环神经网络 在卷积神经网络中,尽管批归一化可以显著提高训练速度和泛化能力,但事实证明,它们很难应用于循环体系结构。批归一化可以应https://www.51cto.com/article/616760.html