基于长短时记忆卷积神经网络的刀具磨损在线监测模型

何彦1凌俊杰1王禹林2李育锋1吴鹏程1肖圳1

1.重庆大学机械传动国家重点实验室,重庆,4000442.南京理工大学机械工程学院,南京,210094

关键词:刀具磨损监测;长短时记忆神经网络;卷积神经网络;特征提取

图1基于LSTM-CNN的刀具磨损在线监测框架Fig.1Theframeworkofin-processtoolwearmonitoringbasedonLSTM-CNN

图2LSTM-CNN网络结构Fig.2ThenetworkstructureofLSTM-CNN

在LSTM-CNN中,为了避免样本数据中异常数据的存在导致网络无法收敛,提高网络的学习速度和泛化能力,需要对原始数据进行标准化处理。本文采用Z-score方法对原始数据进行标准化处理。Z-score进行标准化处理方法如下:

(1)

式中,x为原始数据;μ为原始数据的均值;σ0为原始数据的方差;Z为经过标准化处理后的数据,将Z作为LSTM神经网络的直接输入。

将标准化后的序列数据输入LSTM神经网络中进行序列建模和序列特征提取,LSTM神经网络在RNN的基础上引入了遗忘门、输入门和输出门以控制沿序列传递的信息,这些信息可以更准确地捕获长时依赖,缓解梯度消失或梯度爆炸问题。LSTM神经网络中的细胞状态和隐层状态更新公式如下:

(2)

将LSTM神经网络在终点时刻的输出hT作为CNN的输入,CNN的输入依次通过卷积1、最大池化、卷积2、卷积3进行多维度特征提取,卷积过程如图3和下式所示:

图3卷积过程Fig.3Theprocessofconvolution

(3)

其中,w为卷积核,其形状为二维矩阵,wm,n为卷积核矩阵中第m行、第n列的元素值;hT为卷积层输入,为矩阵形式,hTi+m,j+n表示卷积层输入矩阵hT中第i+n行、第j+m列的元素值,b为偏置项,f为Relu激活函数。

为使卷积后的多维特征图形状与输入特征图保持一致,在卷积前先进行零填充,为提高网络的鲁棒性和泛化能力,减小网络规模,提高训练速度,在CNN中加入最大池化操作。最大池化操作如图4所示。

图4最大池化操作Fig.4Maximumpoolingoperation

CNN的输出作为回归层的输入实现了特征到刀具磨损值的映射,特征到刀具磨损的映射如下:

(4)

式中,为刀具磨损预测值;wR为回归层特征权重参数矩阵;Ak为CNN输出的特征。

在本文中,由于网络最终输出为刀具后刀面磨损值,是一个连续变量,因此将网络最终的输出维度设为1。

在LSTM-CNN模型中,参数Wf、Wi、WC、WO、bf、bi、bC、bO、w、b和回归层特征权重参数矩阵wR需要通过模型训练学习得到,因此需要通过训练数据对模型进行训练以获取模型中的最优参数,模型训练流程如图5所示。首先,将采集的全部数据分为训练数据集和测试数据集,在本文中将C1、C4和C6数据集合并,随机选取数据总量的80%作为训练集用于模型训练获取最优模型参数,其余数据作为测试数据集用于评估模型的性能。模型训练使用Adam算法最小化损失函数,损失函数定义如下:

(5)

图5模型训练流程图Fig.5Theflowchartofmodeltraining

将模型预测值与真实刀具磨损值yk的均方差作为损失函数,n表示训练样本数据的数量,Eloss表示损失函数值,模型训练的目标是使Eloss最小。模型训练过程中,根据随机训练次数增加损失函数是否减小来判断损失函数是否收敛,若损失函数不收敛,对模型进行调整后再继续训练,若损失函数收敛,则将训练好的模型使用测试数据进行模型预测;通过比较预测结果与真实值的平均绝对误差Pmae和均方根误差Prmse判断模型的效果,Pmae和Prmse的表达式如下:

(6)

(7)

若Pmae和Prmse值较大,则模型存在过拟合,需再调整模型进行训练;若Pmae与Prmse值较小,则模型具有较高的精度,保存模型用于生产环境。

为了验证基于双向RNN的刀具磨损在线监测模型的有效性,本文采用2010年美国PHM协会举办的刀具剩余使用寿命预测竞赛的公开数据集进行实验[15]。实验所用主要设备及加工参数如表1和表2所示。

表1实验主要设备

Tab.1Themainequipmentsofexperiment

机床力传感器振动传感器声发射传感器R?dersTechRFM760Kistler三分量测力计Kistler三轴加速度传感器Kistler声发射传感器Kistler电荷放大器NIDAQPCI1200LEICAMZ12球头硬质合金铣刀放大器数采设备磨损测量设备刀具

表2实验加工参数

Tab.2Themachiningparametersofexperiment

主轴转速(r/min)进给速度(mm/min)Y向切削深度(mm)Z向切削深度(mm)1040015550.1250.2铣削方式冷却方式工件材料顺铣干切不锈钢HRC52

图6铣削实验设备与结构Fig.6Theequipmentandstructureofmillingexperiments

为了验证提出的基于LSTM-CNN刀具磨损在线监测模型的有效性及优越性,本文使用相同的数据集对以下方法进行了比较:

(1)线性回归[16](linearregression,LR)模型:通过对原始信号进行特征提取,使用线性回归模型进行预测;

(2)CNN:使用卷积神经网络进行刀具磨损预测;

(3)LSTM神经网络:使用长短时记忆网络对刀具磨损进行预测;

(4)LSTM-CNN(32):使用隐藏层神经元数目为32的长短时记忆卷积网络对刀具磨损进行预测;

(5)LSTM-CNN(64):使用隐藏层神经元数目为64的长短时记忆卷积网络对刀具磨损进行预测;

(6)LSTM-CNN(128):使用隐藏层神经元数目为128的长短时记忆卷积网络对刀具磨损进行预测;

(7)BD-GRU(bi-directionalgatedrecurrentunit,BD-GRU)[17]:使用双向门控循环单元对刀具磨损进行预测;

(8)DH-GRU(deepheterogeneousgatedrecurrentunit,DH-GRU)[17]:使用深度异构门控循环单元对刀具磨损进行预测。

由于回归模型不能处理序列数据,因此需要先进行特征提取。从原始信号中提取时域、频域和时频域特征具体的特征与文献[16]中使用的特征相同,最后得到一个54维的特征向量,输入线性回归模型中预测刀具磨损。

在CNN、LSTM神经网络、LSTM-CNN模型中,可以将原始数据直接输入,因此不用人工进行特征提取。考虑到采样频率非常高,达到50kHz,导致每个样本数据的长度都超过100000,因此对样本数据进行采样得到长度为100,维度为7的新样本数据。在CNN模型中,通过3层卷积操作和1层池化操作提取64维空间特征,将特征输入回归层实现刀具磨损预测;在LSTM神经网络中,设置隐藏层神经元的数目为64,提取64维的序列特征输入回归层;在LSTM-CNN网络模型中,隐藏层神经元数目对模型的复杂度和性能表现影响较大,为了比较不同参数设置下模型的性能,LSTM-CNN中隐藏层神经元数目分别设置为32、64和128,在卷积操作中,相同感受野的情况下采用较小卷积核可以减少模型的参数个数和降低计算复杂度,卷积步长代表了特征提取的精度,步长越小精度越高,因此,卷积核大小设置为(3,3),卷积步长为1;池化可对提取到的特征信息进行降维,为了不使特征维度过小影响模型精度,将池化大小设置为(2,2),池化步长设置为2,最终提取到多维特征并输入回归层。为了提高上述模型的鲁棒性,在回归层之前加入Dropout操作并且将保留比例keep_prob设置为0.8。

基于TensorFlow框架建立LR、CNN、LSTM神经网络和LSTM-CNN模型,使用训练集进行模型的训练,在测试集上进行模型的评估。各模型的Pmae和Prmse如表3和表4所示。CNN、LSTM和LSTM-CNN在不同数据集下对刀具磨损预测的表现如图7~图11所示。

表3各模型在数据集上的Pmae

Tab.3ThePmaeofeachmodelonthedataset

模型结构数据集C1C4C6LR[16]特征值→回归模型→预测值24.416.324.4CNN输入→卷积→池化→卷积→卷积→全连接→预测值6.2757.0887.273LSTM输入→LSTM→全连接→预测值4.0824.3776.133LSTM-CNN(32)输入→LSTM(32)→卷积→池化→卷积→卷积→全连接→预测值2.3132.4893.265LSTM-CNN(64)输入→LSTM(64)→卷积→池化→卷积→卷积→全连接→预测值1.6571.8052.312LSTM-CNN(128)输入→LSTM(128)→卷积→池化→卷积→卷积→全连接→预测值1.7051.6752.410BD-GRU[17]输入→BD-GRU→预测值5.087.7424.89DH-GRU[17]输入→DH-GRU→预测值3.707.075.08

表4各模型在数据集上的Prmse

Tab.4ThePrmseofeachmodelonthedataset

模型结构数据集C1C4C6LR[16]特征值→回归模型→预测值31.119.330.9CNN输入→卷积→池化→卷积→卷积→全连接→预测值8.2749.8559.907LSTM输入→LSTM→全连接→预测值5.4955.8878.535LSTM-CNN(32)输入→LSTM(32)→卷积→池化→卷积→卷积→全连接→预测值3.2043.4794.849LSTM-CNN(64)输入→LSTM(64)→卷积→池化→卷积→卷积→全连接→预测值2.2952.8083.353LSTM-CNN(128)输入→LSTM(128)→卷积→池化→卷积→卷积→全连接→预测值2.3292.4763.471BD-GRU[17]输入→BD-GRU→预测值6.869.6327.07DH-GRU[17]输入→DH-GRU→预测值4.668.736.94

(a)C1(b)C4(c)C6图7CNN模型在数据集C1、C4、C6上的预测结果Fig.7PredictionresultsofCNNmodelondatasetsC1,C4andC6

(a)C1(b)C4(c)C6图8LSTM模型在数据集C1、C4、C6上的预测结果Fig.8PredictionresultsofLSTMmodelondatasetsC1,C4andC6

(a)C1(b)C4(c)C6图9LSTM-CNN(32)模型在数据集C1、C4、C6上的预测结果Fig.9PredictionresultsofLSTM-CNN(32)modelondatasetsC1,C4andC6

(a)C1(b)C4(c)C6图10LSTM-CNN(64)模型在数据集C1、C4、C6上的预测结果Fig.10PredictionresultsofLSTM-CNN(64)modelondatasetsC1,C4andC6

通过表3和表4的实验结果对比可以发现,在所有模型中LR模型的表现最差,导致这种现象的原因,一方面是人为提取特征可能会丢失原始数据中的某些有用信息,另一方面是由于线性模型在非线性拟合上的局限性。

对比表3和表4中的实验结果可知,与线性模型相比,深度学习模型在刀具磨损预测中性能有了较大的提升,深度学习模型在刀具预测上表现优秀,表明通过深度学习模型对原始数据进行特征提取能从原始信号中挖掘更深层和更全面的

(a)C1(b)C4(c)C6图11LSTM-CNN(128)模型在数据集C1、C4、C6上的预测结果Fig.11PredictionresultsofLSTM-CNN(128)modelondatasetsC1,C4andC6

特征信息,证明了深度学习模型在刀具磨损监测领域应用的可行性和有效性。

表3、表4、图10、图11的实验结果表明,在不同隐藏层神经元数目设置下的LSTM-CNN模型中,将隐藏从神经元数目设置为64的模型具有最佳的效果,相较于隐藏层神经元数目为32模型,LSTM-CNN(64)在不同数据集上的平均绝对误差Pmae和均方根误差Prmse有了较大的提升。然而进一步增加隐藏层神经元的数目,将其设置为128,发现LSTM-CNN(128)在数据集C4上有较小的提升,但是在数据集C1和C6上反而有所下降,表明再增加隐藏层神经元的数目对模型性能的提升效果不太显著,同时会增加模型的参数个数和计算复杂度。因此,在LSTM-CNN中将隐藏层的神经元数目设为64,模型的性能最佳。

对比表3和表4中LSTM-CNN、双向门控循环单元(BD-GRU)和深度异构门控循环单元(DH-GRU)在各数据集上的表现可以发现,本文提出的LSTM-CNN模型在不同的隐藏层神经元数目设置下,在各数据集上的性能表现优于文献[17]中提出的BD-GRU模型和DH-GRU模型。造成这样现象的原因可能在于BD-GRU模型和DH-GRU模型未考虑数据的多维度特性,提取的特征不够全面。因此,本文提出的LSTM-CNN刀具磨损在线监测模型在国内外同类研究中具有一定的优越性和先进性。

从图7~图11的实验结果中可以发现,LSTM-CNN模型能够很好地反映真实刀具磨损值的变化,在隐藏层神经元数目设置为64时模型的性能最佳,同时模型的预测值与刀具磨损的真实值间的误差很小,验证了提出的基于LSTM-CNN刀具磨损在线监测模型的有效性及优越性,同时表明提出的LSTM-CNN模型在刀具磨损监测的精度上有了较大的提高。

目前,该模型只在铣削加工上进行了验证,在后续的研究中可以考虑在车削等加工中的应用,也可考虑增加模型训练数据的规模进一步提高模型的精度。

参考文献:

[1]ANTICA,POPOVICB,KRSTANOVICL,etal.NovelTexture-basedDescriptorsforToolWearConditionMonitoring[J].MechanicalSystemsandSignalProcessing,2018,98:1-15.

[2]ELSHEIKHA,YACOUTS,OUALIMS.BidirectionalHandshakingLSTMforRemainingUsefulLifePrediction[J].Neurocomputing,2019,323:148-156.

[3]JOSEV,FERNANDOR.AReviewofMachiningMonitoringSystemsBasedonArtificialIntelligenceProcessModels[J].InternationalJournalofAdvancedManufacturingTechnology,2010,47(1/4):237-257.

[4]WANGJinjiang,XIEJinyao,ZHAORui,etal.MultisensoryFusionBasedVirtualToolWearSensingforUbiquitousManufacturing[J].RoboticsandComputer-integratedManufacturing,2017,45:47-58.

[5]ZHAORui,YANRuqiang,CHENZhenghua,etal.DeepLearningandItsApplicationstoMachineHealthMonitoring[J].MechanicalSystemsandSignalProcessing,2019,115:213-237.

[6]BABUG,ZHAOP,LIX.DeepConvolutionalNeuralNetworkBasedRegressionApproachforEstimationofRemainingUsefulLife[J].DatabaseSystemsforAdvancedApplications,2016,9642:214-228.

[7]SHINH,ROTHH,GAOM,etal.DeepConvolutionalNeuralNetworksforComputer-aidedDetection:CNNArchitectures,DatasetCharacteristicsandTransferLearning[J].IEEETransactionsonMedicalImaging,2016,35(5):1285-1298.

[8]曹大理,孙惠斌,张纪铎,等.基于卷积神经网络的刀具磨损在线监测[J].计算机集成制造系统,2020,26(1):74-80.

CAODali,SUNHuibin,ZHANGJiduo,etal.In-processToolConditionMonitoringBasedonConvolutionNeuralNetwork[J].ComputerIntegratedManufacturingSystems,2020,26(1):74-80.

[9]SCHMIDHUBERJ.ALocalLearningAlgorithmforDynamicFeedforwardandRecurrentNetworks[J].ConnectionScience,1989,1(4):403-412.

[10]AULIM,GALLEYM,QUIRKC,etal.JointLanguageandTranslationModelingwithRecurrentNeuralNetworks[C]∥AssociationforComputationalLinguistics.Seattle,2013:1044-1054.

[11]ANDRRJK,LIFeifei.DeepVisual-semanticAlignmentsforGeneratingImageDescriptions[C]∥2015IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Boston,2015:3128-3137.

[12]POLLASTRIG,PRZYBYLSKIB,ROSTB,etal.ImprovingthePredictionofProteinSecondaryStructureinThreeandEightClassesUsingRecurrentNeuralNetworksandProfiles[J].Proteins,2002,47(2):228-235.

[13]VINYALSO,TOSHEVA,BENGIOS,etal.ShowandTell:aNeuralImageCaptionGenerator[C]∥2015IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Boston,2015:3156-3164.

[14]ZHAORui,WANGJinjiang,YANRuqiang,etal.MachineHealthMonitoringwithLSTMNetworks[C]∥201610thInternationalConferenceonSensingTechnology(ICST).Nanjing,2016:1-6.

[15]LIXiao,LIMB,ZHOUJianghua,etal.FuzzyNeuralNetworkModellingforToolWearEstimationinDryMillingOperation[C]∥AnnualConferenceofthePrognosticsandHealthManagementSociety.SanDiego,2009:1-11.

[16]WANGJinjiang,XIEJunyao,ZHAORui,etal.MultisensoryFusionBasedVirtualToolWearSensingforUbiquitousManufacturing[J].RoboticsandComputer-integratedManufacturing,2017,45:47-58.

[17]WANGJinjiang,YANJianxin,LIChen,etal.DeepHeterogeneousGRUModelforPredictiveAnalyticsinSmartManufacturing:ApplicationtoToolWearPrediction[J].ComputersinIndustry,2019,111:1-14.

HEYan1LINGJunjie1WANGYulin2LIYufeng1WUPengcheng1XIAOZhen1

1.StateKeyLaboratoryofMechanicalTransmission,ChongqingUniversity,Chongqing,4000442.SchoolofMechanicalEngineering,NanjingUniversityofScienceandTechnology,Nanjing,210094

Abstract:Toimprovetheaccuracyofin-processtoolwearmonitoringinmachiningprocesses,anin-processtoolwearmonitoringmodelwasproposedbasedonLSTM-CNN.Inthemonitoringmodel,thevibration,forceandacousticemissionsignalsduringthecuttingprocessesofthetoolwascollectedrespectivelybyvibration,forceandacousticemissionsensors,thecollecteddatumwereessentiallytimeseriesdatum.Consideringthesequenceandmultidimensionalcharacteristicsofthecollecteddatum,theLSTM-CNNperformedsequenceandmultidimensionalfeatureextractiononthecollecteddatum,andusedlinearregressiontomapthefeaturestothetoolwearvalues.Thevalidityandfeasibilityofthemodelwereverifiedbyexperiments.Comparedwithothermethods,theaccuracyofthemodelisgreatlyimproved.

Keywords:toolwearmonitoring;longshorttermmemory(LSTM)neuralnetwork;convolutionneuralnetwork(CNN);featureextraction

中图分类号:TP186

DOI:10.3969/j.issn.1004-132X.2020.16.008

开放科学(资源服务)标识码(OSID):

收稿日期:2019-07-18

基金项目:国家科技重大专项(2018ZX04002001-008)

(编辑王艳丽)

作者简介:何彦,女,1981年生,教授、博士研究生导师。研究方向为数字化制造与装备智能化、绿色设计与制造。发表论文50余篇。E-mail:heyan@cqu.edu.cn。

THE END
1.目前主流的人工智能学习框架有哪些? 支持分布式训练和 GPU 加速。 使用场景: PyTorch 在学术界和工业界都非常受欢迎,尤其适合快速迭代的研究项目和需要灵活性的生产环境。 Keras Keras 最早是作为一个独立的深度学习框架推出的,后来成为 TensorFlow 的高级 API。它以易用性著称,是初学者学习深度学习的首选。 https://blog.csdn.net/Xhz181888/article/details/144437120
2.微软开发首个AI认知训练框架训练效率提升300%人工智能根据上海市精神卫生中心与微软亚洲研究院联合研究,利用多模态大模型开发了“忆我”(ReMe)个性化认知训练框架。该框架基于Azure OpenAI服务,并在易用性、界面友好性、功能专业性和入门难易度等多个维度进行设计。 “忆我”框架支持文字、图像、语音等多种模态的输入输出,以对话机器人的形式为用户提供全新的认知训练体验https://ai.zol.com.cn/901/9016520.html
3.火箭发射:一种有效轻量网络训练框架像点击率预估这样的在线实时响应系统对响应时间要求非常严格,结构复杂,层数很深的深度模型不能很好的满足严苛的响应时间的限制。为了获得满足响应时间限制的具有优良表现的模型,我们提出了一个新型框架:训练阶段,同时训练繁简两个复杂度有明显差异的网络,简单的网络称为轻量网络(light net),复杂的网络称为助推器网络(bohttps://www.51cto.com/article/563252.html
4.字节最新复杂召回模型,提出深度检索DR框架解决超大规模推荐系统中在本文中,我们提出了一个端到端的模型框架深度检索DR。DR将所有的候选集编码到离散的隐式空间中,随着其他的网络参数一起学习。模型训练完成后的在线服务阶段,则通过beam search的方式获取最相关的候选集。实验证明了DR可以接近线性的计算复杂度,同时取得了与暴力算法相当的效果。https://cloud.tencent.com/developer/article/1698045
5.科学网—[转载]群视角下的多智能体强化学习方法综述依靠分布式训练框架IMPALA,DeepMind在开发星际争霸AlphaStar时,采用了集中式训练分布式执行的范式设计了三大类智能体对象:主智能体(main agent)为正在训练的智能体及历史数据,采用优先级虚拟自对弈的方式来选取;联盟利用者(league exploiter)能打败联盟中的所有智能体,按照有优先级虚拟自对弈的方式与全联盟的对手进行训练;https://blog.sciencenet.cn/home.php?mod=space&uid=3472670&do=blog&id=1422698
6.计算机学院七篇论文入选数据库领域顶级会议VLDB2023文章“Galvatron: Efficient Transformer Training over Multiple GPUs Using Automatic Parallelism”提出了一套面向大规模Transformer模型的自动并行训练框架。相比于现有工作,该工作主要有三方面优势:1)可以支持更多的并行维度,并且具备面对差异化的模型结构和不同集群硬件条件下的自适应调优能力;2)面对庞大的搜索空间,设计https://news.pku.edu.cn/jxky/3347dc1aea5547b28f167b4110d74f8e.htm
7.TinyMaix:超轻量级推理框架即将支持 MaixHub 在线模型训练 在Arduino ATmega328上运行 mnist demo 实例 mnist demo 0000000000000000000000000000 0000000000000000000000000000 0000000000000000000000000000 000000000077AFF9500000000000 000000000AFFFFFFD10000000000 00000000AFFFD8BFF70000000000 00000003FFD2000CF80000000000 00000004FD10007FF40000000000 00000000110000http://en.wiki.sipeed.com/news/others/tinymaix_cnx/tinymaix_cnx.html
8.2019机器之心人工智能年度奖项正式公布:关注创业先锋,聚焦产品一流科技推出的分布式深度学习训练框架 OneFlow,是完全独立自主研发的面向大模型大数据大规模的流式计算框架,目前已经达到市场产品级应用水平。并于 2019 年落地了诸多代表性案例客户,包括头部互联网公司以及高校、研究院所、人工智能园区与政务服务等行业的核心机构。案例主要覆盖海量图像识别、自然语言处理大模型应用,广告https://www.zhuanzhi.ai/document/2abfb47db9cd9ab70b4144f329e147b8
9.朱庆华宋珊珊风险视角下生成式人工智能的司法应用路径智能作为促进人类发展的“工具”价值定位,有效识别法律算法化与算法法律化的冲突和风险,从而确立风险控制模式下技术介入司法的边界,据此以技术弥补智能司法应用功能应然性发挥不足困境,探索“司法数据—法律监督—辅助办案—社会治理”多维司法应用构面,并从“伦理原则—法律规则—技术方法”三个层面完善应用场域的框架策略https://www.jfdaily.com/sgh/detail?id=1247369
10.CVPR2021有的放矢,用图像分割与像素投票找到预定义的地标点在定义了真实地标分割图和真实方向投票图后,我们可以监督所提出的 VS-Net 预测这两个图。经过训练,VS-Net 可以预测查询图像的分割图和投票图,我们可以据此建立精确的二维到三维的对应关系,以实现稳健的视觉定位。 基于原型的在线学习三元监督投票分割网络: https://www.sensetime.com/cn/technology-new-detail/41164696?categoryId=48
11.华为机器学习人工智能详解MindSporeAI计算训练推理框架实践当当乐学者图书专营店在线销售正版《深度学习与MindSpore实践 华为机器学习人工智能详解 MindSpore AI计算训练推理框架实践 卷积神经网络实现指南 深度学习实例书籍》。最新《深度学习与MindSpore实践 华为机器学习人工智能详解 MindSpore AI计算训练推理框架实践 卷积神经http://product.dangdang.com/1649993316.html