基于长短时记忆卷积神经网络的刀具磨损在线监测模型

何彦1凌俊杰1王禹林2李育锋1吴鹏程1肖圳1

1.重庆大学机械传动国家重点实验室,重庆,4000442.南京理工大学机械工程学院,南京,210094

关键词:刀具磨损监测;长短时记忆神经网络;卷积神经网络;特征提取

图1基于LSTM-CNN的刀具磨损在线监测框架Fig.1Theframeworkofin-processtoolwearmonitoringbasedonLSTM-CNN

图2LSTM-CNN网络结构Fig.2ThenetworkstructureofLSTM-CNN

在LSTM-CNN中,为了避免样本数据中异常数据的存在导致网络无法收敛,提高网络的学习速度和泛化能力,需要对原始数据进行标准化处理。本文采用Z-score方法对原始数据进行标准化处理。Z-score进行标准化处理方法如下:

(1)

式中,x为原始数据;μ为原始数据的均值;σ0为原始数据的方差;Z为经过标准化处理后的数据,将Z作为LSTM神经网络的直接输入。

将标准化后的序列数据输入LSTM神经网络中进行序列建模和序列特征提取,LSTM神经网络在RNN的基础上引入了遗忘门、输入门和输出门以控制沿序列传递的信息,这些信息可以更准确地捕获长时依赖,缓解梯度消失或梯度爆炸问题。LSTM神经网络中的细胞状态和隐层状态更新公式如下:

(2)

将LSTM神经网络在终点时刻的输出hT作为CNN的输入,CNN的输入依次通过卷积1、最大池化、卷积2、卷积3进行多维度特征提取,卷积过程如图3和下式所示:

图3卷积过程Fig.3Theprocessofconvolution

(3)

其中,w为卷积核,其形状为二维矩阵,wm,n为卷积核矩阵中第m行、第n列的元素值;hT为卷积层输入,为矩阵形式,hTi+m,j+n表示卷积层输入矩阵hT中第i+n行、第j+m列的元素值,b为偏置项,f为Relu激活函数。

为使卷积后的多维特征图形状与输入特征图保持一致,在卷积前先进行零填充,为提高网络的鲁棒性和泛化能力,减小网络规模,提高训练速度,在CNN中加入最大池化操作。最大池化操作如图4所示。

图4最大池化操作Fig.4Maximumpoolingoperation

CNN的输出作为回归层的输入实现了特征到刀具磨损值的映射,特征到刀具磨损的映射如下:

(4)

式中,为刀具磨损预测值;wR为回归层特征权重参数矩阵;Ak为CNN输出的特征。

在本文中,由于网络最终输出为刀具后刀面磨损值,是一个连续变量,因此将网络最终的输出维度设为1。

在LSTM-CNN模型中,参数Wf、Wi、WC、WO、bf、bi、bC、bO、w、b和回归层特征权重参数矩阵wR需要通过模型训练学习得到,因此需要通过训练数据对模型进行训练以获取模型中的最优参数,模型训练流程如图5所示。首先,将采集的全部数据分为训练数据集和测试数据集,在本文中将C1、C4和C6数据集合并,随机选取数据总量的80%作为训练集用于模型训练获取最优模型参数,其余数据作为测试数据集用于评估模型的性能。模型训练使用Adam算法最小化损失函数,损失函数定义如下:

(5)

图5模型训练流程图Fig.5Theflowchartofmodeltraining

将模型预测值与真实刀具磨损值yk的均方差作为损失函数,n表示训练样本数据的数量,Eloss表示损失函数值,模型训练的目标是使Eloss最小。模型训练过程中,根据随机训练次数增加损失函数是否减小来判断损失函数是否收敛,若损失函数不收敛,对模型进行调整后再继续训练,若损失函数收敛,则将训练好的模型使用测试数据进行模型预测;通过比较预测结果与真实值的平均绝对误差Pmae和均方根误差Prmse判断模型的效果,Pmae和Prmse的表达式如下:

(6)

(7)

若Pmae和Prmse值较大,则模型存在过拟合,需再调整模型进行训练;若Pmae与Prmse值较小,则模型具有较高的精度,保存模型用于生产环境。

为了验证基于双向RNN的刀具磨损在线监测模型的有效性,本文采用2010年美国PHM协会举办的刀具剩余使用寿命预测竞赛的公开数据集进行实验[15]。实验所用主要设备及加工参数如表1和表2所示。

表1实验主要设备

Tab.1Themainequipmentsofexperiment

机床力传感器振动传感器声发射传感器R?dersTechRFM760Kistler三分量测力计Kistler三轴加速度传感器Kistler声发射传感器Kistler电荷放大器NIDAQPCI1200LEICAMZ12球头硬质合金铣刀放大器数采设备磨损测量设备刀具

表2实验加工参数

Tab.2Themachiningparametersofexperiment

主轴转速(r/min)进给速度(mm/min)Y向切削深度(mm)Z向切削深度(mm)1040015550.1250.2铣削方式冷却方式工件材料顺铣干切不锈钢HRC52

图6铣削实验设备与结构Fig.6Theequipmentandstructureofmillingexperiments

为了验证提出的基于LSTM-CNN刀具磨损在线监测模型的有效性及优越性,本文使用相同的数据集对以下方法进行了比较:

(1)线性回归[16](linearregression,LR)模型:通过对原始信号进行特征提取,使用线性回归模型进行预测;

(2)CNN:使用卷积神经网络进行刀具磨损预测;

(3)LSTM神经网络:使用长短时记忆网络对刀具磨损进行预测;

(4)LSTM-CNN(32):使用隐藏层神经元数目为32的长短时记忆卷积网络对刀具磨损进行预测;

(5)LSTM-CNN(64):使用隐藏层神经元数目为64的长短时记忆卷积网络对刀具磨损进行预测;

(6)LSTM-CNN(128):使用隐藏层神经元数目为128的长短时记忆卷积网络对刀具磨损进行预测;

(7)BD-GRU(bi-directionalgatedrecurrentunit,BD-GRU)[17]:使用双向门控循环单元对刀具磨损进行预测;

(8)DH-GRU(deepheterogeneousgatedrecurrentunit,DH-GRU)[17]:使用深度异构门控循环单元对刀具磨损进行预测。

由于回归模型不能处理序列数据,因此需要先进行特征提取。从原始信号中提取时域、频域和时频域特征具体的特征与文献[16]中使用的特征相同,最后得到一个54维的特征向量,输入线性回归模型中预测刀具磨损。

在CNN、LSTM神经网络、LSTM-CNN模型中,可以将原始数据直接输入,因此不用人工进行特征提取。考虑到采样频率非常高,达到50kHz,导致每个样本数据的长度都超过100000,因此对样本数据进行采样得到长度为100,维度为7的新样本数据。在CNN模型中,通过3层卷积操作和1层池化操作提取64维空间特征,将特征输入回归层实现刀具磨损预测;在LSTM神经网络中,设置隐藏层神经元的数目为64,提取64维的序列特征输入回归层;在LSTM-CNN网络模型中,隐藏层神经元数目对模型的复杂度和性能表现影响较大,为了比较不同参数设置下模型的性能,LSTM-CNN中隐藏层神经元数目分别设置为32、64和128,在卷积操作中,相同感受野的情况下采用较小卷积核可以减少模型的参数个数和降低计算复杂度,卷积步长代表了特征提取的精度,步长越小精度越高,因此,卷积核大小设置为(3,3),卷积步长为1;池化可对提取到的特征信息进行降维,为了不使特征维度过小影响模型精度,将池化大小设置为(2,2),池化步长设置为2,最终提取到多维特征并输入回归层。为了提高上述模型的鲁棒性,在回归层之前加入Dropout操作并且将保留比例keep_prob设置为0.8。

基于TensorFlow框架建立LR、CNN、LSTM神经网络和LSTM-CNN模型,使用训练集进行模型的训练,在测试集上进行模型的评估。各模型的Pmae和Prmse如表3和表4所示。CNN、LSTM和LSTM-CNN在不同数据集下对刀具磨损预测的表现如图7~图11所示。

表3各模型在数据集上的Pmae

Tab.3ThePmaeofeachmodelonthedataset

模型结构数据集C1C4C6LR[16]特征值→回归模型→预测值24.416.324.4CNN输入→卷积→池化→卷积→卷积→全连接→预测值6.2757.0887.273LSTM输入→LSTM→全连接→预测值4.0824.3776.133LSTM-CNN(32)输入→LSTM(32)→卷积→池化→卷积→卷积→全连接→预测值2.3132.4893.265LSTM-CNN(64)输入→LSTM(64)→卷积→池化→卷积→卷积→全连接→预测值1.6571.8052.312LSTM-CNN(128)输入→LSTM(128)→卷积→池化→卷积→卷积→全连接→预测值1.7051.6752.410BD-GRU[17]输入→BD-GRU→预测值5.087.7424.89DH-GRU[17]输入→DH-GRU→预测值3.707.075.08

表4各模型在数据集上的Prmse

Tab.4ThePrmseofeachmodelonthedataset

模型结构数据集C1C4C6LR[16]特征值→回归模型→预测值31.119.330.9CNN输入→卷积→池化→卷积→卷积→全连接→预测值8.2749.8559.907LSTM输入→LSTM→全连接→预测值5.4955.8878.535LSTM-CNN(32)输入→LSTM(32)→卷积→池化→卷积→卷积→全连接→预测值3.2043.4794.849LSTM-CNN(64)输入→LSTM(64)→卷积→池化→卷积→卷积→全连接→预测值2.2952.8083.353LSTM-CNN(128)输入→LSTM(128)→卷积→池化→卷积→卷积→全连接→预测值2.3292.4763.471BD-GRU[17]输入→BD-GRU→预测值6.869.6327.07DH-GRU[17]输入→DH-GRU→预测值4.668.736.94

(a)C1(b)C4(c)C6图7CNN模型在数据集C1、C4、C6上的预测结果Fig.7PredictionresultsofCNNmodelondatasetsC1,C4andC6

(a)C1(b)C4(c)C6图8LSTM模型在数据集C1、C4、C6上的预测结果Fig.8PredictionresultsofLSTMmodelondatasetsC1,C4andC6

(a)C1(b)C4(c)C6图9LSTM-CNN(32)模型在数据集C1、C4、C6上的预测结果Fig.9PredictionresultsofLSTM-CNN(32)modelondatasetsC1,C4andC6

(a)C1(b)C4(c)C6图10LSTM-CNN(64)模型在数据集C1、C4、C6上的预测结果Fig.10PredictionresultsofLSTM-CNN(64)modelondatasetsC1,C4andC6

通过表3和表4的实验结果对比可以发现,在所有模型中LR模型的表现最差,导致这种现象的原因,一方面是人为提取特征可能会丢失原始数据中的某些有用信息,另一方面是由于线性模型在非线性拟合上的局限性。

对比表3和表4中的实验结果可知,与线性模型相比,深度学习模型在刀具磨损预测中性能有了较大的提升,深度学习模型在刀具预测上表现优秀,表明通过深度学习模型对原始数据进行特征提取能从原始信号中挖掘更深层和更全面的

(a)C1(b)C4(c)C6图11LSTM-CNN(128)模型在数据集C1、C4、C6上的预测结果Fig.11PredictionresultsofLSTM-CNN(128)modelondatasetsC1,C4andC6

特征信息,证明了深度学习模型在刀具磨损监测领域应用的可行性和有效性。

表3、表4、图10、图11的实验结果表明,在不同隐藏层神经元数目设置下的LSTM-CNN模型中,将隐藏从神经元数目设置为64的模型具有最佳的效果,相较于隐藏层神经元数目为32模型,LSTM-CNN(64)在不同数据集上的平均绝对误差Pmae和均方根误差Prmse有了较大的提升。然而进一步增加隐藏层神经元的数目,将其设置为128,发现LSTM-CNN(128)在数据集C4上有较小的提升,但是在数据集C1和C6上反而有所下降,表明再增加隐藏层神经元的数目对模型性能的提升效果不太显著,同时会增加模型的参数个数和计算复杂度。因此,在LSTM-CNN中将隐藏层的神经元数目设为64,模型的性能最佳。

对比表3和表4中LSTM-CNN、双向门控循环单元(BD-GRU)和深度异构门控循环单元(DH-GRU)在各数据集上的表现可以发现,本文提出的LSTM-CNN模型在不同的隐藏层神经元数目设置下,在各数据集上的性能表现优于文献[17]中提出的BD-GRU模型和DH-GRU模型。造成这样现象的原因可能在于BD-GRU模型和DH-GRU模型未考虑数据的多维度特性,提取的特征不够全面。因此,本文提出的LSTM-CNN刀具磨损在线监测模型在国内外同类研究中具有一定的优越性和先进性。

从图7~图11的实验结果中可以发现,LSTM-CNN模型能够很好地反映真实刀具磨损值的变化,在隐藏层神经元数目设置为64时模型的性能最佳,同时模型的预测值与刀具磨损的真实值间的误差很小,验证了提出的基于LSTM-CNN刀具磨损在线监测模型的有效性及优越性,同时表明提出的LSTM-CNN模型在刀具磨损监测的精度上有了较大的提高。

目前,该模型只在铣削加工上进行了验证,在后续的研究中可以考虑在车削等加工中的应用,也可考虑增加模型训练数据的规模进一步提高模型的精度。

参考文献:

[1]ANTICA,POPOVICB,KRSTANOVICL,etal.NovelTexture-basedDescriptorsforToolWearConditionMonitoring[J].MechanicalSystemsandSignalProcessing,2018,98:1-15.

[2]ELSHEIKHA,YACOUTS,OUALIMS.BidirectionalHandshakingLSTMforRemainingUsefulLifePrediction[J].Neurocomputing,2019,323:148-156.

[3]JOSEV,FERNANDOR.AReviewofMachiningMonitoringSystemsBasedonArtificialIntelligenceProcessModels[J].InternationalJournalofAdvancedManufacturingTechnology,2010,47(1/4):237-257.

[4]WANGJinjiang,XIEJinyao,ZHAORui,etal.MultisensoryFusionBasedVirtualToolWearSensingforUbiquitousManufacturing[J].RoboticsandComputer-integratedManufacturing,2017,45:47-58.

[5]ZHAORui,YANRuqiang,CHENZhenghua,etal.DeepLearningandItsApplicationstoMachineHealthMonitoring[J].MechanicalSystemsandSignalProcessing,2019,115:213-237.

[6]BABUG,ZHAOP,LIX.DeepConvolutionalNeuralNetworkBasedRegressionApproachforEstimationofRemainingUsefulLife[J].DatabaseSystemsforAdvancedApplications,2016,9642:214-228.

[7]SHINH,ROTHH,GAOM,etal.DeepConvolutionalNeuralNetworksforComputer-aidedDetection:CNNArchitectures,DatasetCharacteristicsandTransferLearning[J].IEEETransactionsonMedicalImaging,2016,35(5):1285-1298.

[8]曹大理,孙惠斌,张纪铎,等.基于卷积神经网络的刀具磨损在线监测[J].计算机集成制造系统,2020,26(1):74-80.

CAODali,SUNHuibin,ZHANGJiduo,etal.In-processToolConditionMonitoringBasedonConvolutionNeuralNetwork[J].ComputerIntegratedManufacturingSystems,2020,26(1):74-80.

[9]SCHMIDHUBERJ.ALocalLearningAlgorithmforDynamicFeedforwardandRecurrentNetworks[J].ConnectionScience,1989,1(4):403-412.

[10]AULIM,GALLEYM,QUIRKC,etal.JointLanguageandTranslationModelingwithRecurrentNeuralNetworks[C]∥AssociationforComputationalLinguistics.Seattle,2013:1044-1054.

[11]ANDRRJK,LIFeifei.DeepVisual-semanticAlignmentsforGeneratingImageDescriptions[C]∥2015IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Boston,2015:3128-3137.

[12]POLLASTRIG,PRZYBYLSKIB,ROSTB,etal.ImprovingthePredictionofProteinSecondaryStructureinThreeandEightClassesUsingRecurrentNeuralNetworksandProfiles[J].Proteins,2002,47(2):228-235.

[13]VINYALSO,TOSHEVA,BENGIOS,etal.ShowandTell:aNeuralImageCaptionGenerator[C]∥2015IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Boston,2015:3156-3164.

[14]ZHAORui,WANGJinjiang,YANRuqiang,etal.MachineHealthMonitoringwithLSTMNetworks[C]∥201610thInternationalConferenceonSensingTechnology(ICST).Nanjing,2016:1-6.

[15]LIXiao,LIMB,ZHOUJianghua,etal.FuzzyNeuralNetworkModellingforToolWearEstimationinDryMillingOperation[C]∥AnnualConferenceofthePrognosticsandHealthManagementSociety.SanDiego,2009:1-11.

[16]WANGJinjiang,XIEJunyao,ZHAORui,etal.MultisensoryFusionBasedVirtualToolWearSensingforUbiquitousManufacturing[J].RoboticsandComputer-integratedManufacturing,2017,45:47-58.

[17]WANGJinjiang,YANJianxin,LIChen,etal.DeepHeterogeneousGRUModelforPredictiveAnalyticsinSmartManufacturing:ApplicationtoToolWearPrediction[J].ComputersinIndustry,2019,111:1-14.

HEYan1LINGJunjie1WANGYulin2LIYufeng1WUPengcheng1XIAOZhen1

1.StateKeyLaboratoryofMechanicalTransmission,ChongqingUniversity,Chongqing,4000442.SchoolofMechanicalEngineering,NanjingUniversityofScienceandTechnology,Nanjing,210094

Abstract:Toimprovetheaccuracyofin-processtoolwearmonitoringinmachiningprocesses,anin-processtoolwearmonitoringmodelwasproposedbasedonLSTM-CNN.Inthemonitoringmodel,thevibration,forceandacousticemissionsignalsduringthecuttingprocessesofthetoolwascollectedrespectivelybyvibration,forceandacousticemissionsensors,thecollecteddatumwereessentiallytimeseriesdatum.Consideringthesequenceandmultidimensionalcharacteristicsofthecollecteddatum,theLSTM-CNNperformedsequenceandmultidimensionalfeatureextractiononthecollecteddatum,andusedlinearregressiontomapthefeaturestothetoolwearvalues.Thevalidityandfeasibilityofthemodelwereverifiedbyexperiments.Comparedwithothermethods,theaccuracyofthemodelisgreatlyimproved.

Keywords:toolwearmonitoring;longshorttermmemory(LSTM)neuralnetwork;convolutionneuralnetwork(CNN);featureextraction

中图分类号:TP186

DOI:10.3969/j.issn.1004-132X.2020.16.008

开放科学(资源服务)标识码(OSID):

收稿日期:2019-07-18

基金项目:国家科技重大专项(2018ZX04002001-008)

(编辑王艳丽)

作者简介:何彦,女,1981年生,教授、博士研究生导师。研究方向为数字化制造与装备智能化、绿色设计与制造。发表论文50余篇。E-mail:heyan@cqu.edu.cn。

THE END
1.相比于离线训练,在线训练的好处有什么?问答离线训练毕竟使用的是 T-1 或者 T-2 的数据去做的,没有对线上实时产生的行为数据进行利用,对于数据的时效性利用相对较差。 比如说,有这样的一个场景,今天我的整个平台只对 14 岁以下的少女做某个运营活动,而平台上充斥了大量的年龄段的客户,整个平台的交互行为都变了,这个时候你的模型还是 T-1 去做的,将https://developer.aliyun.com/ask/446535
2.蚂蚁金服核心技术:百亿特征实时推荐算法揭秘备注:弹性特征带来一个显著的优势:只要用足够强的L1稀疏性约束,在单机上就能调试任意大规模的特征训练,带来很多方便。我们的hashmap实现是KV化的,key是特征,value是vector的首地址。 离线训练优化 经过这样的改造后,在离线批量学习上,带来了以下变化: 在线训练优化 https://maimai.cn/article/detail?fid=1010621115&efid=mIQCHnkj0zjxlpygUmo5mg
3.科学网—[转载]群视角下的多智能体强化学习方法综述基于学习(深度学习、强化学习)设计的迭代式问题求解方法是离线策略学习的基础范式。由于环境及对手的非平稳性,离线训练的蓝图策略通常很难直接运用于在线对抗。在线博弈对抗过程与离线利用模拟多次对抗学习博弈过程不同,博弈各方处于策略解耦合状态,与离线批(batch)式策略学习方法不同,在线博弈对抗策略的求解本质是一个流https://blog.sciencenet.cn/home.php?mod=space&uid=3472670&do=blog&id=1422698
4.深度学习难分样本挖掘(HardMining)数据派关键是找出影响网络性能的一些训练样本,针对性的进行处理。 简单来说就是把难分的样本,剔除出来,放到另外一个地方里面。最后将难分样本,给负样本,加强训练分类器。但是,这样又会造成数据不平衡的问题,下面会讲到。 03、方法:离线和在线 在样本训练过程中,会将训练结果与GroundTruth计算IOU。通常会设定一个阈值(0.5https://www.shangyexinzhi.com/article/4713934.html
5.粗排优化探讨得物技术离线在线一致性分析 待补充实际效果 四 样本设计 粗排相较于精排样本选择偏差(SSB)的问题更加严重,借鉴召回经验,可以通过适当采样减少偏差。采样设计的目的也是希望离线训练样本尽可能与线上分布一致。 样本选择方法 负样本可选范围: 曝光未点击样本; 全库除转化外样本; https://blog.itpub.net/70027824/viewspace-3000851/
6.基于Kmeans聚类的CSI室内定位AET对于单个天线对得到fin,对于m个天线的每个天线对使用Kmeans算法,得到训练向量: 2.2 在线定位阶段 在线定位阶段采用与离线训练阶段相同的方法提取到m个天线对的指纹: 将提取到的指纹与训练阶段建立的数据库中的指纹作比较,即将获取到的第i个天线对的指纹矩阵与数据库中的第i个天线对的指纹矩阵,进行两个指纹矩阵中任http://www.chinaaet.com/article/3000057028
7.离线学习(训练)和在线学习(训练)在线训练和离线训练文章浏览阅读1.4w次,点赞4次,收藏4次。https://blog.csdn.net/a133521741/article/details/79221015_在线训练和离线训练https://blog.csdn.net/sinat_40966515/article/details/100073130
8.编程入门实战训练CodeCamp在线编程实战CodeCamp, freeCodeCamp, 在线编程实战训练,是一个以操作实验为基础的编程训练营,它包含了HTML,CSS,Javascript,jQuery,Bootstrap等编程语言编程闯关,让你在实践中提升自己的编程能力。https://www.w3cschool.cn/codecamp
9.强化学习离线模型离线模型和在线模型推荐系统里非常常见,并且往往非常的隐蔽的一种数据分布不一致的情况被称之为冰山效应,也就是说离线训练用的是有偏的冰山上的数据,而在线上预估的时候,需要预测的是整个冰山的数据,包括大量冰面以下的数据!我们看下面这张图。左边是我们的Baseline,绿色的表示正样本,红色表示负样本,灰色部分表示线上由于推荐系统的“https://blog.51cto.com/u_14499/11815202
10.使用Merlin分层参数服务器扩展推荐系统推理推荐模型有两种培训模式:离线和在线。在线培训将新的模型更新部署到实时生产中,对于推荐的有效性至关重要。HPS 雇佣无缝更新机制通过Apache Kafka– 基于消息缓冲区连接训练和推理节点,如图 5 所示。 图5. HugeCTR 推理在线更新机制 更新机制有助于 MLOps 工作流,支持在线/频繁以及离线/再培训更新,无需停机。它还通https://www.eet-china.com/mp/a159829.html
11.推荐系统完整的架构设计和算法(协同过滤隐语义)其中,数据上报和离线训练组成了监督学习中的学习系统,而实时计算和 A/B 测试组成了预测系统。另外,除了模型之外,还有一个在线存储模块,用于存储模型和模型需要的特征信息供实时计算模块调用。图中的各个模块组成了训练和预测两条数据流,训练的数据流搜集业务的数据最后生成模型存储于在线存储模块;预测的数据流接受业务https://cloud.tencent.com/developer/article/1508050
12.人工智能团队研究成果在TKDE发表:样本高效的离线转在线强化学习离线强化学习,即智能体从先前收集的数据集中学习的过程,已被广泛研究并在机器人控制、推荐系统、智慧医疗等领域取得了巨大成功。然而,由于受到离线数据集质量的限制,离线强化学习智能体的性能通常是次优的。因此,在部署之前,通常需要进一步通过在线交互对预训练的离线强化学习智能体进行微调。 http://icfs.jlu.edu.cn/info/1007/3101.htm
13.2020年最值得收藏的60个AI开源工具语言&开发李冬梅SiamMask 是一款实时在线目标跟踪与目标分割统一框架。技术简单、通用、快速高效。它可以对目标实时跟踪。此款库还包含预训练模型。 项目地址:https://github.com/foolwood/SiamMask DeepCamera 世界首个自动机器学习深度学习边缘 AI 平台 ARM GPU 上的深度学习视频处理监控,用于人脸识别以及更多方法。将数码相机变成人工https://www.infoq.cn/article/2uabiqaxicqifhqikeqw