基于长短时记忆卷积神经网络的刀具磨损在线监测模型

何彦1凌俊杰1王禹林2李育锋1吴鹏程1肖圳1

1.重庆大学机械传动国家重点实验室,重庆,4000442.南京理工大学机械工程学院,南京,210094

关键词:刀具磨损监测;长短时记忆神经网络;卷积神经网络;特征提取

图1基于LSTM-CNN的刀具磨损在线监测框架Fig.1Theframeworkofin-processtoolwearmonitoringbasedonLSTM-CNN

图2LSTM-CNN网络结构Fig.2ThenetworkstructureofLSTM-CNN

在LSTM-CNN中,为了避免样本数据中异常数据的存在导致网络无法收敛,提高网络的学习速度和泛化能力,需要对原始数据进行标准化处理。本文采用Z-score方法对原始数据进行标准化处理。Z-score进行标准化处理方法如下:

(1)

式中,x为原始数据;μ为原始数据的均值;σ0为原始数据的方差;Z为经过标准化处理后的数据,将Z作为LSTM神经网络的直接输入。

将标准化后的序列数据输入LSTM神经网络中进行序列建模和序列特征提取,LSTM神经网络在RNN的基础上引入了遗忘门、输入门和输出门以控制沿序列传递的信息,这些信息可以更准确地捕获长时依赖,缓解梯度消失或梯度爆炸问题。LSTM神经网络中的细胞状态和隐层状态更新公式如下:

(2)

将LSTM神经网络在终点时刻的输出hT作为CNN的输入,CNN的输入依次通过卷积1、最大池化、卷积2、卷积3进行多维度特征提取,卷积过程如图3和下式所示:

图3卷积过程Fig.3Theprocessofconvolution

(3)

其中,w为卷积核,其形状为二维矩阵,wm,n为卷积核矩阵中第m行、第n列的元素值;hT为卷积层输入,为矩阵形式,hTi+m,j+n表示卷积层输入矩阵hT中第i+n行、第j+m列的元素值,b为偏置项,f为Relu激活函数。

为使卷积后的多维特征图形状与输入特征图保持一致,在卷积前先进行零填充,为提高网络的鲁棒性和泛化能力,减小网络规模,提高训练速度,在CNN中加入最大池化操作。最大池化操作如图4所示。

图4最大池化操作Fig.4Maximumpoolingoperation

CNN的输出作为回归层的输入实现了特征到刀具磨损值的映射,特征到刀具磨损的映射如下:

(4)

式中,为刀具磨损预测值;wR为回归层特征权重参数矩阵;Ak为CNN输出的特征。

在本文中,由于网络最终输出为刀具后刀面磨损值,是一个连续变量,因此将网络最终的输出维度设为1。

在LSTM-CNN模型中,参数Wf、Wi、WC、WO、bf、bi、bC、bO、w、b和回归层特征权重参数矩阵wR需要通过模型训练学习得到,因此需要通过训练数据对模型进行训练以获取模型中的最优参数,模型训练流程如图5所示。首先,将采集的全部数据分为训练数据集和测试数据集,在本文中将C1、C4和C6数据集合并,随机选取数据总量的80%作为训练集用于模型训练获取最优模型参数,其余数据作为测试数据集用于评估模型的性能。模型训练使用Adam算法最小化损失函数,损失函数定义如下:

(5)

图5模型训练流程图Fig.5Theflowchartofmodeltraining

将模型预测值与真实刀具磨损值yk的均方差作为损失函数,n表示训练样本数据的数量,Eloss表示损失函数值,模型训练的目标是使Eloss最小。模型训练过程中,根据随机训练次数增加损失函数是否减小来判断损失函数是否收敛,若损失函数不收敛,对模型进行调整后再继续训练,若损失函数收敛,则将训练好的模型使用测试数据进行模型预测;通过比较预测结果与真实值的平均绝对误差Pmae和均方根误差Prmse判断模型的效果,Pmae和Prmse的表达式如下:

(6)

(7)

若Pmae和Prmse值较大,则模型存在过拟合,需再调整模型进行训练;若Pmae与Prmse值较小,则模型具有较高的精度,保存模型用于生产环境。

为了验证基于双向RNN的刀具磨损在线监测模型的有效性,本文采用2010年美国PHM协会举办的刀具剩余使用寿命预测竞赛的公开数据集进行实验[15]。实验所用主要设备及加工参数如表1和表2所示。

表1实验主要设备

Tab.1Themainequipmentsofexperiment

机床力传感器振动传感器声发射传感器R?dersTechRFM760Kistler三分量测力计Kistler三轴加速度传感器Kistler声发射传感器Kistler电荷放大器NIDAQPCI1200LEICAMZ12球头硬质合金铣刀放大器数采设备磨损测量设备刀具

表2实验加工参数

Tab.2Themachiningparametersofexperiment

主轴转速(r/min)进给速度(mm/min)Y向切削深度(mm)Z向切削深度(mm)1040015550.1250.2铣削方式冷却方式工件材料顺铣干切不锈钢HRC52

图6铣削实验设备与结构Fig.6Theequipmentandstructureofmillingexperiments

为了验证提出的基于LSTM-CNN刀具磨损在线监测模型的有效性及优越性,本文使用相同的数据集对以下方法进行了比较:

(1)线性回归[16](linearregression,LR)模型:通过对原始信号进行特征提取,使用线性回归模型进行预测;

(2)CNN:使用卷积神经网络进行刀具磨损预测;

(3)LSTM神经网络:使用长短时记忆网络对刀具磨损进行预测;

(4)LSTM-CNN(32):使用隐藏层神经元数目为32的长短时记忆卷积网络对刀具磨损进行预测;

(5)LSTM-CNN(64):使用隐藏层神经元数目为64的长短时记忆卷积网络对刀具磨损进行预测;

(6)LSTM-CNN(128):使用隐藏层神经元数目为128的长短时记忆卷积网络对刀具磨损进行预测;

(7)BD-GRU(bi-directionalgatedrecurrentunit,BD-GRU)[17]:使用双向门控循环单元对刀具磨损进行预测;

(8)DH-GRU(deepheterogeneousgatedrecurrentunit,DH-GRU)[17]:使用深度异构门控循环单元对刀具磨损进行预测。

由于回归模型不能处理序列数据,因此需要先进行特征提取。从原始信号中提取时域、频域和时频域特征具体的特征与文献[16]中使用的特征相同,最后得到一个54维的特征向量,输入线性回归模型中预测刀具磨损。

在CNN、LSTM神经网络、LSTM-CNN模型中,可以将原始数据直接输入,因此不用人工进行特征提取。考虑到采样频率非常高,达到50kHz,导致每个样本数据的长度都超过100000,因此对样本数据进行采样得到长度为100,维度为7的新样本数据。在CNN模型中,通过3层卷积操作和1层池化操作提取64维空间特征,将特征输入回归层实现刀具磨损预测;在LSTM神经网络中,设置隐藏层神经元的数目为64,提取64维的序列特征输入回归层;在LSTM-CNN网络模型中,隐藏层神经元数目对模型的复杂度和性能表现影响较大,为了比较不同参数设置下模型的性能,LSTM-CNN中隐藏层神经元数目分别设置为32、64和128,在卷积操作中,相同感受野的情况下采用较小卷积核可以减少模型的参数个数和降低计算复杂度,卷积步长代表了特征提取的精度,步长越小精度越高,因此,卷积核大小设置为(3,3),卷积步长为1;池化可对提取到的特征信息进行降维,为了不使特征维度过小影响模型精度,将池化大小设置为(2,2),池化步长设置为2,最终提取到多维特征并输入回归层。为了提高上述模型的鲁棒性,在回归层之前加入Dropout操作并且将保留比例keep_prob设置为0.8。

基于TensorFlow框架建立LR、CNN、LSTM神经网络和LSTM-CNN模型,使用训练集进行模型的训练,在测试集上进行模型的评估。各模型的Pmae和Prmse如表3和表4所示。CNN、LSTM和LSTM-CNN在不同数据集下对刀具磨损预测的表现如图7~图11所示。

表3各模型在数据集上的Pmae

Tab.3ThePmaeofeachmodelonthedataset

模型结构数据集C1C4C6LR[16]特征值→回归模型→预测值24.416.324.4CNN输入→卷积→池化→卷积→卷积→全连接→预测值6.2757.0887.273LSTM输入→LSTM→全连接→预测值4.0824.3776.133LSTM-CNN(32)输入→LSTM(32)→卷积→池化→卷积→卷积→全连接→预测值2.3132.4893.265LSTM-CNN(64)输入→LSTM(64)→卷积→池化→卷积→卷积→全连接→预测值1.6571.8052.312LSTM-CNN(128)输入→LSTM(128)→卷积→池化→卷积→卷积→全连接→预测值1.7051.6752.410BD-GRU[17]输入→BD-GRU→预测值5.087.7424.89DH-GRU[17]输入→DH-GRU→预测值3.707.075.08

表4各模型在数据集上的Prmse

Tab.4ThePrmseofeachmodelonthedataset

模型结构数据集C1C4C6LR[16]特征值→回归模型→预测值31.119.330.9CNN输入→卷积→池化→卷积→卷积→全连接→预测值8.2749.8559.907LSTM输入→LSTM→全连接→预测值5.4955.8878.535LSTM-CNN(32)输入→LSTM(32)→卷积→池化→卷积→卷积→全连接→预测值3.2043.4794.849LSTM-CNN(64)输入→LSTM(64)→卷积→池化→卷积→卷积→全连接→预测值2.2952.8083.353LSTM-CNN(128)输入→LSTM(128)→卷积→池化→卷积→卷积→全连接→预测值2.3292.4763.471BD-GRU[17]输入→BD-GRU→预测值6.869.6327.07DH-GRU[17]输入→DH-GRU→预测值4.668.736.94

(a)C1(b)C4(c)C6图7CNN模型在数据集C1、C4、C6上的预测结果Fig.7PredictionresultsofCNNmodelondatasetsC1,C4andC6

(a)C1(b)C4(c)C6图8LSTM模型在数据集C1、C4、C6上的预测结果Fig.8PredictionresultsofLSTMmodelondatasetsC1,C4andC6

(a)C1(b)C4(c)C6图9LSTM-CNN(32)模型在数据集C1、C4、C6上的预测结果Fig.9PredictionresultsofLSTM-CNN(32)modelondatasetsC1,C4andC6

(a)C1(b)C4(c)C6图10LSTM-CNN(64)模型在数据集C1、C4、C6上的预测结果Fig.10PredictionresultsofLSTM-CNN(64)modelondatasetsC1,C4andC6

通过表3和表4的实验结果对比可以发现,在所有模型中LR模型的表现最差,导致这种现象的原因,一方面是人为提取特征可能会丢失原始数据中的某些有用信息,另一方面是由于线性模型在非线性拟合上的局限性。

对比表3和表4中的实验结果可知,与线性模型相比,深度学习模型在刀具磨损预测中性能有了较大的提升,深度学习模型在刀具预测上表现优秀,表明通过深度学习模型对原始数据进行特征提取能从原始信号中挖掘更深层和更全面的

(a)C1(b)C4(c)C6图11LSTM-CNN(128)模型在数据集C1、C4、C6上的预测结果Fig.11PredictionresultsofLSTM-CNN(128)modelondatasetsC1,C4andC6

特征信息,证明了深度学习模型在刀具磨损监测领域应用的可行性和有效性。

表3、表4、图10、图11的实验结果表明,在不同隐藏层神经元数目设置下的LSTM-CNN模型中,将隐藏从神经元数目设置为64的模型具有最佳的效果,相较于隐藏层神经元数目为32模型,LSTM-CNN(64)在不同数据集上的平均绝对误差Pmae和均方根误差Prmse有了较大的提升。然而进一步增加隐藏层神经元的数目,将其设置为128,发现LSTM-CNN(128)在数据集C4上有较小的提升,但是在数据集C1和C6上反而有所下降,表明再增加隐藏层神经元的数目对模型性能的提升效果不太显著,同时会增加模型的参数个数和计算复杂度。因此,在LSTM-CNN中将隐藏层的神经元数目设为64,模型的性能最佳。

对比表3和表4中LSTM-CNN、双向门控循环单元(BD-GRU)和深度异构门控循环单元(DH-GRU)在各数据集上的表现可以发现,本文提出的LSTM-CNN模型在不同的隐藏层神经元数目设置下,在各数据集上的性能表现优于文献[17]中提出的BD-GRU模型和DH-GRU模型。造成这样现象的原因可能在于BD-GRU模型和DH-GRU模型未考虑数据的多维度特性,提取的特征不够全面。因此,本文提出的LSTM-CNN刀具磨损在线监测模型在国内外同类研究中具有一定的优越性和先进性。

从图7~图11的实验结果中可以发现,LSTM-CNN模型能够很好地反映真实刀具磨损值的变化,在隐藏层神经元数目设置为64时模型的性能最佳,同时模型的预测值与刀具磨损的真实值间的误差很小,验证了提出的基于LSTM-CNN刀具磨损在线监测模型的有效性及优越性,同时表明提出的LSTM-CNN模型在刀具磨损监测的精度上有了较大的提高。

目前,该模型只在铣削加工上进行了验证,在后续的研究中可以考虑在车削等加工中的应用,也可考虑增加模型训练数据的规模进一步提高模型的精度。

参考文献:

[1]ANTICA,POPOVICB,KRSTANOVICL,etal.NovelTexture-basedDescriptorsforToolWearConditionMonitoring[J].MechanicalSystemsandSignalProcessing,2018,98:1-15.

[2]ELSHEIKHA,YACOUTS,OUALIMS.BidirectionalHandshakingLSTMforRemainingUsefulLifePrediction[J].Neurocomputing,2019,323:148-156.

[3]JOSEV,FERNANDOR.AReviewofMachiningMonitoringSystemsBasedonArtificialIntelligenceProcessModels[J].InternationalJournalofAdvancedManufacturingTechnology,2010,47(1/4):237-257.

[4]WANGJinjiang,XIEJinyao,ZHAORui,etal.MultisensoryFusionBasedVirtualToolWearSensingforUbiquitousManufacturing[J].RoboticsandComputer-integratedManufacturing,2017,45:47-58.

[5]ZHAORui,YANRuqiang,CHENZhenghua,etal.DeepLearningandItsApplicationstoMachineHealthMonitoring[J].MechanicalSystemsandSignalProcessing,2019,115:213-237.

[6]BABUG,ZHAOP,LIX.DeepConvolutionalNeuralNetworkBasedRegressionApproachforEstimationofRemainingUsefulLife[J].DatabaseSystemsforAdvancedApplications,2016,9642:214-228.

[7]SHINH,ROTHH,GAOM,etal.DeepConvolutionalNeuralNetworksforComputer-aidedDetection:CNNArchitectures,DatasetCharacteristicsandTransferLearning[J].IEEETransactionsonMedicalImaging,2016,35(5):1285-1298.

[8]曹大理,孙惠斌,张纪铎,等.基于卷积神经网络的刀具磨损在线监测[J].计算机集成制造系统,2020,26(1):74-80.

CAODali,SUNHuibin,ZHANGJiduo,etal.In-processToolConditionMonitoringBasedonConvolutionNeuralNetwork[J].ComputerIntegratedManufacturingSystems,2020,26(1):74-80.

[9]SCHMIDHUBERJ.ALocalLearningAlgorithmforDynamicFeedforwardandRecurrentNetworks[J].ConnectionScience,1989,1(4):403-412.

[10]AULIM,GALLEYM,QUIRKC,etal.JointLanguageandTranslationModelingwithRecurrentNeuralNetworks[C]∥AssociationforComputationalLinguistics.Seattle,2013:1044-1054.

[11]ANDRRJK,LIFeifei.DeepVisual-semanticAlignmentsforGeneratingImageDescriptions[C]∥2015IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Boston,2015:3128-3137.

[12]POLLASTRIG,PRZYBYLSKIB,ROSTB,etal.ImprovingthePredictionofProteinSecondaryStructureinThreeandEightClassesUsingRecurrentNeuralNetworksandProfiles[J].Proteins,2002,47(2):228-235.

[13]VINYALSO,TOSHEVA,BENGIOS,etal.ShowandTell:aNeuralImageCaptionGenerator[C]∥2015IEEEConferenceonComputerVisionandPatternRecognition(CVPR).Boston,2015:3156-3164.

[14]ZHAORui,WANGJinjiang,YANRuqiang,etal.MachineHealthMonitoringwithLSTMNetworks[C]∥201610thInternationalConferenceonSensingTechnology(ICST).Nanjing,2016:1-6.

[15]LIXiao,LIMB,ZHOUJianghua,etal.FuzzyNeuralNetworkModellingforToolWearEstimationinDryMillingOperation[C]∥AnnualConferenceofthePrognosticsandHealthManagementSociety.SanDiego,2009:1-11.

[16]WANGJinjiang,XIEJunyao,ZHAORui,etal.MultisensoryFusionBasedVirtualToolWearSensingforUbiquitousManufacturing[J].RoboticsandComputer-integratedManufacturing,2017,45:47-58.

[17]WANGJinjiang,YANJianxin,LIChen,etal.DeepHeterogeneousGRUModelforPredictiveAnalyticsinSmartManufacturing:ApplicationtoToolWearPrediction[J].ComputersinIndustry,2019,111:1-14.

HEYan1LINGJunjie1WANGYulin2LIYufeng1WUPengcheng1XIAOZhen1

1.StateKeyLaboratoryofMechanicalTransmission,ChongqingUniversity,Chongqing,4000442.SchoolofMechanicalEngineering,NanjingUniversityofScienceandTechnology,Nanjing,210094

Abstract:Toimprovetheaccuracyofin-processtoolwearmonitoringinmachiningprocesses,anin-processtoolwearmonitoringmodelwasproposedbasedonLSTM-CNN.Inthemonitoringmodel,thevibration,forceandacousticemissionsignalsduringthecuttingprocessesofthetoolwascollectedrespectivelybyvibration,forceandacousticemissionsensors,thecollecteddatumwereessentiallytimeseriesdatum.Consideringthesequenceandmultidimensionalcharacteristicsofthecollecteddatum,theLSTM-CNNperformedsequenceandmultidimensionalfeatureextractiononthecollecteddatum,andusedlinearregressiontomapthefeaturestothetoolwearvalues.Thevalidityandfeasibilityofthemodelwereverifiedbyexperiments.Comparedwithothermethods,theaccuracyofthemodelisgreatlyimproved.

Keywords:toolwearmonitoring;longshorttermmemory(LSTM)neuralnetwork;convolutionneuralnetwork(CNN);featureextraction

中图分类号:TP186

DOI:10.3969/j.issn.1004-132X.2020.16.008

开放科学(资源服务)标识码(OSID):

收稿日期:2019-07-18

基金项目:国家科技重大专项(2018ZX04002001-008)

(编辑王艳丽)

作者简介:何彦,女,1981年生,教授、博士研究生导师。研究方向为数字化制造与装备智能化、绿色设计与制造。发表论文50余篇。E-mail:heyan@cqu.edu.cn。

THE END
1.train和offlinetrain需要交互的训练是online吗离线学习适用于处理大数据和复杂模型,需要所有训练数据在训练前可用,训练完成后模型才用于预测。在线学习则侧重实时性,数据以流式到达,模型会随新数据不断更新。两种方式常结合使用,如离线训练后在线微调。在线学习关注当前数据,离线学习则能看到全局。 摘要由CSDN通过智能技术生成 https://blog.csdn.net/qq_45104603/article/details/126052925
2.关于训练神经网路的诸多技巧Tricks(完全总结版)很多人都说训练神经网络和炼金术师炼药的过程相像,难以破解其中的黑盒子。其实不然,在训练的时候我们依然可以通过大量的技巧去最大化我们的训练效果,从而帮助我们的任务取得不错的精度,这些技巧是训练神经网络不可缺少的一环。 本文尽可能说明训练过程中所需要的各种小技巧,会有不完善的地方,限于篇幅每个点不会说很https://cloud.tencent.com/developer/article/2346565
3.如何构建高效的离线机器学习模型训练平台?袋鼠社区此外,离线训练还能够有效减少对网络带宽的依赖,提升训练的稳定性和效率。 二、离线机器学习模型训练平台的核心组成部分1. 硬件环境: 离线机器学习训练平台的硬件环境是基础,包括计算机硬件(CPU、GPU等)、存储设备(HDD、SSD)和网络设施等。合适的硬件配置对模型训练速度和性能起着至关重要的作用。比如,GPU在处理大型https://www.dtstack.com/bbs/article/15769
4.相比于离线训练,在线训练的好处有什么?问答离线训练毕竟使用的是 T-1 或者 T-2 的数据去做的,没有对线上实时产生的行为数据进行利用,对于数据的时效性利用相对较差。 比如说,有这样的一个场景,今天我的整个平台只对 14 岁以下的少女做某个运营活动,而平台上充斥了大量的年龄段的客户,整个平台的交互行为都变了,这个时候你的模型还是 T-1 去做的,将https://developer.aliyun.com/ask/446535
5.模型也可以上网课?!一文看懂服务型蒸馏训练方案同时由于Teacher模型可以弹性调度,不用担心高峰时线上实例被抢占造成的任务失败。相当于把teacher对训练卡的资源需求转移到了在线GPU卡上,在v100等离线训练资源受限的情况下,使用在线卡对训练进行加速,以节约宝贵的训练资源。 此外,在离线集群上,结合调度策略,还可以将Teacher模型部署到集群碎片资源,或者如k40等使用率https://www.thepaper.cn/newsDetail_forward_8071575
6.谁说RL智能体只能在线训练?谷歌发布离线强化学习新范式为了避免 distribution mismatch,强化学习的训练一定要在线与环境进行交互吗?谷歌的这项最新研究从优化角度,为我们提供了离线强化学习研究新思路,即鲁棒的 RL 算法在足够大且多样化的离线数据集中训练可产生高质量的行为。 为了避免 distribution mismatch,强化学习的训练一定要在线与环境进行交互吗?谷歌的这项最新研究从优化https://www.51cto.com/article/614512.html
7.深度学习模型在线训练排序策略离线排序模型华为云帮助中心为你分享云计算行业信息,包含产品介绍、用户指南、开发指南、最佳实践和常见问题等文档,方便快速查找定位问题与能力成长,并提供相关资料和解决方案。本页面关键词:深度学习模型 在线训练。https://support.huaweicloud.com/topic/985668-2-S
8.科学网—[转载]群视角下的多智能体强化学习方法综述基于学习(深度学习、强化学习)设计的迭代式问题求解方法是离线策略学习的基础范式。由于环境及对手的非平稳性,离线训练的蓝图策略通常很难直接运用于在线对抗。在线博弈对抗过程与离线利用模拟多次对抗学习博弈过程不同,博弈各方处于策略解耦合状态,与离线批(batch)式策略学习方法不同,在线博弈对抗策略的求解本质是一个流https://blog.sciencenet.cn/home.php?mod=space&uid=3472670&do=blog&id=1422698
9.蚂蚁金服核心技术:百亿特征实时推荐算法揭秘备注:弹性特征带来一个显著的优势:只要用足够强的L1稀疏性约束,在单机上就能调试任意大规模的特征训练,带来很多方便。我们的hashmap实现是KV化的,key是特征,value是vector的首地址。 离线训练优化 经过这样的改造后,在离线批量学习上,带来了以下变化: 在线训练优化 https://maimai.cn/article/detail?fid=1010621115&efid=mIQCHnkj0zjxlpygUmo5mg
10.构建容器镜像部署nnae软件(支持离线推理在线推理训练)本文档基于镜像树结构来构建容器镜像,具有可扩展性。 镜像树示意图如图1所示。 图1镜像树示意图 表1 昇腾基础镜像树说明 镜像名 说明 ascendbase-train 安装系统组件及python第三方依赖等。 ascend-train 安装深度学习引擎包nnae(支持离线推理、在线推理、训练)等。 https://www.hiascend.com/document/detail/zh/mindx-dl/2046/dluserguide/toolboxug/toolboxug_000121.html
11.机器学习术语表:机器学习基础知识MachineLearningGoogle动态模型(或在线模型)是一种模型, 。 动态训练(或在线训练)是训练 频繁或持续不断 动态推理(即在线推理)是 根据需求生成预测。 动态模型 #fundamentals 一个模型经常出现(甚至可能会持续) 重新训练。动态模型是一个“终身学习者”那个 适应不断演变的数据。动态模型也称为在线模型。 https://developers.google.cn/machine-learning/glossary/fundamentals?hl=zh-cn
12.基于Kmeans聚类的CSI室内定位AET对于单个天线对得到fin,对于m个天线的每个天线对使用Kmeans算法,得到训练向量: 2.2 在线定位阶段 在线定位阶段采用与离线训练阶段相同的方法提取到m个天线对的指纹: 将提取到的指纹与训练阶段建立的数据库中的指纹作比较,即将获取到的第i个天线对的指纹矩阵与数据库中的第i个天线对的指纹矩阵,进行两个指纹矩阵中任http://www.chinaaet.com/article/3000057028
13.粗排优化探讨得物技术离线在线一致性分析 待补充实际效果 四 样本设计 粗排相较于精排样本选择偏差(SSB)的问题更加严重,借鉴召回经验,可以通过适当采样减少偏差。采样设计的目的也是希望离线训练样本尽可能与线上分布一致。 样本选择方法 负样本可选范围: 曝光未点击样本; 全库除转化外样本; https://blog.itpub.net/70027824/viewspace-3000851/
14.推荐模型离线评测效果好,线上效果却不佳的原因推荐系统里非常常见,并且往往非常的隐蔽的一种数据分布不一致的情况被称之为冰山效应,也就是说离线训练用的是有偏的冰山上的数据,而在线上预估的时候,需要预测的是整个冰山的数据,包括大量冰面以下的数据!我们看下面这张图。左边是我们的Baseline,绿色的表示正样本,红色表示负样本,灰色部分表示线上由于推荐系统的“https://www.jianshu.com/p/34489b31c783
15.微软亚洲研究院解密:AISuphx是如何成为麻将十段的?科技当初始的手牌发到麻将AI手中时,通过模拟来调整离线训练好的策略,使其更适应这个给定的初始手牌。微软亚洲研究院的实验表明,相对麻将隐藏信息集的平均大小10的48+次方倍而言,模拟的次数不需要很大,pMCPA也并不需要为这一局手牌收集所有可能后续状态的统计数据。由于pMCPA是一种参数化的方法,所以微调更新后的策略可以帮https://www.whb.cn/zhuzhan/kjwz/20200412/340072.html
16.推荐算法中的在线学习和离线学习有何区别,各自的优缺点是什么在线学习和离线学习是推荐算法中常见的训练方式,各自有不同的优缺点。在实际应用中可以根据需求选择合适的方式或结合两者优势。https://www.mbalib.com/ask/question-ec5c1bbee149c6534d0a725ffdb15235.html
17.2019机器之心人工智能年度奖项正式公布:关注创业先锋,聚焦产品2019 年,天泽智云发布无忧机加解决方案,基于 CPS 信息物理系统架构,融合高频振动数据和加工运行数据,结合机理、数据的智能分析,离线训练算法模型,在线评估刀具健康状态,实现刀具失效预警、刀具寿命预测和主轴健康管理。截止 2019 年 12 月底,已服务 2 家机床厂商,为其增强产品竞争力,提升服务价值;助力 4 家制造商将https://www.zhuanzhi.ai/document/2abfb47db9cd9ab70b4144f329e147b8