改进克里金模型辅助的双档案在线数据驱动进化算法ImprovedKrigingModelAssistedTwoArchiveOnlineData

改进克里金模型辅助的双档案在线数据驱动进化算法

高娜

河北地质大学信息工程学院,河北石家庄

收稿日期:2022年8月19日;录用日期:2022年9月16日;发布日期:2022年9月26日

摘要

在现实世界中,许多进化优化问题难以找到合适的评估函数或评估代价十分昂贵,这在进化优化算法求解现实中的优化问题时提出诸多挑战。近年来,为了解决进化优化算法评估代价昂贵的问题,数据驱动的进化优化应运而生。数据驱动的进化优化的基本思想,就是通过充分利用数据的作用,训练代理模型辅助进化优化过程。一般是将代理模型用于近似真实昂贵函数评估,实现廉价的评估过程,提升算法性能。根据KTA2算法,本文提出了一种改进克里金模型辅助的双档案在线数据驱动进化算法KTA2_addModel4。在KTA2算法中,由训练的三种克里金模型作为代理模型:全部数据集训练的敏感模型、无较大影响点训练的不敏感模型1和无较小影响点训练的不敏感模型2。在改进的算法KTA2_addModel4中,增加了一种同时去掉较小影响点和较大影响点训练的不敏感模型3。通过在测试函数上与KTA2算法和其他代理辅助的数据驱动进化算法对比,证明提出的KTA2_addModel4算法改进了代理模型的质量,提升了算法的性能。

关键词

在线数据驱动,进化算法,克里金模型,双档案

ImprovedKrigingModel-AssistedTwo-ArchiveOnlineData-DrivenEvolutionaryAlgorithm

NaGao

CollegeofInformationEngineering,HebeiGEOUniversity,ShijiazhuangHebei

Received:Aug.19th,2022;accepted:Sep.16th,2022;published:Sep.26th,2022

ABSTRACT

Keywords:OnlineData-Driven,EvolutionaryAlgorithm,KrigingModel,Two-Archive

ThisworkislicensedundertheCreativeCommonsAttributionInternationalLicense(CCBY4.0).

1.引言

2.KTA2算法

KTA2算法[12]是根据数据驱动进化算法的一般框架,选择克里金模型[3]训练代理模型,并结合双档案算法设计的在线数据驱动进化算法。

2.1.代理模型的训练

Figure1.KTA2algorithmmodel

2.2.代理模型的使用

2.3.代理模型的更新

在KTA2算法中,代理模型的更新是根据收敛性、多样性指标完成采样的。通过判断此时是收敛性需要阶段、多样性需要阶段或不确定性需要阶段,分别采用收敛性采样策略选择收敛性好的解提升种群的质量,采用多样性采样策略选择多样性好的解使种群更均匀地分布在Pareto前沿面上,采用不确定性采样策略选择不确定性解提升代理模型的全局精确度,详见[12]。

Figure2.ModelusageofKTA2algorithm

3.改进的KTA2算法——KTA2_addModel4算法

本文基于Song[12]等人提出的KTA2算法,对代理模型的训练作出改进,针对每个目标,由原来的三种模型近似真实函数评估改进为四种模型近似真实函数评估,提出了改进的KTA2算法——KTA2_addModel4算法,KTA2算法与KTA2_addModel4算法都是求解评估代价昂贵的多目标优化问题的在线数据驱动进化算法。

3.1.改进的代理模型

在原来KTA2算法中,代理模型包括由全部数据训练得到的敏感模型、去掉部分较大目标值的数据集训练得到的不敏感模型1和去掉部分较小目标值的数据集训练得到的不敏感模型2。在本文中,所有去掉的个体都称为影响点。将除去的目标值较大的个体称为较大影响点,将除去的目标值较小的个体称为较小影响点。在KTA2算法中,之所以训练去掉这些影响点后的模型,是考虑到这些影响点对代理模型质量的影响。因为在KTA2算法中,代理模型的作用是近似真实昂贵函数评估,所以在使用代理模型预测适应度值时,通常会有一定的近似误差。而这些影响点的存在,可能会降低代理模型的质量,产生较大的近似误差。

在改进的KTA2算法——KTA2_addModel4算法中,对代理模型作出改进,增加了第四种模型——同时去掉部分较大目标值和部分较小目标值的数据集训练得到的不敏感模型3。即在KTA2_addModel4算法中,增加训练了一种同时考虑较大影响点和较小影响点的模型。考虑影响点对代理模型的影响,可能降低训练得到的代理模型的质量,从而可能产生较大的近似误差。与传统只使用一个代理模型的数据驱动的进化算法对比,使用多个代理模型的数据驱动的进化算法的好处在于:

1)由多个代理模型共同完成近似真实昂贵函数评估任务,可以综合各个代理模型的作用,提升预测准确率;

2)等同于将一个代理模型细分、精确化,可以兼顾不同候选解适应度值的预测准确率。

Figure3.FlowchartofKTA2_addModel4algorithm

设种群规模为N,种群中的个体有m个目标,对每个目标的所有目标值进行升序排序,则根据每个目标,得到种群的升序排列。设置控制影响点数量的参数τ,τ表示取种群中训练数据的比例。针对每个目标,训练敏感模型时,取N个训练数据作为训练集;训练不敏感模型1时,取前τ*N个训练数据作为训练集;训练不敏感模型2时,取后τ*N个训练数据作为训练集;训练不敏感模型3时,取中间(1(1τ)*2)*N即去掉前(1τ)*N和后(1τ)*N个训练数据作为训练集。

Figure4.AgentmodelofKTA2_addModel4algorithm

3.2.改进代理模型的使用

在KTA2算法中,通过某种决策机制,使用敏感模型、不敏感模型1、不敏感模型2得到候选解的适应度值。在KTA2_addModel4算法中,由于增加了不敏感模型3,因此代理模型的使用也要发生改变。但是,代理模型的使用原理,即决策机制未作出改变。KTA2_addModel4中代理模型的使用如下:

Figure5.UseofKTA2_addModel4algorithmagentmodel

3.3.改进代理模型的更新

4.实验结果及分析

为了验证改进的KTA2算法——KTA2_addModel4算法的性能,本节首先将KTA2_addModel4算法与KTA2算法在11个测试函数CDTLZ2、DTLZ1、IDTLZ1、IDTLZ2、SDTLZ1、SDTLZ2、WFG1、WFG3、WFG5、WFG7、WFG9上作对比,然后再将KTA2_addModel4算法与4个代理模型辅助的昂贵多目标进化算法ABSAEA算法、CSEA算法、KRVEA算法、MOEADEGO算法在这11个测试函数上作对比。本文所有测试函数及对比算法参数均设置为默认值,KTA2_addModel4算法参数设置与KTA2算法默认值一致。CDTLZ2、DTLZ1、IDTLZ1、IDTLZ2、SDTLZ1、SDTLZ2、WFG1、WFG3、WFG5、WFG7、WFG9均为3目标测试函数。种群规模均设置为100,最大函数评估次数maxFE均设置为300。

本文实验选取反转世代距离IGD[13](InvertedGenerationalDistance,IGD)作为评价指标,IGD由真实Pareto前沿[13]中的个体到实验所求得的Pareto解集的平均距离表示,反映算法求得的Pareto解集逼近真实Pareto前沿的情况。算法求得的Pareto解集越逼近真实Pareto前沿说明算法的性能越好,即IGD值越小算法的性能越好。

4.1.与KTA2算法对比

Table1.ComparisonbetweenKTA2_addModel4algorithmandKTA2algorithm

4.2.与其他算法对比

Table2.ComparisonbetweenKTA2_addModel4algorithmandotheralgorithms

5.总结与展望

数据驱动的进化优化算法是近年来研究者针对昂贵进化优化问题提出的一种有效的解决方法。本文对在线数据驱动的进化优化算法KTA2进行改进,通过研究提升代理模型的质量以提升算法的性能。本文对代理模型作出的改进在一些测试问题上取得较好的效果,但是在其他测试问题上的性能仍有待提升。由于增加了不敏感模型3,降低敏感点对模型质量影响的同时,也增加了模型预测的不准确性,关于如何进一步解决这一问题,使其在更多测试问题上取得优良效果,仍有待研究。

THE END
1.train和offlinetrain需要交互的训练是online吗离线学习适用于处理大数据和复杂模型,需要所有训练数据在训练前可用,训练完成后模型才用于预测。在线学习则侧重实时性,数据以流式到达,模型会随新数据不断更新。两种方式常结合使用,如离线训练后在线微调。在线学习关注当前数据,离线学习则能看到全局。 摘要由CSDN通过智能技术生成 https://blog.csdn.net/qq_45104603/article/details/126052925
2.关于训练神经网路的诸多技巧Tricks(完全总结版)很多人都说训练神经网络和炼金术师炼药的过程相像,难以破解其中的黑盒子。其实不然,在训练的时候我们依然可以通过大量的技巧去最大化我们的训练效果,从而帮助我们的任务取得不错的精度,这些技巧是训练神经网络不可缺少的一环。 本文尽可能说明训练过程中所需要的各种小技巧,会有不完善的地方,限于篇幅每个点不会说很https://cloud.tencent.com/developer/article/2346565
3.如何构建高效的离线机器学习模型训练平台?袋鼠社区此外,离线训练还能够有效减少对网络带宽的依赖,提升训练的稳定性和效率。 二、离线机器学习模型训练平台的核心组成部分1. 硬件环境: 离线机器学习训练平台的硬件环境是基础,包括计算机硬件(CPU、GPU等)、存储设备(HDD、SSD)和网络设施等。合适的硬件配置对模型训练速度和性能起着至关重要的作用。比如,GPU在处理大型https://www.dtstack.com/bbs/article/15769
4.相比于离线训练,在线训练的好处有什么?问答离线训练毕竟使用的是 T-1 或者 T-2 的数据去做的,没有对线上实时产生的行为数据进行利用,对于数据的时效性利用相对较差。 比如说,有这样的一个场景,今天我的整个平台只对 14 岁以下的少女做某个运营活动,而平台上充斥了大量的年龄段的客户,整个平台的交互行为都变了,这个时候你的模型还是 T-1 去做的,将https://developer.aliyun.com/ask/446535
5.模型也可以上网课?!一文看懂服务型蒸馏训练方案同时由于Teacher模型可以弹性调度,不用担心高峰时线上实例被抢占造成的任务失败。相当于把teacher对训练卡的资源需求转移到了在线GPU卡上,在v100等离线训练资源受限的情况下,使用在线卡对训练进行加速,以节约宝贵的训练资源。 此外,在离线集群上,结合调度策略,还可以将Teacher模型部署到集群碎片资源,或者如k40等使用率https://www.thepaper.cn/newsDetail_forward_8071575
6.谁说RL智能体只能在线训练?谷歌发布离线强化学习新范式为了避免 distribution mismatch,强化学习的训练一定要在线与环境进行交互吗?谷歌的这项最新研究从优化角度,为我们提供了离线强化学习研究新思路,即鲁棒的 RL 算法在足够大且多样化的离线数据集中训练可产生高质量的行为。 为了避免 distribution mismatch,强化学习的训练一定要在线与环境进行交互吗?谷歌的这项最新研究从优化https://www.51cto.com/article/614512.html
7.深度学习模型在线训练排序策略离线排序模型华为云帮助中心为你分享云计算行业信息,包含产品介绍、用户指南、开发指南、最佳实践和常见问题等文档,方便快速查找定位问题与能力成长,并提供相关资料和解决方案。本页面关键词:深度学习模型 在线训练。https://support.huaweicloud.com/topic/985668-2-S
8.科学网—[转载]群视角下的多智能体强化学习方法综述基于学习(深度学习、强化学习)设计的迭代式问题求解方法是离线策略学习的基础范式。由于环境及对手的非平稳性,离线训练的蓝图策略通常很难直接运用于在线对抗。在线博弈对抗过程与离线利用模拟多次对抗学习博弈过程不同,博弈各方处于策略解耦合状态,与离线批(batch)式策略学习方法不同,在线博弈对抗策略的求解本质是一个流https://blog.sciencenet.cn/home.php?mod=space&uid=3472670&do=blog&id=1422698
9.蚂蚁金服核心技术:百亿特征实时推荐算法揭秘备注:弹性特征带来一个显著的优势:只要用足够强的L1稀疏性约束,在单机上就能调试任意大规模的特征训练,带来很多方便。我们的hashmap实现是KV化的,key是特征,value是vector的首地址。 离线训练优化 经过这样的改造后,在离线批量学习上,带来了以下变化: 在线训练优化 https://maimai.cn/article/detail?fid=1010621115&efid=mIQCHnkj0zjxlpygUmo5mg
10.构建容器镜像部署nnae软件(支持离线推理在线推理训练)本文档基于镜像树结构来构建容器镜像,具有可扩展性。 镜像树示意图如图1所示。 图1镜像树示意图 表1 昇腾基础镜像树说明 镜像名 说明 ascendbase-train 安装系统组件及python第三方依赖等。 ascend-train 安装深度学习引擎包nnae(支持离线推理、在线推理、训练)等。 https://www.hiascend.com/document/detail/zh/mindx-dl/2046/dluserguide/toolboxug/toolboxug_000121.html
11.机器学习术语表:机器学习基础知识MachineLearningGoogle动态模型(或在线模型)是一种模型, 。 动态训练(或在线训练)是训练 频繁或持续不断 动态推理(即在线推理)是 根据需求生成预测。 动态模型 #fundamentals 一个模型经常出现(甚至可能会持续) 重新训练。动态模型是一个“终身学习者”那个 适应不断演变的数据。动态模型也称为在线模型。 https://developers.google.cn/machine-learning/glossary/fundamentals?hl=zh-cn
12.基于Kmeans聚类的CSI室内定位AET对于单个天线对得到fin,对于m个天线的每个天线对使用Kmeans算法,得到训练向量: 2.2 在线定位阶段 在线定位阶段采用与离线训练阶段相同的方法提取到m个天线对的指纹: 将提取到的指纹与训练阶段建立的数据库中的指纹作比较,即将获取到的第i个天线对的指纹矩阵与数据库中的第i个天线对的指纹矩阵,进行两个指纹矩阵中任http://www.chinaaet.com/article/3000057028
13.粗排优化探讨得物技术离线在线一致性分析 待补充实际效果 四 样本设计 粗排相较于精排样本选择偏差(SSB)的问题更加严重,借鉴召回经验,可以通过适当采样减少偏差。采样设计的目的也是希望离线训练样本尽可能与线上分布一致。 样本选择方法 负样本可选范围: 曝光未点击样本; 全库除转化外样本; https://blog.itpub.net/70027824/viewspace-3000851/
14.推荐模型离线评测效果好,线上效果却不佳的原因推荐系统里非常常见,并且往往非常的隐蔽的一种数据分布不一致的情况被称之为冰山效应,也就是说离线训练用的是有偏的冰山上的数据,而在线上预估的时候,需要预测的是整个冰山的数据,包括大量冰面以下的数据!我们看下面这张图。左边是我们的Baseline,绿色的表示正样本,红色表示负样本,灰色部分表示线上由于推荐系统的“https://www.jianshu.com/p/34489b31c783
15.微软亚洲研究院解密:AISuphx是如何成为麻将十段的?科技当初始的手牌发到麻将AI手中时,通过模拟来调整离线训练好的策略,使其更适应这个给定的初始手牌。微软亚洲研究院的实验表明,相对麻将隐藏信息集的平均大小10的48+次方倍而言,模拟的次数不需要很大,pMCPA也并不需要为这一局手牌收集所有可能后续状态的统计数据。由于pMCPA是一种参数化的方法,所以微调更新后的策略可以帮https://www.whb.cn/zhuzhan/kjwz/20200412/340072.html
16.推荐算法中的在线学习和离线学习有何区别,各自的优缺点是什么在线学习和离线学习是推荐算法中常见的训练方式,各自有不同的优缺点。在实际应用中可以根据需求选择合适的方式或结合两者优势。https://www.mbalib.com/ask/question-ec5c1bbee149c6534d0a725ffdb15235.html
17.2019机器之心人工智能年度奖项正式公布:关注创业先锋,聚焦产品2019 年,天泽智云发布无忧机加解决方案,基于 CPS 信息物理系统架构,融合高频振动数据和加工运行数据,结合机理、数据的智能分析,离线训练算法模型,在线评估刀具健康状态,实现刀具失效预警、刀具寿命预测和主轴健康管理。截止 2019 年 12 月底,已服务 2 家机床厂商,为其增强产品竞争力,提升服务价值;助力 4 家制造商将https://www.zhuanzhi.ai/document/2abfb47db9cd9ab70b4144f329e147b8