提升资源利用率与保障服务质量,鱼与熊掌不可兼得?

随着云计算时代的到来,大规模资源运营面临着如何在保障服务质量的同时提升资源利用率(降本增效)。但这两个目标的达成在当前的软硬件技术水平上,是相互矛盾的。本文介绍的LAR(LoadAuto-Regulator)系统,即是探索这两个矛盾方向间的平衡点,在保证质量的前提下,提升资源的利用率。

LAR通过资源分级池化,完备的QoS保障机制,做到精细化的单机资源调度与隔离,在提升整体资源利用率的同时,能够根据服务的优先级和特征保证服务的质量。LAR的整体设计可以适用于多个场景,包括在线场景和混部场景。目前LAR已经在美团在线场景中投入生产使用,并取得了较好的效果。

云计算时代的到来,资源规模化运营成为必然的选择,大规模数据中心成为当今企业级互联网应用和云计算系统的关键支撑。为保障日益增长的互联网应用和云计算系统的计算需求,数据中心需要不断扩容,规模和服务器总量呈现快速增长趋势。据权威报告指出,2020年全球数据中心的服务器总量将达到1800万台,并且正以每年100万台的速度增长。然而,伴随着数据中心的急速扩容,资源利用率却始终处于较低状态。统计数据表明,目前全球数据中心资源利用率仅为10%~20%,如此低的资源利用率意味着数据中心大量的资源浪费,进而导致目前数据中心的成本效率极低。

提升资源利用率,降本增效,能给数据中心节省大量的成本。以数百万核CPU的规模的数据中心为例,整体资源利用率每提升1个百分点,节省成本(包括采购成本和运营成本,运营成本主要是机房租金、电费以及运维费用等)每年将达到数千万元。如果考虑到集群运营人工成本等,随着资源规模持续扩大,这个收益将持续增长。

LAR全称是集群负载自动均衡管理系统(LAR,LoadAuto-Regulator),是美团Hulk团队基于Kubernetes研发的容器编排系统。LAR在Kubernetes之上,通过提供分级的QoS管理机制和负载管控能力,实现从时空维度对资源的精确调度分配管理。

提升资源利用率从大的层面讲,符合国家降本增效、节能减排的绿色低碳发展战略;从小的层面讲,通过提升资源利用率,可以为企业每年节省数亿的成本,并且降低整体系统复杂度及运维风险。

提升资源利用率,竟有这么大的收益?可能超乎绝大多数人的预料。按照很多同学的理解,通过非常简单的操作即可达成这个目标——提高单机的服务部署密度。但如此简单的操作,为何全球数据中心资源利用率仅为10%~20%呢?利用率如此之低,这里最为关键的因素有三个:

整体来说,从当前硬件架构和操作系统设计上看,虽然在资源分配上,理论上是进程作为独立的分配单位,资源相互隔离,但在实际使用上却是共享的,典型的包括CPU、网卡、I/O总线、Cache以及内核软件资源等。当然,软硬件如此设计本身就是为了提升整体资源利用的效率,提升整体任务的处理能力。而提升资源利用率,从本质上讲,是提升资源的复用共享,避免资源闲置浪费。但是提升资源共享复用水平,多少都会影响进程运行的效率,且随着复用水平越高,影响越大。

操作系统提供了一系列的资源隔离保障措施,意图降低服务在资源使用时彼此间的干扰,一定程度上在保障资源共享复用的同时提升了资源隔离的能力,但由于底层硬件架构上的限制,这种提升是有限的。而对于大多数业务的在线服务,服务质量的波动,比如延时增加、TPS下降等是难以接受的,特别是类似支付、订单类的核心服务。这是造成了当前数据中心整体资源利用率低的根本矛盾:一方面是在线业务对资源竞争导致的服务质量下降是难以容忍的,在线服务质量必须保障,另一方面当前大规模的数据中心在整体上资源利用率水平低,运营成本居高不下,亟需提升资源利用率,而提升资源利用率、降低运营成本会直接影响到在线业务服务质量。

一方面,“服务质量”关系着业务的服务体验,直接关系到营收,而另一方面,“提升资源利用率”,又有着巨大的成本空间可以降低,能够增加整体的收益。二者对于企业来说,就像“鱼与熊掌不可兼得”的矛盾。

当前业界,很多企业和研究单位都在投入大量的资源来研究如何解决这一矛盾,努力实现整体利益的最大化。

LAR(LoadAuto-Regulator),聚焦于“资源利用率提升”和“服务质量保障”这一矛盾的解决,整个系统设计的根本出发点,即是在集群资源运营上要实现资源利用率和服务质量的双重保障,解决数据中心运营中的“鱼与熊掌不可兼得”难题和挑战。

提升资源利用率的本质是提升资源共享复用水平,而保障服务质量则需要通过资源隔离能力,保障服务的性能稳定。针对上述两个根本点,LAR在Kubernetes上提出两个核心创新点:

上述两个核心创新点在帮助提升资源共享复用的同时,通过负载管理和操作系统提供的单机资源隔离能力,实现分级的服务质量保障的机制,具有很强的通用性,应用场景也比较广泛。

结合上述的核心创新点,LAR的整体设计目标包括:

在Hulk整体资源利用率运营体系中,LAR基于Kubernetes扩展,负责单个集群的资源管理和调度。相较于Native的Kubernetes,LAR提供分级可编辑更细致灵活的QoS服务质量保障机制,充分保障不同服务的资源供给及服务质量。

而LAR依托于底层的MTOS提供的资源隔离能力和调度资源Buffer池的物理机弹性伸缩能力,并根据集群运营数据中心和服务画像提供的集群及服务等特征,向上提供精细化的动态资源调整、负载管理以及QoS服务质量保障能力。统一调度系统在LAR之上,根据LAR提供的动态资源及服务质量数据,完成不同应用场景下,包括在线服务和离线服务的跨集群统一调度。

LAR处于整个资源利用率运营体系中核心关键位置,从功能上来看,整个产品分为五大主要功能模块:

上述五大功能模块由LAR系统中3个核心组件来落地实现。LAR是基于原生的Kubernetes进行研发扩展,如下图3的整体架构所示,LAR在Kubernetes的基础功能上,扩展了Scheduler和Kubelet的功能,并新增Recommender和QoSAdaptor两个组件。对Kubernetes原生组件的扩展均采用插件开发的模式,减少对原生组件的入侵式修改,从而降低未来运维和升级的成本;对于新增组件,遵循云原生的开发模式,包括代码风格以及运行机制,和Kubernetes保持统一。

QoSAdaptor

QoSAdaptor主要负责服务质量保障,其核心功能是负责单机资源的分池分级管理,提供分级的单机QoS服务质量保障机制。QoSAdaptor分为五个功能模块:

QoSAdaptor以DaemonSet的形式部署在Kubelet节点上,核心功能是实现资源池和容器的资源配置管理。如上图4所示,我们通过自研的CRIPlugin,以RuntimeHook的形式在容器生命周期管理中引入自定义的QoS保障机制。

由于QoSAdaptor的资源调整与QoS服务质量保障动作,均基于本地指标采集并进行实时的负载和策略计算,不依赖外部监控系统,减少了数据传输时延,在保证服务的稳定性同时确保可以秒级响应资源配置调整和服务质量保障动作,保障业务容器的稳定性。

Recommender

Recommender以集群为维度,每个集群部署一套服务。如上图5所示,Recommender通过集群运营数据中心和服务画像服务的离线数据,周期迭代计算LAR的策略参数。主要功能模块包括:

Scheduler

在LAR中,通过静态资源和动态负载之间的映射,进而在调度层屏蔽了动态负载变化,在调度层面降低了根据负载进行动态调度的复杂度。

Kubernetes默认根据业务申请的资源规格进行资源的调度分配,并以此设计调度计算框架和算法。但由于业务申请的资源规格是个静态值,且业务方对服务资源的使用通常倾向于放大评估,进而导致整体的资源申请和实际资源使用时存在较大的Gap。我们进一步考虑到资源的使用通常是动态的,也具有规律性的波峰波谷。这两点因素导致在集群的运营上,整体资源分配率接近满分配的情况下,资源使用率平均水平其实很低。

传统的方案通过节点资源超售来解决资源申请和实际资源使用之间存在的Gap,并引入根据负载的动态调度策略。调整节点资源超售,虽然能在一定程度上缓解资源申请和使用的Gap问题,但由于Gap在不同的服务间并不相同,加上服务资源使用的波峰波谷分布集中的情况(美团在线业务的典型特征),此方法在整体上过于粗放,会导致节点间的负载分布不均衡,部分节点负载很高,影响服务质量;另一部分节点负载极低,实际上形成资源浪费。而根据负载直接进行资源调度,由于负载是动态变化的,在调度算法设计及计算框架实现上会非常复杂,且效果一般。

在LAR中,我们通过引入资源配置因子(RCF,ResourceConfigurationFactor,资源池内的资源配比,动态控制池内容器的实际可用资源,数值区间为(0,1]),根据负载调整实际的资源分配,从而将负载的变化映射为可调度剩余资源的变化。如下图6所示,资源负载即为实际的使用资源,是动态变化的,静态资源是指资源总量和业务申请的资源规格,RCF由服务所在的节点的资源池决定,根据服务的历史资源使用数据和服务画像进行计算,并周期进行迭代更新。

围绕资源利用率提升和服务质量保障,LAR系统实现了以下关键技术:

分级池化资源模型是LAR整个设计的核心,整个模型包括资源分池动态管理和资源池优先级管理两个核心设计。

资源分池动态管理机制

资源分池动态管理引入资源池的概念,通过将节点资源进行分池管理,实现资源池内部资源高度共享,在提高资源复用率的同时,通过池间资源隔离达到池间服务的干扰隔离。资源池内资源的配置依据服务的负载进行动态调整,并通过资源配置的调整,控制资源池内部的资源负载维系在相对稳定的范围内,从而保证服务质量。

资源池优先级管理机制

在资源分池动态管理机制基础上,LAR引入资源池优先级管理机制,通过分级的服务质量保障机制,保障业务的服务质量。在资源池优先级管理机制中,不同的资源池具有不同的优先级,对应不同级别的服务质量保障级别。不同优先级的资源池,在资源配置管理上有3点区别:

在LAR的分级池化的资源模型中,节点空闲资源,放置到优先级最低的资源池内,其它资源池的资源配置由服务的资源申请规格、资源池资源配置管理策略以及资源池资源负载决定。在资源池资源配置管理策略中,包含资源池目标负载和资源池RCF两部分内容。资源池具体的配置资源由服务申请的资源和资源池实时负载决定。当实时负载升高时,LAR会调整对应资源池的RCF,增加资源池的资源配置,降低资源池负载;当资源池负载降低时,LAR会通过调整RCF降低资源池的资源配置,释放冗余资源。

上图7以3级资源池为例,节点资源被划分为0、1、2三类资源池,优先级依次降低。初始整个机器无服务调度其上,资源全部集中在Pool2。随着服务的调度,Pool1先调度了服务1,这时会根据上述的资源计算方式,LAR将Pool2的对应的资源调整至Poo1,Pool2资源减少。随着Pool1中服务增多,配置的资源随之增多,Pool2相应资源减少。优先级最高的Pool0调入服务后,同样的资源从Pool2调整至Pool0;Pool2调度入服务时,Pool2资源不变。

3个资源池配置不同的资源配置管理策略,0号池优先级最高,池内目标CPU负载控制在30%~50%之间;1号池优先级次之,池内目标CPU负载控制在45%~60%之间;2号池优先级最低,池内目标CPU负载控制在50%~80%。已分配的资源由资源池内服务共享,在池间相互隔离。在负载低时,不同资源池根据资源池管理策略,自动调整各资源池的资源配置,保证资源池内负载稳定;出现资源紧张时,高优资源池可以从低优资源池抢占资源,优先保障高优服务的资源需求。

LAR通过引入动态资源视图,将静态资源与动态负载进行映射,并基于资源池的实际负载进行更精确的资源分配决策。

当在线资源池出现负载波动时,池内分配资源会随着负载进行变化,引起池间的资源流动。池间资源流动遵循以下规则:

如图8所示,以3级资源池为例:

下图为资源池内负载与池内分配资源的变化情况,可以看到其变化趋势与美团在线服务负载特性基本保持一致。

提升资源利用率会导致资源竞争,LAR通过池间、池内两层QoS服务质量保障机制,分级保证服务的隔离性和稳定性。

池间多维度资源隔离

LAR对资源池进行了多维度的资源隔离与限制。除了基础资源(CPU、Memory),还对磁盘I/O、CPU调度、MemoryCache、内存带宽、L3Cache、OOMScore、网络带宽等更细粒度的资源进行了隔离,进一步提升不同等级服务间的隔离性,保证服务不会受到其他资源池的影响。

池内多层级保障策略

当资源池内负载出现不符合预期的情况时(如容器负载异常),由于资源池内资源共享,整个资源池的服务都可能受到影响。LAR基于资源池内不同的负载等级,制定了多级保障策略。

LAR提供了资源释放、资源抢占、CPU降级、Cache释放、容器驱逐等负载处理策略。QoSAdaptor周期性(秒级)地获取节点负载的数据,并计算资源池的负载等级。当负载达到一定的资源等级时,执行对应的负载策略。通过CPU降级、驱逐等行为,根据优先级对部分容器进行资源降级,保障池内绝大多数容器的稳定性。

LAR基于资源池的历史负载与历史分配情况,对池内高峰资源使用情况进行预测,为节点资源调整提供指导。

LAR的设计目标是在保障服务质量的同时提升整体资源的利用率,在资源分池分级的设计上,针对通用的在线服务进行服务分级,对接不同资源池,提供不同的服务质量保障,从而提升资源的利用率。而对于离线服务,本身相对于在线服务的服务质量要求低,故而LAR天然地适用于混部场景。

对于在线服务,通过对服务进行分级,并通过服务画像对服务进行细致刻画,将资源敏感型服务和关键核心服务部署到LAR优先级最高的资源池中;而对于一般的在线服务,部署在次优先级资源池。高优资源池提供更细粒度与严格的资源隔离手段(包括绑核、进程级优先调度、I/O隔离、网络隔离、Cache隔离等),以及在资源竞争时高优的资源供给保障,保证池内服务的质量稳定。

如上图12所示,一方面我们对高优资源池配置更强的资源隔离策略(比如CPU绑核、进程优先调度等),另一方面在池内资源配置上,高优资源池的资源配置更高。转换成资源池的资源利用率,高优池资源利用率控制在一个安全较低的水位;而低优池,则相对在一个更高的水平。而由于高优池主要针对关键核心且对资源敏感的在线服务,其在整个在线服务中相对比例不超过20%。从而能整体提升整机的资源利用率水平。

LAR在线服务场景中的应用,目前在Hulk的线上线下均已落地,如图13所示线上LAR集群(蓝色曲线表示)的整体平均CPU利用率相对于Native的Kubernetes集群(橙色和绿色曲线表示)平均高5到10个百分点,但整体平均服务质量(图14)和Native的Kubernetes集群反而更稳定。其中LAR集群目前作为在线集群使用,暂无离线服务接入。

混部主要就是通过将延时和稳定性容错性更高的离线服务和在线服务混合部署,实现在线服务和离线服务在资源使用时空上的削峰填谷,如下图15所示:

从上述章节介绍的LAR资源模型可知,LAR资源模型的核心特征包括:

有了上述能力的保障,LAR天然地适应于混部场景。在混部场景中,假设将资源池分为0、1、2三个级别,优先级依次由高到低。0和1号池分别对应核心关键在线服务和一般的在线服务,而2号池对应离线服务使用的资源池。LAR的资源动态调整保障负载能力,会自动将0号池与1号池在业务低峰期(负载低)的闲置资源回收,提供给2号池的离线服务使用。并且QoS服务质量保障机制,可以确保在业务高峰来临时,秒级抢占2号池资源(对于内存等非复用型资源,通过驱逐方式强制回收),从而保障在线服务的资源使用。

目前,LAR集群已陆续接入离线服务进行混部的验证。

LAR系统从2021年开始规划并启动建设,1.0版本我们完成了资源分级系统、负载驱动的动态资源视图建设。2.0版本,我们主要完成了服务质量保障体系建设。目前,我们正在与美团内部多个业务方深度进行合作,探索服务分级接入及混部场景的应用。未来,LAR会继续在自动化智能化运营和混部场景应用进行探索迭代。

启超、汪喆、谭霖等,均来自美团基础技术部/基础软件中心Hulk调度系统。

基础技术部-基础软件中心-调度系统组,主要负责支撑业务在容器调度的需求,保障集群稳定性,提升资源使用率,提供基于Kubernetes的云原生编排引擎,提供ETCD服务,支撑PaaS服务云原生落地,服务于公司云化战略目标等。

目前,团队诚招高级工程师、技术专家,团队技术氛围浓厚,工作内容具有较高的技术挑战,诚邀对集群调度技术感兴趣自驱力强的伙伴加入,共建公司级的业界领先大规模复杂场景的调度系统,在效率、性能和成本优化上共同探索前进。欢迎有兴趣的同学投送简历至edp.itu.zhaopin@meituan.com(邮件主题请注明:Hulk调度系统)

THE END
1.强化学习强化学习中,离线策略和在线策略的区别是什么?请从原理和例在强化学习(RL)中,离线策略和在线策略是两种不同的学习和决策方法,它们各有优势和适用场景。 了解这两者的区别有助于选择适合的算法和策略进行有效的学习和决策。 接下来,我们将从原理和例子两个方面对离线策略和在线策略进行详细解释。 原理 1. 离线策略(Off-policy) https://blog.csdn.net/wq6qeg88/article/details/140999201
2.强化学习蒙特卡罗之离线策略在线策略和离线策略,也是观测到 greedy 产生的策略有一定的随机性,不适合做最优策略。策略评估和策略改进能否用两种策略呢?根据答案从而产生了 on-policy 和off-policy 两种方案。 On-policy (在线策略)是指两个过程中使用的是同一个策略。 离线策略 off policy https://www.jianshu.com/p/20feefe77239
3.强化学习离线模型离线模型和在线模型在推荐算法领域,时常会出现模型离线评测效果好,比如AUC、准召等指标大涨,但上线后业务指标效果不佳,甚至下降的情况,比如线上CTR或CVR下跌。 本文尝试列举一些常见的原因,为大家排查问题提供一点思路。 1. 离线、在线特征不一致 离线、在线特征不一致通常是模型线上效果不好的主要原因,然而,造成离在线特征不一致的原因https://blog.51cto.com/u_14499/11815202
4.基于离线策略的电力系统安全稳定在线附加紧急控制方法影响“在线预决策,实时匹配”紧急控制技术推广应用的关键因素之一在于难以对在线策略的适应性进行量化评估,通常还是凭经验预先设定在线策略的适用条件,其可靠性难以保证。[0004]综上所述,基于离线策略的紧急控制在电网大多数运行工况下能够保证电网的安全稳定,但控制策略的精度不高,通常过于保守,控制量过大;基于在线预https://www.xjishu.com/zhuanli/05/CN104779608.html
5.一种基于海量策略智能处理平台的全市场多品种金融资管系统.pdf一种基于海量策略智能处理平台的全市场多品种金融资管系统.pdf,本发明公开了一种基于海量策略智能处理平台的全市场多品种金融资管系统,包括:交易平台,数据平台和策略平台。负责策略包括离线策略生产管理子系统和在线策略运行管理子系统,策略平台采用机器学习算法来计算https://max.book118.com/html/2023/1209/5001301144011022.shtm
6.人工智能团队研究成果在TKDE发表:样本高效的离线转在线强化学习(2)分布偏移。分布偏移问题使得离线预训练的代理难以快速适应在线微调设置,导致样本效率低下。更糟糕的是,当使用更具探索性的行为策略与环境交互时,这个问题可能会进一步放大。 为此,本研究提出以面对不确定性的乐观原则推导的优化问题,并以迭代方式解决该问题。为了保持行为策略的在线性,实验室人工智能团队将行为策略http://icfs.jlu.edu.cn/info/1007/3101.htm
7.全面解析离线系统侠士玩法:深度探索特色功能与策略技巧全面解析离线系统侠士玩法,深度探索其特色功能与策略技巧,以下以《九阴真经》为例进行详细说明: 一、离线系统侠士玩法概述 在《九阴真经》中,离线系统为玩家提供了一种全新的游戏体验,当玩家关闭客户端一段时间后,角色会自动再次登录进游戏世界,继续与在线角色一起闯荡江湖,实现角色“永不下线”,这一设定不仅丰富了游http://www.saxin.vip/sxgl/7245.html
8.墨墨背单词99999破解版安卓2022下载3.量身定制的抗遗忘策略 墨墨背单词对每一个独立的单词依据单词难度和学员个体的记忆差别量身定制专属于每一个学员的记忆规划。在每个单词即将到达遗忘临界点的时候,恰到好处的安排你的下一次复习。 4.自由的词汇添加 墨墨背单词允许你随时添加新的单词到学习列表,甚至一篇自定义文章的单词提取,很好的结合了你平时生https://www.37uu.cn/soft/662666.html
9.(4)策略梯度法·UCBCS294策略梯度法通常会有一些问题。第一个问题下一节会讲,第二个问题我们会在将来讨论怎么去缓解。 第一个问题:在两个图中,x 轴代表轨迹,而 y 轴代表轨迹对应的收益。蓝色实线是我们选取策略的分布密度。我们从分布之中抽取了三个样本,在(a)图中,可以发现最左边的样本的收益是一个很大的负数,而右边两个都是很小https://www.kancloud.cn/apachecn/ucb-cs294-112-notes-zh/1945847
10.智能控制技术范文12篇(全文)由于采集的数据仅覆盖装置所在地附近的区域,无法推算整个系统的运行状态,故如何将电力系统暂态稳定紧急控制模式由现有的“离线计算策略表,实时故障匹配”模式向“在线预决策、实时匹配”的新控制模式发展以及原系统中出现的一些问题与其在新系统中相应的解决方案必须进行深入的研究。https://www.99xueshu.com/w/ikeyve5gy2gl.html
11.读懂数字人民币,这一篇就足够产品笔记DC/EP凭借双离线支付、账户松耦合等技术设计提高我国金融稳定性,增强经济体应对突发状况能力。 助力货币体系降本增效,推动普惠金融 DC/EP可降低货币运营成本,便利货币政策传导,畅通信息数据链条,降低金融服务门槛;提升反洗钱、反恐怖融资、反逃税监管效率,以及满足公众匿名需求。 https://www.shangyexinzhi.com/article/4579724.html
12.本地谷歌SEO现状:专家们权衡行业特定策略—AdWeb全球站第三个最重要的营销策略是了解你的客户是谁,他们住在哪里,你如何与他们建立联系,以及他们关心什么。从战略的角度来看,您对目标客户的了解越多,您就越能参与到他们所属的当地社区中。对于本地搜索,我认为谷歌希望在在线世界中突出来自离线世界的流行公司。开始专注于建立一个更好的本地品牌。 https://www.adwebcloud.com/www.adwebcloud.com/bdggsxzzjmqhhyt/
13.线上线下融合教学的优势不足与发展策略内容线上线下融合教学的优势、不足与发展策略 王聪 上海市康健外国语实验中学 【摘要】:随着时代的发展和互联网的普及,线上线下融合教学已被大多数教师所认可。教师可以在线进行在线课程,在学习活动中与教学互动,对课后知识进行概括,最大限度的利用学生碎片化的时间,保障学习效果。线上线下教学开发的重要性及其在教学中的https://tpd.xhedu.sh.cn/cms/app/info/doc/index.php/92024
14.推荐系统中离线推荐与在线推荐的困惑?的情况,所以我们添加了样本回放功能,即从昨天的样本中根据一定策略,选取部分离线样本,与在线实时样本https://www.zhihu.com/question/525209410/answer/2417235234
15.房地产营销的论文企业需要以多种方式获取消费者信息。在线网站是最直接访问网络上的互动信息流,网上活动实名用户注册、互动媒体等形式的互动可以增加到消费者数据库。企业信息数据库的进一步挖掘和分析消费者行为信息,如消费者的历史,健康,生活轨迹,使用手机的频率,时间,以确定他们的需求,提供数据支持,制定精准营销策略。https://www.ruiwen.com/lunwen/6999840.html
16.得物AppH5秒开优化实战OSCHINA从点击到路由这部分耗时在线下进行了性能测试,几乎可以忽略不计。 3.2.3 最终线上收益效果 在上述问题解决后,将缓存时间修改为 1 天,发现预请求 HTML 开启状态下可提升 8% 左右的秒开,已经和预加载的效果相差不大了。 3.3 离线包 通过提前将 H5 页面内所需的 css、js 等资源聚合在一个压缩包内,由客户端https://my.oschina.net/u/5783135/blog/5527553
17.基于优化算法的插电混动PHEV能量管理策略概览目前应用较多的EA 包括粒子群算法(Particle swarm optimization, PSO),遗传算法(Genetic algorithm,GA),拟退火算法(Simulated annealing,SA),蚁群算法(Ant colony optimization, ACO),差分进化算法(Differential evolution, DE)等,针对于PHEV 能量管理问题,该算法现阶段均采用离线运算出最优结果,再与在线策略相结合的机制https://www.yoojia.com/article/9615930982477810013.html
18.悄悄学习Doris,偷偷惊艳所有人ApacheDoris四万字小总结DorisDB 重新定义了 MPP 分布式架构,集群可扩展至数百节点,支持 PB 级数据规模,是当前唯一可以在大数据规模下进行在线弹性扩展的企业级分析型数据库。 DorisDB 还打造了全新的向量化执行引擎,单节点每秒可处理多达 100 亿行数据,查询速度比其他产品快 10-100 倍! https://xie.infoq.cn/article/b2250c2d887f69d8519a3f50b
19.营销策略论文在社会的各个领域,大家一定都接触过论文吧,论文是一种综合性的文体,通过论文可直接看出一个人的综合能力和专业基础。相信许多人会觉得论文很难写吧,以下是小编为大家收集的营销策略论文,仅供参考,希望能够帮助https://www.unjs.com/lunwen/f/20230225163945_6529357.html
20.政府采购用户需求书(精选6篇)1)要求提供企业电子档案一体化迁出和迁入功能。适用于企业管辖单位发生变更后,对相应的企业电子档案进行一体化的迁出与迁入管理,具备在线迁移、离线迁移、迁移日志管理等功能。 2)在线迁移提供基于标准FTP网络传输方式的电子档案迁出和迁入功能。3)离线迁移提供基于本地移动存储介质的海量电子档案迁出和迁入功能,专门解决大https://www.360wenmi.com/f/filegkpq2k8e.html
21.科学网—[转载]群视角下的多智能体强化学习方法综述基于学习(深度学习、强化学习)设计的迭代式问题求解方法是离线策略学习的基础范式。由于环境及对手的非平稳性,离线训练的蓝图策略通常很难直接运用于在线对抗。在线博弈对抗过程与离线利用模拟多次对抗学习博弈过程不同,博弈各方处于策略解耦合状态,与离线批(batch)式策略学习方法不同,在线博弈对抗策略的求解本质是一个流https://blog.sciencenet.cn/home.php?mod=space&uid=3472670&do=blog&id=1422698