基于多智能体强化学习的多无人机协同空战机动决策方法

本发明属于无人机技术领域,具体涉及多无人机协同空战机动决策方法。

背景技术:

目前,无人机已经能够完成侦察、监视和对地攻击等任务,在现代战争中发挥着越来越难以替代的作用。但是由于智能化水平的限制,目前无人机尚无法进行自主空战机动决策,尤其是多架无人机的自主协同空战。因此,提升无人机的智能化水平,让无人机能够根据态势环境而自动产生控制指令完成空战中的机动动作是当前主要的研究方向。

让无人机完成空战机动自主决策,其实质是完成从空战态势到机动动作的映射,在不同态势下执行相应的机动动作。由于空战的态势较之于其他任务更加复杂,靠人工预编程的方法难以全面地覆盖空战任务的态势空间,更难以计算产生最优的机动动作决策。

目前对无人机空战机动决策研究都是针对1v1单机对抗场景下所开展的,而现实空战中,基本都是多架无人机组成编队协同作战。多机协同空战涉及空战态势评估、多目标分配、机动决策三个方面,协同空战是这三个部分的紧密联系的耦合过程,相对于单机对抗的机动决策,多机协同空战除了兵力数量规模扩大之外,还需要考虑战术配合,问题更加复杂。

对多机协同空战决策研究可以分为集中式和分布式,集中式的方法是由一个中心计算编队内所有无人机的行动,这类模型较为复杂,存在计算难度大、实时性不足的问题。分布式方法的思路是在目标分配的基础上由编队内的各个无人机自行计算各自的机动动作,从而降低模型的复杂度,通过目标分配来实现编队任务的协同。现有的分布式协同空战决策方法多采用先进行目标分配,再根据目标分配的结果将多对多空战转化为一对一的情况,这种方法无法很好地发挥多目标攻击能力和编队作战的战术协同,无法达到1+1>2的效果。

技术实现要素:

为了克服现有技术的不足,本发明提供了一种基于多智能体强化学习的多无人机协同空战机动决策方法,解决了仿真多对多空战中多无人机协同空战中的机动动作的自主决策问题。本方法包含:无人机平台的运动模型创建;基于攻击区和距离、角度因素的多机空战态势评估,分析多机空战机动决策的状态空间、行动空间和奖励值;设计了协同空战中的目标分配方法和策略协调机制,通过奖励值的分配,定义了各个无人机在目标分配、态势优势和安全避碰的行为反馈,经过训练后实现策略协同。本发明可有效提高多无人机进行协同空战机动自主决策的能力,具有更强的协同性和自主寻优性,在不断的仿真和学习中无人机编队所做的决策水平不断提高。

本发明解决其技术问题所采用的技术方案包括以下步骤:

步骤1:建立多机空战环境模型,定义在多机协同空战过程中每架无人机进行机动决策的状态空间、行动空间和奖励值;

步骤1-1:在地面坐标系中,ox轴取正东方,oy轴取正北方,oz轴取铅垂方向;在地面坐标系中无人机的运动模型如式(1)所示:

在地面坐标系中,无人机的动力学模型如式(2)所示:

其中,(x,y,z)表示无人机在地面坐标系中的位置,v表示无人机速度,和分别表示无人机速度v在xyz三个坐标轴上的值;航迹角γ表示无人机速度v与水平面o-x-y之间的夹角;航向角ψ表示无人机速度v在o-x-y平面上的投影v′与oy轴之间的夹角,g表示重力加速度;[nx,nz,μ]是控制无人机进行机动的控制变量,nx是无人机速度方向的过载,代表无人机的推力与减速作用;nz表示无人机俯仰方向的过载,即法向过载;μ是围绕无人机速度矢量的滚转角;通过nx控制无人机的速度大小,通过nz和μ控制无人机速度矢量的方向,进而控制无人机进行机动动作;

步骤1-2:设定导弹仅具有尾后攻击能力;在导弹的截获区域内,用vu和vt分别表示无人机和目标的速度;d为距离矢量,表示无人机与目标间的位置关系;αu和αt分别表示无人机速度矢量与距离矢量d之间的夹角和目标速度矢量与距离矢量d之间的夹角;

设导弹的最远截获距离为dm,视场角为则导弹的截获区域为一个圆锥区域ω;无人机在空战中机动的目标就是让目标进入无人机的截获区域ωu同时避免无人机进入目标的截获区域ωt;

根据导弹截获区域的定义,如果目标处于己方导弹的截获区域,则说明己方能够发射武器攻击目标,己方处于优势,定义无人机截获目标时的优势值ηu为:

其中,(xt,yt,zt)表示目标的位置坐标;re为正数;

定义目标截获无人机获得的优势值ηt为:

其中,(xu,yu,zu)表示无人机的位置坐标;

则空战中,无人机基于截获机会获得的优势值ηa定义为:

ηa=ηu-ηt(4)

定义基于双方角度参数与距离参数获得的优势值ηb为:

上式表明,当无人机对目标尾追时,优势值为ηb=1;在无人机被目标尾追时,优势值为ηb=-1;当无人机与目标的距离大于导弹最远截获距离时,优势值按指数函数衰减;

综合式式(4)、(5),得出无人机所处空战的态势评估函数η为:

η=ηa+ηb(6)

步骤1-3:任意时刻空战态势的几何关系由同一坐标系内的无人机位置矢量、无人机速度矢量、目标位置矢量、目标速度矢量所包含的信息完全确定,因此空战态势的描述由以下5个方面组成:

1)无人机的速度信息,包括速度大小vu、航迹角γu和航向角ψu;

2)目标的速度信息,包括速度大小vt、航迹角γt和航向角ψt;

3)无人机与目标之间的相对位置关系,采用距离矢量d表征;距离矢量的模d=||d||,γd表示距离矢量d与水平面o-x-y的夹角,ψd表示距离矢量d在水平面o-x-y上的投影矢量与oy轴之间的夹角,无人机与目标的相对位置关系用d、γd和ψd表示;

4)无人机与目标之间的相对运动关系,包括无人机速度矢量与距离矢量d之间的夹角αu和目标速度矢量与距离矢量d之间的夹角αt;

5)无人机的高度信息zu和目标的高度信息zt;

基于上述1)到5)中的变量能够完备地表征任意时刻的1v1空战态势,因此1v1机动决策模型的状态空间是一个13维向量空间s:

s=[vu,γu,ψu,vt,γt,ψt,d,γd,ψd,αu,αt,zu,zt](7)

采用态势评估函数η作为空战机动决策奖励值r,通过态势评估函数来反映行动值对空战态势的作用,r=η;

步骤1-4:在多机空战中,设定无人机的数量为n,分别记为uavi(i=1,2,…,n),目标的数量为m,分别记为targetj(j=1,2,…,m),设定目标的数量不大于无人机的数量,即m≤n;

记任意两个uavi和targetj间的相对状态为uavi与任意一个友机uavk之间的相对状态记为则多机空战中任意一架uavi的观测状态为:

si=[∪sij|j=1,2...,m,∪sik|k=1,2,...,n(k≠i)](8)

在多机空战过程中,每架无人机根据自己在空战环境中所处的态势做出自己的机动决策,根据式(2)所述的无人机动力学模型,无人机通过nx、nz和μ三个变量控制飞行,因此uavi的行动空间为ai=[nxi,nzi,μi];

在多机协同空战中,按照式(4)和式(5)分别计算每个无人机与每个目标之间的态势评估值ηa和ηb,记uavi与targetj间的态势评估值为和除此之外,考虑uavi与友机uavk的相对状态对自身态势的影响,因此定义uavi与友机uavk的态势评估函数为:

其中dik为无人机uavi与友机uavk之间的距离,dsafe为两架无人机之间的最小安全距离,p为正数。

步骤2:建立多机协同目标分配方法,确定强化学习训练时的目标分配规则;

步骤2-1:在空战中,设n架无人机迎战m架目标,且n≥m;根据式(6),uavi(i=1,2,…,n)相对targetj(j=1,2,…,m)的态势评估值为

设目标分配矩阵为x=[xij],xij=1表示targetj分配给uavi,xij=0表示targetj没有分配给uavi;设每个无人机最多能同时对处于其攻击区内的l个目标发射导弹,即同时,作战时要避免有目标被遗漏而放弃攻击,即每个目标均应至少分配一个无人机去攻击,因此而所有无人机均要投入战斗,因此

以无人机对目标的态势优势最大化为目标,建立目标分配模型如下:

步骤2-2:在目标分配过程中首先分配处于攻击区内的目标,然后再分配处于攻击区以外的目标,因此目标分配方法分为如下两个部分:

步骤2-2-1:优先分配位于攻击区内的目标;

以和为元素构建两个n×m维的矩阵ha和hb,由式(3),如果targetj处于uavi的攻击区内,则否则因此,令令所有零元素的对应位置的xij=1;在分配过程中,如果处于无人机uavi攻击区内的目标个数χ超过了无人机的最大攻击目标数量,即χ>l,则将uavi在hb矩阵中对应的元素值排序,选择其中元素值最大的l个目标分配给uavi;

步骤2-2-2:分配位于攻击区以外的目标;

对于uavi,如果已经分配了处于其攻击区内的目标,则不能再向其分配攻击区外的目标;而对于攻击区外的多个目标,无人机无法做出机动使得多个目标处于攻击区内,因而当目标均在攻击区之外时,只能为无人机分配一个目标;因此,在完成攻击区内目标分配后,剩余的目标分配工作转变为未分配的无人机分配1个目标的过程,采用匈牙利算法实现分配,具体如下:

首先根据当前的目标分配矩阵x=[xij]n×m,将hb中所有xij=1所在的第i行和第j列删除,获得矩阵基于采用匈牙利算法计算分配结果,由于n≥m,且l>0,采用补边法完成匈牙利算法,实现目标分配,令相应xij=1;

完成以上两步后,即完成了所有目标的分配,得到目标分配矩阵x=[xij]n×m;

步骤3:设计多机协同机动策略学习算法,确定强化学习训练逻辑;

多机协同机动策略学习算法包括策略协调机制和策略学习机制两部分:

步骤3-1:设计策略协调机制;

将空战对抗看作n个无人机与m个目标之间的竞争博弈,基于随机博弈的框架建立模型,一个随机博弈可以用一个元组来表示;s表示当前博弈的状态空间,所有agent都能共享;uavi的行动空间定义为ai,targeti的行动空间定义为bi;t:s×an×bm→s表示环境的确定性转移函数,表示uavi的奖励值函数;在协同空战中各自编队内无人机的行动空间相同,即对于uavi和targetj分别有ai=a和bi=b;

定义无人机编队的全局奖励值为各个无人机奖励值的平均值,即:

其中,r(s,a,b)表示在t时刻、环境状态为s、无人机编队采取行动a∈an、目标编队采取行动b∈bm的情况下,无人机编队获得的奖励值;

无人机编队的目标是学习一个策略使得奖励值的折扣累加值的期望最大化,其中0<λ≤1是折扣因子;将随机博弈转变为一个马尔科夫决策问题:

其中q*(·)表示状态s下执行行动a的状态-动作值函数,r(s,a)表示状态s下的执行行动a获得的奖励值,θ表示策略函数的网络参数,s′表示下一时刻的状态,aθ表示参数化的策略函数;

定义每架无人机的奖励值函数为:

其中,ri(s,a,b)表示在t时刻、环境状态为s、无人机编队采取行动a∈an、目标编队采取行动b∈bm的情况下,uavi获得的奖励值,其中表征uavi相对为其分配的目标的态势优势值,是惩罚项,用以约束uavi与友机之间的距离;

基于式(13),对于n架无人机个体,有n个如式(14)所示的贝尔曼方程,其中的策略函数aθ拥有相同的参数θ:

其中,表示无人机uavi在状态s下的执行行动a的状态-动作值函数,ri(s,a)表示无人机uavi在状态s下的执行行动a获得的奖励值;

步骤3-2:设计策略学习机制;

采用双向循环神经网络brnn建立多无人机机动决策模型;

多无人机空战机动决策模型由actor网络和critic网络组成,actor网络由各个无人机个体的actor网络通过brnn连接而成,critic网络由各个无人机个体的critic网络通过brnn连接而成;多无人机空战机动决策模型中将单无人机决策模型中策略网络actor和q网络critic中的隐含层设置成为brnn的循环单元,再按照无人机的数量将brnn展开;多无人机空战机动决策模型的输入为当前空战态势,输出各个无人机的行动值;

定义uavi的目标函数为表示个体奖励值ri的累加的期望,表示在状态转移函数t下采用行动策略aθ得到的状态分布,状态分布在遍历的马尔可夫决策过程中为平稳分布,所以将n个无人机的目标函数记为j(θ):

根据多智能体确定性策略梯度定理,对于式(15)所述的n个无人机的目标函数j(θ),其策略网络参数θ的梯度为

采用参数化的critic函数qξ(s,a)来估计式(16)中的状态-行动值函数在训练critic时,采用平方和loss函数,计算参数化critic函数qξ(s,a)的梯度如式(17)所示,其中ξ是q网络的参数:

基于式(16)和(17),采用随机梯度下降法优化actor和critic网络;在交互学习的过程中,通过试错获取的数据更新参数,完成协同空战策略的学习优化;

步骤3-3:根据策略协调机制和策略学习机制,确定多无人机协同空战机动决策模型的强化学习训练过程如下:

步骤3-3-1:首先进行初始化:确定空战双方的兵力和态势,设有n架无人机和m架目标进行空战对抗,n≥m;随机初始化actor的在线网络参数θ和critic的在线网络的参数ξ,然后将actor和critic在线网络的参数分别赋给其相应目标网络的参数,即θ′←θ,ξ′←ξ,θ′和ξ′分别是actor和critic目标网络的参数;初始化经验池r1,用以保存探交互得到的经验数据;初始化一个随机过程ε,用于实现行动值的探索;

步骤3-3-2:确定训练的初始状态,即确定空战开始的双方相对态势;设定无人机编队和目标编队中每一架无人机的初始位置信息和速度信息,即确定每架无人机的(x,y,z,v,γ,ψ)信息,根据状态空间的定义,计算得出空战初始状态s1;令t等于1;

步骤3-3-3:根据初始状态重复进行多幕训练,在每一单幕空战仿真中执行如下操作:

首先根据当前空战状态st,基于目标分配方法计算出目标分配矩阵xt;然后每一个uavi根据状态st和随机过程ε生成行动值并执行,与此同时,目标编队中的每一个targeti执行行动执行完后状态转移至st+1,根据式(13)计算获得奖励值将一次转移过程变量作为一条经验数据存入经验池r1中;在学习时,从经验池r1中随机采样一批m条经验数据计算各个无人机的目标q值,即对于m条数据中的每一条,都有:

根据式(17)计算critic的梯度估计值,有:

根据式(16)计算actor的梯度估计值,有:

根据得到的梯度估计值△ξ和△θ,采用优化器对actor和critic的在线网络参数进行更新;完成在线网络优化后,采用软更新方式更新目标网络参数,即

其中κ∈(0,1);

步骤3-3-4:在单幕仿真结束后,如果仿真达到设定的最大幕数,则停止本次强化学习训练,否则令t加1,重复执行步骤3-3-3。

本发明的有益效果如下:

本发明基于多智能体强化学习的方法,建立了多无人机协同空战机动决策策略的产生方法,采用双向循环神经网络建立通信网络,将分立的无人机连接成编队的协同决策网络,建立了actor-critic架构下的多无人机协同空战机动决策模型,实现了无人机个体行为的学习与编队整体作战目标的统一。有别于将多机空战分解为多个1v1空战,本发明所建立的多无人机协同空战机动决策模型通过自主学习能够获得协同空战机动策略,在空战过程实现战术配合,达到整体编队作战的态势优势并战胜对手。

附图说明

图1是本发明无人机三自由度质点运动模型。

图2是本发明一对一近距空战态势图。

图3是本发明目标匀速直线飞行条件下无人机机动决策的结果图。

图4是本发明基于双向循环神经网络的多无人机协同空战机动决策模型结构。

图5是训练完成后基于学习到的策略的空战仿真机动轨迹示意图。

具体实施方式

下面结合附图和实施例对本发明进一步说明。

本发明的目的在于提供一种基于多智能体强化学习的多无人机协同空战自主机动决策的产生方法,方法主要的架构是设计出符合多无人机协同空战控制问题约束的强化学习算法结构,通过不断在构建的模拟空战环境中试错学习获得一系列合理的空战机动策略,提高多无人机在分布式架构基础上,自主完成协同空战的能力。

本发明通过通信网络实现了各无人机状态理解的一致性。根据多目标攻击特点,结合目标分配和空战态势评估值计算各无人机的强化学习奖励值,通过各个无人机的奖励引导个体的强化学习过程,使得编队的战术目标与单个无人机的学习目标紧密结合,生成协同战术机动策略。在空战过程实现战术配合,达到整体编队作战的态势优势并战胜对手。

一种基于多智能体强化学习的多无人机协同空战机动决策方法,包括以下步骤:

其中,(x,y,z)表示无人机在地面坐标系中的位置,v表示无人机速度,和分别表示无人机速度v在xyz三个坐标轴上的值;航迹角γ表示无人机速度v与水平面o-x-y之间的夹角;航向角ψ表示无人机速度v在o-x-y平面上的投影v′与oy轴之间的夹角,g表示重力加速度;[nx,nz,μ]是控制无人机进行机动的控制变量,nx是无人机速度方向的过载,代表无人机的推力与减速作用;nz表示无人机俯仰方向的过载,即法向过载;μ是围绕无人机速度矢量的滚转角;通过nx控制无人机的速度大小,通过nz和μ控制无人机速度矢量的方向,进而控制无人机进行机动动作;如图1所示;

其中,(xt,yt,zt)表示目标的位置坐标;re表示一个较大的正数,根据训练效果可以再手动调整,引导模型训练的效果;

除此之外,在空战中由于航炮和一些导弹的视场角较小,一般只有在尾追的情况下才能构成发射条件,因此对于角度关系的要求较为严苛,故定义基于双方角度参数与距离参数获得的优势值ηb为:

步骤1-3:空战机动决策模型的状态由一组能够完备地描述空战态势的变量组成,如图2所示,任意时刻空战态势的几何关系由同一坐标系内的无人机位置矢量、无人机速度矢量、目标位置矢量、目标速度矢量所包含的信息完全确定,因此空战态势的描述由以下5个方面组成:

如图3所示,多机空战中由于无人机和目标的数量增多,每个无人机做出机动决策需要考虑与其他所有无人机(目标与友机)的相对状态。无人机与另外一架无人机在空战中的相对态势可以由(7)式所述的13个变量完全描述。记任意两个uavi和targetj间的相对状态为uavi与任意一个友机uavk之间的相对状态记为则多机空战中任意一架uavi的观测状态为:

在多机协同空战中,按照式(4)和式(5)分别计算每个无人机与每个目标之间的态势评估值ηa和ηb,记uavi与targetj间的态势评估值为和除此之外,考虑uavi与友机uavk的相对状态对自身态势的影响,如果与友机的距离过近,会增大碰撞的风险,因此定义uavi与友机uavk的态势评估函数为:

其中dik为无人机uavi与友机uavk之间的距离,dsafe为两架无人机之间的最小安全距离,p为一个较大的正数。

在多机协同空战中,从空战整体角度看,无人机编队在空战中取得最大优势意味着每一架敌机都可被无人机的武器攻击,然而每个无人机在同一时刻只能针对一个目标进行机动,因此多机协同空战在进行机动决策的同时还要时刻进行目标分配,以实现战术策略的协同。

设目标分配矩阵为x=[xij],xij=1表示targetj分配给uavi,xij=0表示targetj没有分配给uavi;多机空战过程中,会存在多个目标同时处于一架无人机的攻击区内的情况,因此目标分配需要考虑无人机的多目标攻击能力,设每个无人机最多能同时对处于其攻击区内的l个目标发射导弹,即同时,作战时要避免有目标被遗漏而放弃攻击,即每个目标均应至少分配一个无人机去攻击,因此而所有无人机均要投入战斗,因此

步骤2-2:空战中无人机进行一系列机动的目的就是让目标进入攻击区向目标发射武器,在目标分配过程中首先分配处于攻击区内的目标,然后再分配处于攻击区以外的目标,因此目标分配方法分为如下两个部分:

协同空战中无人机是否在对抗中处于优势,是以所有无人机的态势来评价。定义无人机编队的全局奖励值为各个无人机奖励值的平均值,即:

采用式(11)定义的全局奖励值能够反映无人机编队整体的态势优劣,但是采用全局奖励值不能反映出无人机个体在编队协同中的作用。事实上,全局的协同是由每个个体的目标所驱动的,因此,定义每架无人机的奖励值函数为:

在学习训练过程中,通过奖励值的分配,定义了各个无人机在目标分配、态势优势和安全避碰的行为反馈,经过训练后实现策略协同,每架无人机的行为能与其他友机的行为达成默契,不需要进行集中的目标分配。

基于多智能体强化学习实现集体合作的前提是个体间的信息交互,因此,采用双向循环神经网络brnn建立多无人机机动决策模型,保证无人机间的信息交互,实现编队机动策略的协调;

建立模型如图4所示,多无人机空战机动决策模型由actor网络和critic网络组成,actor网络由各个无人机个体的actor网络通过brnn连接而成,critic网络由各个无人机个体的critic网络通过brnn连接而成;多无人机空战机动决策模型中将单无人机决策模型中策略网络actor和q网络critic中的隐含层设置成为brnn的循环单元,再按照无人机的数量将brnn展开;多无人机空战机动决策模型的输入为当前空战态势,输出各个无人机的行动值,由于brnn不仅能够实现无人机个体间的通信,同时也能作为记忆单元,因此无人机可以在与友机交互信息的同时,保存个体的行动策略;

定义uavi的目标函数为表示个体奖励值ri的累加的期望,表示在状态转移函数t下采用行动策略aθ得到的状态分布,状态分布在遍历的马尔可夫决策过程中一般为平稳分布,所以将n个无人机的目标函数记为j(θ):

首先根据当前空战状态st,基于目标分配方法计算出目标分配矩阵xt;然后每一个uavi根据状态st和随机过程ε生成行动值并执行,与此同时,目标编队中的每一个targeti执行行动执行完后状态转移至st+1,根据式(13)计算获得奖励值将一次转移过程变量作为一条经验数据存入经验池r1中;在学习时,从经验池r1中随机采样一批m条经验数据计算各个无人机的目标q值,即对于m条数据中的每一条,都有

具体实施例:

设无人机与目标进行2对2空战,本发明方法用于无人机双机编队,具体实现步骤如下:

1、设计多机空战环境模型。

在多机空战中,设定无人机的数量为2,分别记为uavi(i=1,2),目标的数量为2,分别记为targetj(j=1,2)。

根据步骤1计算得到任意一架uavi的观测状态si;

在多机空战过程中,每个无人机根据自己在空战环境中所处的态势做出自己的机动决策,根据如式(2)所述的无人机动力学模型,无人机通过nx,nz和μ三个变量控制飞行,因此uavi的行动空间为ai=[nxi,nzi,μi]。

在多机协同空战中,按照式(4)和式(5)分别计算每个无人机与每个目标之间的态势评估值ηa和ηb,记uavi与targetj间的态势评估值为和除此之外,还应考虑uavi与友机uavk的相对状态对自身态势的影响,如果与友机的距离过近,会增大碰撞的风险,因此定义uavi与友机uavk的态势评估函数如式(9)所示。

2、设计多机协同目标分配方法。

两架无人机迎战2个目标。根据(6)式,uavi(i=1,2)相对targetj(j=1,2)的态势评估值为

由步骤2得到目标分配矩阵x=[xij]n×m。

3、设计多机协同机动策略学习算法。

以无人机和目标飞机相向飞行,目标匀速直线运动飞行的空战场景,对无人机进行强化学习训练。

多无人机协同空战的空战背景设定为近距空战,空战环境模型的参数设定如下。导弹的最远截获距离dmax=3km,视场角为两架无人机之间的最小安全距离dsafe=200m,截获目标时的优势值re=5,惩罚值p=10,无人机的运动模型中,设最大速度vmax=400m/s,最小速度vmin=90m/s,控制参数nx∈[-1,2],nz∈[0,8],μ∈[-π,π]。

机动决策模型的actor网络分为输入层、隐含层和输出层三个部分,其中输入层输入空战状态,隐含层分为2层,第1层由正向和反向各400个lstm神经元组成,该层按无人机个数依据双向循环神经网络结构展开后形成通信层,第2层由100个神经元组成,采用tanh激活函数,参数以均匀分布[-3×10-4,3×10-4]随机初始化,输出层输出3个控制量,采用tanh激活函数,参数以均匀分布[-2×10-5,2×10-5]随机初始化,通过线性调整,将tanh的输出范围[0,1]分别调整为[1,2]、[0,8]、和[-π,π]。

机动决策模型的critic网络同样分为输入层、隐含层和输出层三个部分,其中输入层输入空战状态和无人机的3个行动值,隐含层分为2层,第1层由正向反向各500个lstm神经元组成,该层按无人机个数依据双向循环神经网络结构展开后形成通信层,第2层由150个神经元组成,采用tanh激活函数,参数以均匀分布[-3×10-4,3×10-4]随机初始化,输出层输出1个q值,采用tanh激活函数,参数以均匀分布[-2×10-4,2×10-4]随机初始化。actor和cirtic模型均采用adam优化器,actor网络的学习率设为0.001,critic网络的学习率设为0.0001。折扣因子λ=0.95,目标网络的软更新因子κ=0.005。行动值探索的随机过程ε采用ou过程。经验回放空间r的大小设为106,batch的大小设为512。

图5是训练完成后,基于学习到的策略的空战仿真机动轨迹。基于学习到的策略的空战仿真机动轨迹。从图中可以看出,在初始时刻,uav1和uav2分别面对目标1和目标2相向飞行,根据目标分配算法,uav1和uav2分别选择目标1和目标2作为攻击目标进行机动占位,在与各自目标接近过程中,调整航向和高度,避免交汇中可能出现的碰撞,在与目标交汇前后,uav1向右侧回转,uav2向左侧回转,实现了交叉掩护,在两架无人机均向对方方向转弯后交换了各自的攻击目标,而不是继续回转去追击各自初始分配的目标,体现了战术配合,证明经过强化学习训练,无人机双机编队能够学习得出空战机动策略,实现双机间的战术配合,在空战中获取优势,而不是将多机空战分解为多个1v1对抗。

THE END
1.在线学习算法(OnlineLearning)理论与实践在线学习算法(Online Learning)理论与实践 本文介绍在线学习(Online Learning)的基本原理,包括Bayesian Online Learning和FTRL算法,并以美团移动端推荐重排序为例,展示在线学习在提高推荐效果方面的实践。通过实时调整模型,以反映线上变化,提升预测准确率。 摘要由CSDN通过智能技术生成https://blog.csdn.net/hzwaxx/article/details/83867630
2.在线学习方法概述腾讯云开发者社区在线学习方法概述 算法常常用到逻辑回归算法,而传统的批量学习算法如 SGD 无法应对大规模、高维的数据集和实时数据流。为了解决这个问题,在线最优化算法如 TG [1]、FOBOS [2]、RDA [3]、FTRL [4,5,6] 应运而生,下面将介绍、对比这些算法。 TODOhttps://cloud.tencent.com/developer/article/1561719
3.重要学习网址收藏1ZhemgLee的技术博客2.数学推导+纯Python实现机器学习算法30:系列总结与感悟 总:https://mp.weixin.qq.com/s/jJd8Gg61eaE0JKZqQSeE8g 分1:https://mp.weixin.qq.com/s/E9lMqNM8uNc57KNvnsBZGQ 分2-n: 3.深度学习第60讲:深度学习笔记系列总结与感悟 总:https://mp.weixin.qq.com/s/qXfu-UzZmlv-aQt3IIUnAQ https://blog.51cto.com/u_15240054/2873341
4.基于深度学习框架的医疗图像分类算法实现开题报告(8页)基于深度学习框架的医疗图像分类算法实现开题报告.docx,PAGE 5 - 本科生毕业设计(论文) 开题报告 题目:基于深度学习框架的医疗图像分类算法实现 姓名: 张震宇 学号: 201306080330 指导教师: 齐勇 班级: 计 133 所在院系: 电气与信息工程学院计算机系 学生https://m.book118.com/html/2020/0517/8003122062002112.shtm
5.《机器学习算法的数学解析与Python实现》(莫凡)简介书评当当网图书频道在线销售正版《机器学习算法的数学解析与Python实现》,作者:莫凡,出版社:机械工业出版社。最新《机器学习算法的数学解析与Python实现》简介、书评、试读、价格、图片等相关信息,尽在DangDang.com,网购《机器学习算法的数学解析与Python实现》,就上当当http://product.dangdang.com/28503697.html
6.79强化学习基础算法及实践策略梯度强化学习方法实现上一个实验中,我们了解并实现了策略梯度算法。同时,使用 OpenAI 提供的 Gym 强化学习环境测试了算法。不过,受限于 Notebook 实验环境,我们无法可视化强化学习的过程,只能打印出学习参数和每个 Episode 学习的时间步长。 本次挑战,我们将利用实验楼提供的桌面在线环境,完成 CartPole 小游戏可视化学习过程。 https://www.jianshu.com/p/71eacadc41bf
7.人工智能基础:五大机器学习经典算法入门课程哔哩哔哩11项必备技能,7种机器学习实现方式,34种深度学习常用算法 26.6万播放/共159课时 【限时特惠】小白玩转Python数据分析 全流程Python数据分析课,配合多个项目实战,点满数据技能 134.3万播放/共106课时 小白也能听懂的人工智能原理 仅用中学数学知识就能看懂的人工智能入门课 480.3万播放/共14课时 机器学习必修课:经典AIhttps://www.bilibili.com/cheese/play/ss10026?search_query=%E8%BF%9B%E5%8C%96%E7%AE%97%E6%B3%95%E5%AD%A6%E4%B9%A0
8.科学网—[转载]强化学习在资源优化领域的应用基于这种行业趋势,本文针对强化学习算法在资源优化领域的应用展开调研,帮助读者了解该领域最新的进展,学习如何利用数据驱动的方式解决资源优化问题。鉴于资源优化问题场景众多、设定繁杂,划分出3类应用广泛的资源优化问题,即资源平衡问题、资源分配问题、装箱问题,集中进行调研。在每个领域阐述问题的特性,并根据具体的问题特性https://blog.sciencenet.cn/blog-3472670-1312677.html
9.2021届计算机科学方向毕业设计(论文)阶段性汇报本次阶段性汇报主要介绍多智能体强化学习框架MALib的设计与完成情况,以及针对目前的研究内容实现的功能。其次介绍在当前框架上部分强化学习算法的复现情况以及遇到的问题。最后介绍后续的计划安排。 杨宁 电阻式随机存取存储器的侧信道安全研究 在本阶段,研究完成了对ReRAM业界现有公开数学仿真模型的收集、测试以及修改;https://zhiyuan.sjtu.edu.cn/html/zhiyuan/announcement_view.php?id=3943
10.力扣(LeetCode)全球极客挚爱的技术成长平台算法作为面试中非常核心的一环,攻克其高效的方法为先熟练掌握数据结构,再系统学习算法。本文会详细介绍面试中经常用到的数据结构数组,字符串,链表,哈希表,栈,队列,堆,优先队列,树,以及图的使用、底层原理以及各个操作的性 927 101 3251 OneQ?4 小时前https://leetcode-cn.com/
11.《深度强化学习算法与实践:基于PyTorch的实现》小说在线阅读张校捷编著创作的计算机网络小说《深度强化学习算法与实践:基于PyTorch的实现》,已更新0章,最新章节:。本书从强化学习的基础知识出发,结合PyTorch深度学习框架,介绍深度强化学习算法各种模型的相关算法原理和基于PyTorch的代码实现。作为一本介绍深度强化学习知识的相关https://m.qidian.com/book/1033738513/
12.Python机器学习10大经典算法的讲解和示例python10个经典的机器学习算法包括:线性回归、逻辑回归、K-最近邻(KNN)、支持向量机(SVM)、决策树、随机森林、朴素贝叶斯、K-均值聚类、主成分分析(PCA)、和梯度提升(Gradient Boosting),我将使用常见的机器学习库,如scikit-learn,numpy和pandas 来实现这些算法https://www.jb51.net/python/322045198.htm
13.超详细算法岗的学习路线大总结!机器学习 or 深度学习基础 论文or 项目介绍 其他问题 & 向面试官提问 本文将从以上四点进行展开。 一、数据结构&算法题 随着算法岗越来越卷,Coding几乎成了面试必考的一项,而且在面评中的权重也越来越高,根据个人面试经验,如果这一环节没有很顺利得完成的话,几乎必挂,尤其对于非科班转行的同学,需要特别重视。 https://leetcode.cn/circle/discuss/SX3aa6/
14.七月在线七月在线创始人,七月大模型与机器人技术总负责人 北理工校外导师,微软AI MVP,Github上2万余star,CSDN 2000万PV博客『结构之法 算法之道』博主,去过近百所985/211高校分享算法,亦是华为云等数十个大会的演讲嘉宾。2015年创办七月在线,并于2018年获得好未来千万投资,到2022年平台上聚集了350+的大厂专家讲师团队https://www.julyedu.com/
15.范慧杰5) 机器人在线学习和场景感知研究 经费来源:国家自然科学基金; 2014-2017 6) 基于稀疏表达和字典选择的一致异常行为算法研究 经费来源:国家自然科学基金; 2012-2014 7) 基于水平集理论PLIF火焰前锋与特征提取算法研究 经费来源:国家自然科学基金; 2009-2011 http://www.sia.cas.cn/vision/kytd/yjry/202307/t20230726_6834850.html
16.推荐几个算法可视化网站,从此轻松学算法!大家好,我是大彬~ 很多初学者在学习数据结构与算法的时候,都会觉得很难,很大一部分是因为数据结构与算法本身比较抽象,不好理解。对于这一点,可以通过一些可视化动画来帮助理解。 下面大彬推荐几个学习数据结构和算法的可视化工具。 Data Structure Visualizations 这是https://m.nowcoder.com/feed/main/detail/6ecdab56f00b44bfacf3cb854929059e