《中国舰船研究》—基于深度强化学习的智能船舶航迹跟踪控制今日头条

本文来自《中国舰船研究》,作者祝亢等

航迹跟踪控制系统包括制导和控制2个部分,其中制导部分一般是根据航迹信息和船舶当前状态确定所需的设定航向角值来进行工作。本文使用的LOS算法已被广泛运用于路径控制。LOS算法可以在模型参数不确定的情况下,以及在复杂的操纵环境中与控制器结合,从而实现对模型的跟踪控制。视线法的导航原理是基于可变的半径与路径点附近生成的最小圆来产生期望航向,即LOS角。经过适当的控制,使当前船舶的航向与LOS角一致,即能达到航迹跟踪的效果[8]。

LOS算法示意图如图1所示。假设当前跟踪路径点为Pk+1(xk+1,yk+1)Pk+1(xk+1,yk+1),上一路径点为Pk(xk,yk)Pk(xk,yk),以船舶所在位置Ps(xs,ys)Ps(xs,ys)为圆心,选择半径RLosRLos与路径PkPk+1PkPk+1相交,选取与Pk+1Pk+1相近的点PLos(xLos,yLos)PLos(xLos,yLos)作为LOS点,当前船舶坐标到LOS点的方向矢量与x0x0的夹角ψLosψLos则为需要跟踪的LOS角。图中:dd为当前船舶至跟踪路径的最短距离;ψψ为当前航向角。

其中,半径RLosRLos的计算公式如式(1)和式(2)所示,为避免RminRmin的计算出现零值,在最终的计算中加入了2倍的船长LppLpp来进行处理[9]。

a(t)=(x(t)xk)2+(y(t)yk)2√b(t)=(xk+1x(t))2+(y(t)yk+1)2√c(t)=(xk+1xk)2+(yk+1yk)2√Rmin(t)=a(t)2(c(t)2b(t)2+a(t)22c(t))2{a(t)=(x(t)xk)2+(y(t)yk)2b(t)=(xk+1x(t))2+(y(t)yk+1)2c(t)=(xk+1xk)2+(yk+1yk)2Rmin(t)=a(t)2(c(t)2b(t)2+a(t)22c(t))2

RLos=Rmin(t)+2LppRLos=Rmin(t)+2Lpp

式中,所计算的RminRmin即为当前时刻t的航迹误差ε,也即图1中的dd。

图1LOS导航原理图

船舶在沿着路径进行跟踪时,若进入下一个航向点的一定范围内,即以Pk+2(xk+2,yk+2)Pk+2(xk+2,yk+2)为圆心、RACRAC为半径的接受圆内,则更新当前航向点为下一航向点,半径RACRAC一般选取为2倍船长。

此类问题均可模型化为MDP问题,简单表示为四元组。其中,SS为所有状态值的集合,即状态空间;AA为动作值集合的动作空间;PP为状态转移概率矩阵,即在tt时刻状态为St=sSt=s的情况下选择动作值为At=aAt=a,则t+1t+1时刻产生状态为s1s1的概率Pass1=P[St+1=s1|St=s,At=a]Pss1a=P[St+1=s1|St=s,At=a];R=r(s,a)R=r(s,a)为回报奖励函数,用于评价在ss状态下选取动作值aa的好坏。航迹跟踪控制系统中的控制部分用MDP模型表示如图2所示。,a,p,r>,a,p,r>

图2船舶控制的MDP模型

Figure2.MDPmodelofshipcontrol

如图2所示,船舶智能体直接与当前控制环境进行交互而且不需要提前获取任何信息。在训练过程中,船舶采取动作值atat与环境进行交互更新自己的状态st→st+1st→st+1,并获得相应的奖励rt+1rt+1,之后,继续采取下一动作与环境交互。在此过程中,会产生大量的数据,利用这些数据学习优化自身选择动作的策略policyππ。简单而言,这是一个循环迭代的过程。在强化学习中,训练的目标是找到一个最佳的控制策略policyππ,以使累积回报值RtRt达到最大[11]。在下面的公式中,γγ为折扣系数,用来衡量未来回报在当前时期的价值比例,设定γ∈[0,1]γ∈[0,1]。

Rt=rt+γrt+1+γ2rt+2+=∑k=1∞γkrt+k+1Rt=rt+γrt+1+γ2rt+2+=∑k=1∞γkrt+k+1

Policyππ可以使用2种值函数进行评估:状态值函数Vπ(st)Vπ(st)和动作值函数Qπ(st,at)Qπ(st,at)。其中Vπ(st)Vπ(st)为在遵循当前策略的状态下对累积回报值的期望,EE为期望值;类似地,Qπ(st,at)Qπ(st,at)表示基于特定状态和动作情况(st,at)(st,at)下对累积回报值的期望。

Vπ(st)=Eπ[Rt|st]=Eπ[∑k=1∞γkrt+k+1|st]Vπ(st)=Eπ[Rt|st]=Eπ[∑k=1∞γkrt+k+1|st]

Qπ(st,at)=Eπ[Rt|st,at]=Eπ[∑k=1∞γkrt+k+1|st,at]Qπ(st,at)=Eπ[Rt|st,at]=Eπ[∑k=1∞γkrt+k+1|st,at]

根据值函数和上述最佳控制策略policyππ的定义,最佳policyππ总是满足以下条件:

π=argmaxVπ(st)=argmaxQπ(st,at)π=argmaxVπ(st)=argmaxQπ(st,at)

从以上描述可以看出,在基于强化学习的控制设计中,马尔可夫建模过程的组件设计是最为关键的过程,状态空间、动作空间和奖励的正确性对算法性能和收敛速度的影响很大。所以针对智能船舶的轨迹跟踪问题,对其进行马尔可夫建模设计。

1)状态空间设计。

根据制导采用的LOS算法,要求当前航向角根据LOS角进行调节以达到跟踪效果。所以在选取状态时,需考虑LOS算法中的输出参数,包括目标航向ψLOSψLOS与实际航向ψψ的差值ee、航迹误差ε,以及与航迹点距离误差εdεd。

st=[et,εt,εdt,ut,vt,rt,δt,e(k1)t,et1,εt1,εdt1,ut1,vt1,rt1,δt1]st=[et,εt,εtd,ut,vt,rt,δt,e(k1)t,et1,εt1,εt1d,ut1,vt1,rt1,δt1]

2)动作空间设计。

针对航迹跟踪任务特点,以及LOS制导算法的原理,本文将重点研究对船舶航向,即舵角的控制,不考虑对船速与桨速的控制。动作空间只有舵令一个动作值,即δδ,其值的选取需要根据实际船舶的控制要求进行约束,设定为在(35°,35°)(35°,35°)以内,最大舵速为15.8(°)/s。

3)奖励函数设计。

本文期望航向角越靠近LOS角奖励值越高,与目标航迹的误差越小奖励值越高。因此,设计的奖励函数为普遍形式,即分段函数:

rt={0,|e|0.1|e(k1)|0.01|ε|,if|e|0.1radif|e|>0.1radrt={0,if|e|0.1rad|e|0.1|e(k1)|0.01|ε|,if|e|>0.1rad

基于强化学习的智能船舶航迹控制系统总体框架如图3所示。LOS算法根据船舶当前位置计算得到需要的航向以及航迹误差,在与船舶的状态信息整合成上述所示状态向量stst后输入进航迹控制器中,然后根据强化学习算法输出当前最优动作值atat给船舶执行,同时通过奖励函数rtrt计算获得相应的奖励来进行自身参数迭代,以使航迹控制器具备自学习能力。

图3基于强化学习的智能船舶轨迹跟踪控制框图

在将控制器投入实时控制之前,首先需要对控制器进行离线训练。设定规定次数的训练后,将获得的使累计回报值达到最大的网络参数进行存储整合,由此得到强化学习控制器,并应用于航迹跟踪的实时控制系统。

要解决强化学习问题,目前有许多的算法、机制和网络结构可供选择,但这些方法都缺少可扩展的能力,并且仅限于处理低维问题。为此,Mnih等[6]提出了一种可在强化学习问题中使用大规模神经网络的训练方法——DQN算法,该算法成功结合了深度学习与强化学习,使强化学习也可以扩展处理一些高维状态、动作空间下的决策问题[12]。DQN算法可解决因强化学习过程与神经网络逼近器对值函数逼近的训练相互干扰,而导致学习结果不稳定甚至是产生分歧的问题[13],是深度强化学习领域的开创者。

DQN算法显著提高了复杂强化学习问题的稳定性和性能,但因其使用的是离散的动作空间,故需要对输出的动作进行离散化,且只能从有限的动作值中选择最佳动作。对于船舶的轨迹跟踪问题,如果候选动作数量太少,就很难对智能体进行精确控制。为使算法满足船舶的操纵特性与要求,本文选择了一种适用于连续动作空间的深度强化学习算法,即基于DDPG的算法[14]来对智能船舶航迹跟踪控制器进行设计,该算法不仅可以在连续动作空间上进行操作,还可以高效精准地处理大量数据。

图4DDPG基本框架

Figure4.BlockdiagramofDDPG

网络整体采用了Actor-Critic形式,同时具备基于值函数的神经网络和基于策略梯度的神经网络:Actor网络的θπθπ表示确定性策略函数a=π(s|θπ)a=π(s|θπ),Critic网络的θQθQ表示值函数Q(s,a|θQ)Q(s,a|θQ)。并且DDPG还借鉴了DQN技术,其通过采取经验池回放机制(experiencereplay)以及单独的目标网络来消除大规模神经网络带来的不稳定性。

在训练过程中,主网络中的Actor网络根据从经验池中随机选取的样本状态ss,经过当前策略函数a=π(s|θπ)a=π(s|θπ)选择出最优的动作值aa交予船舶智能体,让其与环境交互后得到下一时刻的状态值s′s′。而此时的Critic网络则接受当前的状态ss和动作值aa,使用值函数Q(s,a|θQ)Q(s,a|θQ)评价当前状态的期望累计奖赏,并用于更新Actor网络的参数。在目标网络中,整体接收下一时刻的状态s′s′,经目标Actor网络选出动作后交予目标Critic获得目标期望值Q′(a′)Q′(a′),然后,再通过计算损失函数对主网络的Critic网络参数进行更新。对于主网络的Actor网络参数更新,Silver等[15]证实,确定性策略的目标函数J(θπ)J(θπ)采用ππ策略的梯度与Q函数采用ππ策略的期望梯度是等价的:

J(θπ)θπ=Es[Q(s,a|θQ)θπ]J(θπ)θπ=Es[Q(s,a|θQ)θπ]

根据确定性策略a=π(s|θπ)a=π(s|θπ),得到Actor网络的梯度为:

J(θπ)θπ=Es[Q(s,a|θQ)aπ(s|θπ)θπ]J(θπ)θπ=Es[Q(s,a|θQ)aπ(s|θπ)θπ]

θπJ≈1N∑i(aQ(s,a|θπ)|s=si,a=π(si)θππ(s|θπ)|s=si)θπJ≈1N∑i(aQ(s,a|θπ)|s=si,a=π(si)θππ(s|θπ)|s=si)

另一方面,对于Critic网络中的价值梯度:

TargetQ=r+γQ′(s′,π(s′|θπ′)|θQ′)TargetQ=r+γQ′(s′,π(s′|θπ′)|θQ′)

式中,θπ′θπ′和θQ′θQ′分别为目标策略网络和目标值函数网络的网络参数。其中,目标网络的更新方法与DQN算法中的不同,在DDPG算法中,Actor-Critic网络各自的目标网络参数是通过缓慢的变换方式更新,也叫软更新。以此方式进一步增加学习过程的稳定性:

θQ′=τθQ+(1τ)θQ′θQ′=τθQ+(1τ)θQ′

θπ′=τθπ+(1τ)θπ′θπ′=τθπ+(1τ)θπ′

式中,ττ为学习率。

定义最小化损失函数来更新Critic网络参数,其中,yiyi为当前时刻状态动作估计值函数与目标网络得到的目标期望值间的误差:

初始化Actor-Critic网络的参数,将当前网络的参数赋予对应的目标网络;设置经验池容量为30000个,软更新学习率为0.01,累计折扣系数设定为0.9,初始化经验池。训练的每回合步骤如下:

1)初始化船舶环境;

2)重复以下步骤直至到达设置的最大步长;

3)在主网络中,Actor网络获取此刻船舶的状态信息stst,并根据当前的策略选取动作舵令δtδt给船舶执行,即δt=π(st|θπ)δt=π(st|θπ);

4)船舶执行当前舵令后输出奖励rtrt和下一个状态st+1st+1,Actor网络再次获取该状态信息并选取下一舵令δt+1δt+1;

5)将此过程中产生的数据(st,δt,rt,st+1)(st,δt,rt,st+1)存储在经验池中,以作为网络训练学习的数据集。当经验池存储满后,再从第1个位置循环存储;

6)从经验池中随机采样N个样本(st,δt,rt,st+1)(st,δt,rt,st+1),作为当前Actor网络和Critic网络的训练数据;

7)通过损失函数更新Critic网络,根据Actor网络的策略梯度更新当前Actor网络,然后再对目标网络进行相应的软更新。

表1KVLCC2船舶参数

|显示表格

在所选用的DDPG控制器中,Crtic网络和Actor网络的实现参数设置分别如表2和表3所示。

表2Critic网络参数

Table2.Criticnetworkparameters

表3Actor网络参数

Table3.Actornetworkparameters

Q(S(i),δ(i))Q(S(i),δ(i))

训练时,将数据存入经验池中,然后再从中随机采样一组数据进行训练,状态值及动作值均进行归一化处理,当达到最大步长或最终航迹点输出完成时,便停止这一回合,并计算当前回合的总回报奖励。当训练进行到200,300和500回合时,其航向误差如图5所示。由图中可以看出,在训练时随着回合的增加,航向误差显著减小,控制算法不断收敛;当训练达到最大回合结束后,总奖励值是不断增加的。为使图像显示得更加清晰,截取了200~500回合的总回报奖励如图6所示。从中可以看出,在约270回合时算法基本收敛,展现了快速学习的过程。

图5航向误差曲线

Figure5.Courseerrorcurves

图6总回报奖励曲线

Figure6.Totalrewardcurve

上述训练完成后,DDPG控制器保存回报奖励函数最大的网络参数,并将其应用于航迹跟踪仿真。为了验证DDPG控制器的可行性,本文选用BP-PID控制器进行对比分析。

用于对比的BP-PID控制器选择使用输入层节点数为4、隐含层节点数为5、输出层节点数为3的BP神经网络对PID的3种参数进行选择,其中学习率为0.546,动量因子为0.79,并参考文献[19],利用附加惯性项对神经网络进行优化。在相同的环境下,将DDPG控制器与BP-PID控制器进行仿真对比分析。仿真时,船舶的初始状态为从原点(0,0)出发,初始航向为45°,初始航速也即纵荡速度uu=1.179m/s,螺旋桨初始速度rr=10.4r/s。

仿真实验1:分别设计直线轨迹和锯齿状轨迹,用以观察2种控制器对直线的跟踪效果和面对剧烈转角变化时的跟踪效果(图7),轨迹点坐标分别为(0,50),(400,50)和(0,0),(100,250),(200,0),(300,250),(400,0),(500,250),(600,0),单位均为m。

图7航迹跟踪效果(实验1)

Figure7.Trackingcontrolresult(experiment1)

通过对2种类型轨迹跟踪的对比可以看出,对于直线轨迹,DDPG控制器能够更加快速地进行稳定跟踪,在锯齿状轨迹转角跟踪时其效果也明显优于BP-PID控制器。对仿真过程中航向角的均方根误差(图7(b))进行计算,显示BP-PID控制器的数值达61.0178,而DDPG控制器的仅为10.018,后者具有更加优秀的控制性能。

图8航迹跟踪结果(实验2)

Figure8.Trackingcontrolresult(experiment2)

表4控制性能指标

图9BP-PID控制器控制效果

Figure9.ControlresultofBP-PID

图10DDPG控制器控制效果

Figure10.ControlresultofDDPG

本文针对船舶的航迹跟踪问题,提出了一种基于深度强化学习的航迹跟踪控制器设计思路。首先根据LOS算法制导,建立了航迹跟踪控制的马尔可夫模型,给出了基于DDPG控制器算法的程序实现;然后在Python环境中完成了船舶航迹跟踪控制系统仿真实验,并与BP-PID控制器进行了性能对比分析。

将航迹跟踪问题进行马尔可夫建模设计后,将控制器投入离线学习。通过对此过程的分析发现,DDPG控制器在训练中能快速收敛达到控制要求,证明了设计的状态、动作空间以及奖励函数的可行性。并且航迹跟踪仿真对比结果也显示,DDPG控制器能较快地应对航迹变化,控制效果稳定且舵角变化少,对于不同的轨迹要求适应性均相对良好。整体而言,基于深度强化学习的控制方法可以应用到船舶的航迹跟踪控制之中,在具有自适应稳定控制能力的情况下,不仅免去了复杂的控制计算,也保证了实时性,对船舶的智能控制具有一定的参考价值。

THE END
1.12月21日线上AI赋能高校教学进阶实操案例与教学创新深度融合12月21日-22日(线上) 课程背景 随着人工智能技术的飞速发展,教育领域正经历着前所未有的变革。AI技术以其强大的数据处理、智能分析以及个性化服务的能力,为高校教学带来了全新的机遇与挑战。2024年初,教育部在全国高等教育工作会议上宣https://mp.weixin.qq.com/s?__biz=MzU4NTA2MTYwMA==&mid=2247693250&idx=4&sn=031b8f00dcac8d3307c25fef20de5c6e&chksm=fc915739f90e8472ae2fac76ed9005f5f229986c3e159cce06502fd5c3c89862eedb44c3a4a4&scene=27
2.结合人工智能的在线教育系统:开发与实践智能化在线教育人工智能(AI)正在革新各行各业,教育领域也不例外。结合AI技术的在线教育系统能够提供个性化的学习体验、智能化的教学辅助和高效的数据分析,从而大大提升教育质量和学习效果。本文将探讨结合AI技术的在线教育系统的开发与实践,介绍其核心功能、开发步骤和实践案例。 https://blog.csdn.net/vx17661296331/article/details/139931830
3.创意产品设计方案(通用14篇)在当今科技飞速发展的时代,学生的学习环境和需求也在不断变化。为了更好地满足学生在学习过程中的多样化需求,提高学习效率和舒适度,特制定以下设计方案。 二、产品概述 1. 名称:多功能智能学习桌 2. 目标用户:中小学生 三、功能设计 1. 智能升降功能:学习桌配备高精度电动升降系统,可通过桌面的触摸控制面板或手机https://www.ruiwen.com/fangan/6775369.html
4.学情分析线上评测:数据会说话! 跨班智慧教室评量,学习评量分析系统整体分析! 本方案是课堂评测的加值版本,加入了博拉图学习评量分析系统,让在醍摩豆智慧教室以测验模式实施的测验结果,可以包含多班测验结果的分析,以及有更多元的分析图表与向度。如此,整体检视学生们的学习成果将更客观、精准。 https://www.habook.com.cn/product.php?act=view&id=28
5.国家税务总局吉林省税务局12366系统征纳互动功能拓展项目需求公告之间的互动服务从以政策业务为主向政策业务和技术操作全覆盖转变、从解答问题向解决问题转变、从被动等待服务需求向主动提供服务转变、从人工服务向智能服务转变,不断提升办税服务便利化水平,满足纳税人多渠道、多维度、全业务域的咨询互动需求和税务机关精细服务、精准监管要求,需对12366纳税缴费服务热线系统进行升级拓展http://jilin.chinatax.gov.cn/art/2021/11/25/art_22893_449634.html
6.智能家居论文通用12篇摘要:简要介绍了电力线通信技术,分析了对利用电力线通信技术实现智能家居网络的载波技术、网络控制技术等组网关键问题,介绍了一种基于LonWorks技术的电力线智能家居网络解决方案。 基于电力线通信技术的智能家居网络系统,利用电力线通信技术通过电源插座完成家庭联网,并为家庭网络提供互联网接入和多媒体音视频业务,通过家庭服https://www.xueshu.com/haowen/98992.html
7.国家智慧教育平台上线中小学招生入学严禁采集家长职务收入信息3月31日,北京市体育局公布《北京市青少年校外体育培训机构准入审查工作指南》,明确体育培训机构的收费监管、从业人员资质、培训场地、培训内容、线上培训等方面内容。教育企业动态方面,掌门教育、宝宝树、卓越教育等发布最新财务业绩;学而思编程升级,推出软硬件智能学习系统,尔湾科技品牌升级为“量子之歌”……更多教育行业https://edu.sina.cn/eduonline/2022-04-02/detail-imcwiwss9417007.d.html
8.2020年教育信息化发展分析本文以2020年疫情环境下线上教育的开展为重点,分五个部分进行年度教育信息化发展分析:一是分析解读相关数据;二是分类梳理主要热点事件;三是对疫情期间我国在线教育的实践与发展状况进行分析;四是从数字校园建设、网络学习空间等五个方面反映教育信息化的环境建设与应用;五是从德智体美劳五个方面阐述教育装备信息化的新https://www.ceeia.cn/news/detail_3517.htm
9.月儿湾分店查询4、智能化设备控制系统 资源对接支持 1、专家资源对接2、线上线下渠道3、行业资源共享4、社会资源共享 培训服务支持 1、双轨道岗前培训2、投资人管理培训3、教学教练培训4、下店落地培训5、线上知识分享学习 运营服务支持 1、运营督导专属服务2、运营标准化指导体系3、开业运营培训指导4、营销活动方案提供5、http://www.yuerwanswim.com/join/
10.第四范式招聘信息上海交通大学电子信息与电气工程学院1.设计、开发机器学习场景下的工作流引擎和通用数据处理框架 2.实时计算平台构建,搭建服务于机器学习领域的线上系统 3.理解并思考数据处理在人工智能企业应用场景中的作用,搭建高效一致的计算开发框架 任职要求: 1.计算机相关专业 2.具备较好的数据结构和算法基础,熟悉Java、Scala、C++中至少一门编程语言 https://xsb.seiee.sjtu.edu.cn/xsb/detail/2496_1696.htm
11.计算机大数据论文模板(10篇)网络教学系统能够提供大量的多媒体教学资源,帮助教师进行课后辅导答疑,却很少区分学习个体,导致缺乏个体相关的数据,从而难以提供个性化的指导,这给网络教学系统的智能化带来了问题。这些问题归根结底是数据的问题,是数据没有被有效地规划和整合的问题。我们把与学习过程相关的大量数据收集起来,对这些数据进行分析,挖掘出有https://www.haofabiao.com/haowen/9133.html
12.指向核心素养发展的小学生综合评价的设计与实施内容并结合多元智能理论、全人教育理论、评价系统理论以及《深化新时代教育评价改革总体方案》等政策文件分析康健外国语小学近年来学生综合评价的研究实践,主要包括:明晰了小学生综合评价的基本内涵及特征;研制了指向核心素养发展的小学生综合评价的指标与量规;提炼了指向核心素养发展的表现性评价实施策略;构建了线上“康宝”https://tpd.xhedu.sh.cn/cms/app/info/doc/index.php/92667
13.7家红利公司,科学家CTO算法总监大客户总监岗位,等你投递培训学习 社保 交通补贴 通讯补贴 生日礼品 节假日福利 团建活动 公司简介 常岳新能源成立于2020年11月。公司定位为新能源电池流通数字化解诀方案专家,业务板块主要包括两个部分:分别是线上的车数万维数据服务平台和线下的电通万维电池回收渠道体系。 车数万维新能源数据服务平台,主要是为电池回收贸易企业、二手车商、https://36kr.com/p/2387515036252168
14.酒店业的“国货之光”,首期酒店总经理总裁班开启报名改造后的宾馆引进了智能客控系统(RCU)、用多种绿色先进技术,实现全年能耗降低超过35%,能源费用降低约1700万元。白天鹅节能改造案例荣获2018年国际绿色(建筑)解决方案大奖。同年,白天鹅宾馆餐饮经营创新再发力,三家中餐厅全部上榜米其林,被称为“一门三杰”,玉堂春暖餐厅还被评为黑珍珠三钻,广州独此一家。https://maimai.cn/article/detail?fid=1286794270&efid=1LBuD4lWhW0x6JW_8hu6Ow
15.智慧课堂平台解决方案要求提供教师通过智能终端、电脑等将多渠道提供的资源、个人空间内资源或本机上的资源推送到学生的省平台个人空间内。产品需具有计算机软件著作权登记证书,投标文件中提供计算机软件著作权登记证书扫描件或影印件证明,证书中需体现出教学资源推送或学习资源推送或教学资源分发功能。 http://www.xuejia360.com/solution-5.html
16.好未来:基于多模态数据分析的在线学习智能评估反馈好未来集团集中研发了在线学习智能评估反馈整体解决方案,并将其落地在好未来学而思多条产品线中。例如,在实际应用中针对数十万节的1对1课堂引入了这一套智能评估反馈系统。特别是在互动反馈方面,重点关注学生和老师之间的深层交互,基于表达,动笔,总结三个维度,提出“愿表达、勤动笔、善总结”的智能评估反馈驱动的教学https://wlaq.gmw.cn/2022-09/06/content_36006278.htm
17.亿课云学习进度跟踪、学习节点智能提醒,有效助学与督学 考 支持创建题库,课堂考试、刷题打卡,检测学员学习效果 练 模拟练习、音频跟读、训练营等多种练习方式,激发学习兴趣线上学习形式全覆盖,满足不同教育场景大数据附能品牌沉淀,驱动业务增长 多维度、精细化数据分析, 图表呈现商品、订单、转化、流量、用户 等数据为业务决http://www.yike-cloud.cn/
18.录取率仅为1.29%这22家入选公司在YC中国第一期创业营公司月度销售额达到150万,并平均保持每月30%的速度快速增长,系统每秒AI并发数量已经达到500,产品拓张速度稳健。云蝠智能与上海联通、上海电信、NTTDATA、京东AI HUB构建完整的渠道体系,以核心渠道+超过40家代理商加快推进业务落地。 深耕3000亿巨大房地产营销市场 https://www.pencilnews.cn/d/35119.html
19.单图像三维结构恢复方法综述机器人与智能系统基于可见光单图像的三维重构方法一直是计算机视觉领域的研究热点,该文从光照物体的材质和结构差异,以及成像过程中信息损失等因素着手,对基于光照模型、基于几何图元以及基于深度学习策略的三维重建方法进行了分类和概述,并分析讨论各类方法的优缺点以及未来的研究方向。 https://www.chuandong.com/robot/article1198.html
20.线上线下混合教学总结范文(精选22篇)1、三年级英语组第一时间成立了延期开学“线上教学”小组,三年级的三名英语老师精心制定了《三年级英语“线上教学”方案》,对“线上教学”各项工作早谋划、早安排、早行动。 2、认真摸排,精准掌握所有学生智能终端覆盖情况,对个别特困家庭实行“一人一案”,采用手机家访送温暖等形式,实现线上教学全覆盖。 https://www.oh100.com/kaoshi/jiaoxuezongjie/644221.html