外链论坛

 找回密码
 立即注册
搜索
查看: 18|回复: 2

基于深度强化学习算法的无人机智能规避决策

[复制链接]

2722

主题

4910

回帖

9911万

积分

论坛元老

Rank: 8Rank: 8

积分
99110151
发表于 2024-8-23 08:33:29 | 显示全部楼层 |阅读模式

源自:系统工程与电子技术

作者:吴冯国 陶伟 李辉 张建伟 郑成辰

“人工智能技术与咨询” 发布

摘 要

提高无人机在繁杂空战场景中的存活率, 基于公开无人机空战博弈仿真平台, 运用强化学习办法生成机动策略, 以深度双Q网络(double deep Q-network, DDQN)和深度确定性策略梯度(deep deterministic policy gradient, DDPG)算法为基本, 提出单元状态序列(unit state sequence, USS), 并采用门控循环单元(gated recurrent unit, GRU)融合USS中的态势特征, 增多繁杂空战场景下的状态特征识别能力和算法收敛能力。实验结果显示, 智能体在面对采用标准比例导引算法的导弹攻击时, 取得了98%的规避导弹存活率, 使无人机在多发导弹同期攻击的繁杂场景中, 能够取得88%的存活率, 对比传统的简单机动模式, 无人机的存活率大幅加强

关键词

深度强化学习, 无人机, 单元状态序列, 门控循环单元

引言

现代空战环境错综繁杂, 空空导弹和机载雷达性能持续提高, 超视距空战已然在现代空战中占据主导地位[1], 空空导弹早已作为打击空中单位的重点武器。无人机做为空中战场的理想作战目的之一, 被广泛运用到军事行业其中[2]。利用无人机可连续大机动的飞行特点, 采取有效的机动策略以加强无人机对导弹的规避、逃逸成功率, 对提高无人机的空战存活能力而言至关重要[3]。

无人机规避空空导弹问题始终都是空战的科研热点。王怀威等[4]采用蒙特卡罗办法验证了无人机实施常规盘旋机动规避导弹的效果。Imado等[5]利用微分对策法科研导弹与无人机差速博弈的问题。另一, 还有许多针对导弹的规避方式[6-10]、规避效能评定[11-13]以及无人机最优或次优规避策略解析解[14-16]等方面的科研。以上办法依赖于完备的空战对战模型以求解在单枚导弹打击状况下的最优机动策略, 当导弹数量变化时, 模型很难理解, 况且创立空战对战模型本身便是一个非常繁杂的过程, 需要运用海量微分函数结合积分函数,才可表征无人机与导弹状态属性的转移规律。

深度强化学习(deep reinforcement learning, DRL)算法在马尔可夫决策过程(Markov decision process, MDP)基本上, 采用端到端学习方式, 以态势信息为输入, 直接利用神经网络获取输出, 掌控智能体作出决策, 被广泛应用于自动化掌控当中[17-22]。范鑫磊等[23]将深度确定性策略梯度(deep deterministic policy gradient, DDPG)算法[24]应用于无人机规避导弹训练, 在简易模型下对固定态势攻击的空空导弹进行仿真验证。宋宏川等[25]针对导弹制导规则设计成型奖励, 用DDPG算法训练无人机规避正面来袭的导弹, 对比典型规避策略, 训练出了仅次于置尾下降机动的逃逸策略。

以上科研显示, 无人机能够经过特定的机动方式来规避空空导弹的打击, 而深度强化学习算法能够训练出自动规避空空导弹的智能体。总体而言, 以往科研大多基于单枚导弹打击场景。然则在超视距空战中, 多枚导弹从区别方向锁定无人机并发动协同攻击的状况屡见不鲜。在这种情形下, DRL算法会存在状态空间维度大, 状态信息维度持续变化, 神经网络输入维度难以固定, 算法收敛性能差等问题。

针对以上问题, 本文提出一种基于单元状态序列(unit state sequence, USS)的强化学习算法(reinforcement learning method based on USS, SSRL)。在该算法中,首要,将导弹和无人机进行一对一的特征编码,形成特征单元; 其次,按照距离优先级对所有编码后的特征单元进行排序, 组合成一个USS; 而后运用门控循环单元(gated recurrent unit, GRU)对USS中的特征单元进行特征融合, 提取其中的隐匿特征信息; 最后,将隐匿特征信息看作该时刻的状态信息,并将信息传入强化学习算法的神经网络。将该算法分别应用于深度双Q网络(double deep Q-network, DDQN)[26]和DDPG算法上, 在公开无人机空战博弈仿真平台上进行训练。仿真结果显示, 由SSRL算法训练的智能体能够学到连续规避机动策略, 掌控无人机进行规避导弹机动, 增多导弹脱靶量, 提高无人机连续规避导弹的成功率。

1 关联理论

1.1 MDP

强化学习训练过程类似于人类学习, 即智能体在持续探索和获取外界反馈中学习能够得到的最大利益, 一般被建模成MDP[27]。MDP由状态空间S、动作空间A、状态转移函数P和奖励函数R构成:状态空间是所有可能的状态集合; 动作空间是所有可能的动作集合; 状态转移函数则描述了在当前状态下采取某个动作后到达下一个状态的概率;奖励函数用于描述在当前状态下采取该行动所得到的奖励[28]。

1.2 DDQN算法

强化学习任务一般是时间序列决策问题, 与训练数据高度关联。文献[29]引入经验重放机制, 降低数据之间的关联性, 使样本可重复利用, 加强学习效率。DDQN算法运用两个神经网络,将动作选取和值函数估计进行解耦, 评定网络Q用于环境交互, 用于动作选取的公式如下:

(1)

目的网络Q′用于估计下个状态值函数, 经过最小化损失函数, 更新评定网络参数, 使训练过程更加稳定:

(2)

式中: yi表率目的值, 即:

1.3 DDPG算法

DDPG算法基于确定性策略梯度[30](deterministic policy gradient, DPG)算法, 并将DDQN中的双重网络机制应用到ActorCritic框架, 分别运用参数为θμ、θμ′、θQ和θQ′的深度神经网络拟合策略评定函数μ、策略目的函数μ′、动作值评定函数Q和动作值目的函数Q′。

策略评定函数负责与环境交互, 从环境中获取状态S、奖励r、结束标识d, 进行动作选取如下:

(3)

式中: Ni为动作噪声, 对噪声运用模拟退火[31]以避免陷入局部最优, 同期增多了算法的探索能力。

智能体经过最小化损失公式,以更新值评定网络参数:

(4)

式中: yi为目的动作值。即:

(5)

按照DPG算法的理论证明策略函数关于θμ的梯度等价于动作值函数关于Q(s, a|θQ)的期望梯度, 使得能够以梯度更新策略评定网络:

(6)

因此呢,策略评定网络根据此方向更新网络参数:

(7)

动作值网络参数在更新过程中又用于计算策略网络的梯度, 软更新方式为

(8)

以减少学习过程中动作值网络可能显现的不稳定性。

1.4 GRU网络

循环神经网络(recurrent neural network, RNN)[32]能够处理时序型输入, 以序列x在t时刻的数据xt和前t-1时刻神经网络的输出ht-1做为输入, 输出yt和ht, ht又做为之后的输入。这种结构能结合历史信息, 拥有前瞻能力。GRU[33]是改进的RNN, 其网络结构如图 1所示, 更新门zt和重置门rt 将新的数据与历史信息相结合并选取遗忘某些历史信息。GRU网络能够处理传统RNN在长时间记忆和反向传播中梯度消失的问题, 与长短期记忆(long-short term memory, LSTM)网络收敛效果相当, 并且在训练速度上有很大程度的提高

图1 GRU网络

2 SSRL算法

在超视距空战中, 一般以机载雷达、地面雷达及红外瞄准跟踪安装等进行目的探测, 其战场范围太大, 作战的实体数目难以确定, 经常以多机、多目的协同作战方式显现[34]。当无人机面临多枚导弹的协同打击时, 环境中的实体数量会出现动态变化, 神经网络在训练时需要根据最大实体数目输入所有环境信息, 实体信息默认值为零, 存在的实体按实质状态值进行填充。这种方式适用于实体数目确定的场景, 且并非所有的环境信息都会对当前智能体的决策产生影响。怎样有效地获取空战环境中的态势特征, 筛选出更加重要的状态信息[35-36], 对提高训练效果而言非常重要。

USS编码方式能够有效处理这个问题。在自然语言处理中, 区别的单词被转换成等长的稠密向量, 用于区分各个单词之间的差异, 而RNN能够从词向量模型中提取特征信息。借鉴词向量编码的优良, 思虑将智能体与单个目的视为一组特征映射, 进行状态编码, 提取其中的重要态势特征, 并将其编码为状态单元。该时刻的USS由多个状态单元构成, 利用GRU网络有效训练和融合序列信息的能力, 从USS中提取隐匿特征, 用于强化学习。这种特征提取办法在理论上能够结合到在单实体对多目的(可变)的任意场景中, 属于通用处理方法。本文将USS结合到DDQN和DDPG算法中, 在超视距空战中连续规避导弹的场景下进行实验。

2.1 USS

单元状态序列的编码过程如下。

过程1 从仿真环境中获取无人机观测信息Of和导弹的观测信息O, O=(o1, o2, …, on)。

过程2 将无人机与每一枚敌方空空导弹的观测信息沿水平面和垂直平面分别进行分解, 并运用天线偏转角(antenna train angle, ATA)和航向交叉角(heading crossing angle, HCA)描述其朝向和位置差异。ATAh和HCAh分别暗示水平面的天线偏转角和航向交叉角, 如图 2所示。

图2 水平面态势分解

ATAv和HCAv分别暗示无人机运动垂直切面的天线偏转角和航向交叉角, β暗示飞机俯仰角, βm暗示导弹俯仰角, 如图 3所示。

图3 垂直面态势分解

过程3 按照无人机与每一枚敌方空空导弹的观测信息, 提取其中的相对运动信息,包含导弹对飞机的相对运动速度Δv、导弹转动角速度Δω、无人机与导弹相对运动距离D、无人机所处飞行高度H。

过程4 将无人机与每一枚敌方空空导弹经过过程2和过程3得到的状态信息进行拼接, 而后归一化, 保留为状态单元Si, 如下所示:

(9)

过程5 无人机在面临多枚导弹打击的状况下, 越早遭遇导弹, 威胁紧急程度越高, 需要优先进行思虑。与自然语言处理同样, 单词显现的先后次序会呈现出必定关联性, 状态单元之间会存在这种联系。采用下式估计无人机与导弹的碰撞时间:

(10)

式中: D为无人机到导弹形成的距离向量, |vm + vp|cos ξ为无人机与该导弹速度矢量和在D方向上的投影, 由式(10)可得到遭遇导弹的剩余时间估计量

过程6 根据

对状态单元进行排序并结合, 形成单元状态序列USS,USS =[S0, S1, S2, …, SN]。导弹数量是不固定的, 因此呢USS中含有的状态单元数量不固定。

2.2 隐匿特征提取

USS能对无人机当前所处的环境信息进行独一标识, 运用GRU网络对USS中的状态单元进行特征融合, 提取隐匿特征的仔细过程如下。

过程1 初始化隐匿特征hzero为全零矩阵。

过程2 将前一时刻隐匿特征ht-1与当前状态单元St输入公式进行计算, 得到更新门神经元向量zt。

(11)

过程3 将前一时刻隐匿特征ht-1与当前状态单元St输入公式进行计算, 得到重置门神经元向量rt。

(12)

过程4 将前一时刻隐匿特征ht-1、当前状态单元St以及重置门神经元向量rt输入到公式进行计算, 得到候选隐匿特征

(13)

过程5 将前一时刻隐匿特征ht-1、更新门神经元向量zt以及候选隐匿特征

进行计算, 在平衡历史特征的同期加入了新状态所包括的信息, 求到新的隐匿特征。

(14)

过程6 倘若USS中还有状态单元St+1, 则将新的隐匿特征ht和该状态单元St+1返回过程2进行计算。

过程7 得到USS的隐匿特征hN, 将其做为该时刻USS的隐匿特征输出Feature。

其中, Wr、Wz和

都是可学习参数, σ为sigmoid函数, 输出0~1为信息所占百分比。在强化学习动作选取周期, 直接运用特征输出Feature做为神经网络的输入, 选取动作; 在训练周期一样运用GRU提取单元状态序列中的特征Feature, 输入神经网络, 反向传播过程中的神经网络误差值error关于状态单元S的梯度Δe(S)将用于GRU网络中Wr、Wz和

的更新。

2.3 结合DDQN算法构建的算法

环境中的观测信息经过状态编码转码为USS后, 再运用GRU进行特征融合与提取, 就能得到定长编码的特征信息Feature, 可将其直接做为强化学习的神经网络输入。

结合DDQN算法, 构建基于DDQN的算法(DDQN algorithm based on USS, SSDDQN), 其算法流程如图 4所示。SSDDQN守护一个GRU模块,用于提取USS中的隐匿特征, 优化器经过式(2)计算评定网络梯度, 而后更新评定网络参数, 梯度参数会传播到GRU模块,以进行同步更新。

图4 SSDDQN算法流程

结合DDPG算法, 构建基于USS的DDPG算法(DDPG algorithm based on USS, SSDDPG), 其算法流程如图 5所示。SSDDPG守护两个GRU模块, Feature分别用于策略网络和值网络。值网络优化器经过式(4)计算值神经网络梯度, 策略网络优化器经过式(7)计算策略梯度, 网络参数更新时的梯度参数会传播到对应GRU模块进行更新。

图5 SSDDPG算法流程

3 基于强化学习的空战决策

3.1 无人机机动模型

本文科研的无人机动力学模型如图 6所示, 可将无人机视作上下叫作的理想刚体, 其运动方式暗示为三自由度飞行掌控仿真[37]。将无人机所受的合力沿运动方向和垂直于运动方向进行分解, nv暗示升力、阻力和推力的合力对速度产生的影响, 供给切向加速度; 无人机的法向过载用nh暗示, 垂直于速度方向, 掌控无人机俯仰角; 滚转角用μ暗示; 重力加速度用g暗示

图6 无人机动力学模型

无人机三自由度仿真的运动方程如下:

(15)

式中: β为俯仰角, 暗示速度与水平面的夹角, 取值范围为[-π/2, π/2], 水平面向上为正, 向下为负; α为方位角, 暗示速度在水平面上的投影与正北方向的夹角, 体积范围为[0, 2π]。

3.2 无人机动作空间

本文中的无人机动作以其运动方向和飞行姿态为相对坐标系的原点, 始终保持无人机以最大速度进行飞行, 即切向过载nv=sin β。智能体经过改变无人机的滚转角μ和法向过载nh掌控无人机机动。其中,μ∈[-π/2, π/2], nh∈[-Gmax, Gmax]。

DDPG算法直接输出两个-1到1的动作, 并分别根据滚转角μ和法向过载nh进行反归一化, 掌控无人机机动。

DDQN算法适用于处理离散型的动作决策, 针对无人机智能机动这种连续型的动作空间, 广泛做法是将连续动作进行离散化处理[38], 将其转换为离散机动掌控按照美国国家航空航天局提出的空战基本动作库, 根据机动方向和过载体积,将滚转角与过载离散化为表 1所示的9个基本动作。其中,滚转角μh与当前俯仰角β的关系如下:

表1 DDQN算法的动作空间

(16)

此时,

, 无人机会以当前运动平面做转向机动。

3.3 实验奖励设计

智能体在训练的过程中, 因为任务完成次数太少或任务步数过大, 会引起学习缓慢, 乃至没法收敛。本文经过奖励重塑给智能体设计周期目的, 引导智能体朝着完成任务的方向前进。

(1) 高度奖励

无人机最高飞行高度为15 km, 最低飞行高度为2 km, 在规避机动的过程中可能显现越过边界的状况, 超过高度限制则判定为损毁。思虑到靠近边界则处在危险态势, 为减少在规避过程中超过边界引起损毁的现象, 创立高度奖励函数:

(17)

(2) 规避奖励

在多枚导弹打击无人机时, 将任务拆分为规避多个单枚导弹的周期性任务, 并鼓励智能体规避更多导弹。奖励出此刻导弹爆炸时, 设计成功规避奖励:

(18)

(3) 仿真结束奖励

在连续规避空空导弹的问题中, 最后的决策评估标准为无人机能否存活。在一局仿真模拟结束时, 按照无人机存活状态,创立存活奖励:

(19)

针对战斗机规避导弹问题, 思虑以上3种奖励, 创立环境奖励函数:

(20)

4 超视距空战仿真实验

本文实验平台采用由中国指挥与掌控学会和共青团航空工业集团委员会联合主办的“2021首届全国空中智能博弈大赛”的决赛环境。该平台以作战计划和方法科研对象, 构建典型空战场景, 拓展空战作战样式和作战机理, 赋能作战指挥决策。

4.1 规避导弹任务想定

针对无人机规避空空导弹问题, 实验设计了两个任务想定: ①蓝方飞机挂载导弹随机出此刻红方无人机四周, 并利用导弹进行打击, 红方无人机经过连续机动决策规避导弹; ②蓝方4架飞机分别挂载导弹, 同期区别方向攻击无人机。红方无人机尝试经过连续机动决策以求规避所有导弹, 并最后得到存活

影响空空导弹对无人机进行有效打击的原因非常多, 包含导弹和无人机的速度、高度、俯仰角、朝向角、目的进入角以及导弹制导律、无人机机动方式等。为衡量在区别态势下智能体掌控无人机规避导弹的性能优劣, 设计如图 7所示的初始场景。红方无人机速度为400 m/s, 最大过载Gmax为6g, 初始高度为9 km。蓝方无人机携带空空导弹在距离红方无人机20 km到60 km、高度在3 km到15 km的范围随机显现。蓝方飞机在导弹发射之后便跟随红方无人机飞行, 为导弹制导供给雷达照射。

图7 初始想定场景

空空导弹的初始速度为300 m/s, 最大速度为1 000 m/s, 发动机工作时间为30 s, 其速度变化如图 8所示。导弹在发射之后会先急剧加速, 在到达最大速度后匀速飞行, 发动机停止工作后做减速运动。导弹制导规则为比例导引算法, 杀伤半径为100 m, 脱靶后会立即爆炸。

图8 导弹飞行速度随时间变化的曲线

4.2 神经网络参数

在强化学习中,DDQN算法、DDPG算法、SSDDQN算法以及SSDDPG算法的神经网络均采用3层反向传播神经网络, 每一层神经元节点个数分别为256, 256, 256, 经验池体积为50 000。DDQN算法和DDPG算法的输入将状态单元Si按最大实体数目进行直接拼接, 初始状态默认为0, 对存在的实体按状态值进行填充, 即在单枚导弹场景训练时的输入维度为10, 在4枚导弹场景训练时的输入维度为40。SSDDQN算法和SSDDPG算法均运用GRU网络单元进行特征提取, GRU网络单元以USS为输入, 输出维度为10的隐匿特征Feature, 隐匿特征用于强化学习训练和动作选取

在DDQN算法和SSDDQN算法中, 折扣系数γ= 0.99, 学习率lr=1e-4, 网络更新频率为100, 即训练100次,就能将评定网络的参数拷贝到目的网络中。在DDPG算法和SSDDPG算法中, 折扣系数γ=0.99, 值网络学习率lrc=5e-4, 策略网络学习率lra=1e-4, 软更新频率τ=0.01。每训练2 000局, 就利用训练后的智能体完成1 000轮对局测试,以记录规避导弹存活率。

4.3 仿真实验分析

在实验中, DDQN算法、DDPG算法、SSDDQN算法以及SSDDPG算法分别在想定①和想定②的场景中进行训练, 并将4种强化学习算法与3种简单的固定机动策略进行比较,即高速直线飞行、高速俯冲、最大过载转圈。本文分析了规避导弹的存活率、智能体掌控无人机连续规避导弹的飞行轨迹,以及区别机动方式下的导弹脱靶量。

4.3.1 规避导弹成功率

在想定①中的训练曲线如图 9(a)所示: 高速直线飞行、高速俯冲、最大过载转圈面对导弹打击时的存活率分别为40%、44%、67%;DDQN、DDPG、SSDDQN、SSDDPG这4种算法面对导弹打击时的最高存活率分别为99%、99.5%、98.5%、99.5%。在3种简单机动算法中, 仅有最大过载转圈机动策略的存活率超过了60%, 而由4种强化学习算法训练出来的智能体操作无人机规避导弹的存活率均超过了98%, 证明强化学习能够在无人机规避导弹场景下训练出拥有自主机动决策的智能体。同期发掘, 增多了USS的强化学习算法在收敛速度上比传统强化学习算法更慢, 但最后的智能体规避导弹的存活率差异很小。在想定②中的训练曲线如图 9(b)所示: 高速直线飞行、高速俯冲、最大过载转圈在导弹打击时的存活率分别为2.5%、3.7%、20.1%;DDQN、DDPG、SSDDQN、SSDDPG这4种算法在导弹打击时的最高存活率分别为25.5%、28.5%、88.5%、88%。增多打击无人机的导弹数量后, 高速直线飞行和高速俯冲机动这两种机动方式很难存活, 最大过载转圈这种机动方式仍然拥有必定的规避能力。DDQN算法和DDPG算法在该场景下虽然能够提高连续规避多枚导弹的存活率, 然则其收敛效果较差。结合USS的SSDDQN算法与SSDDPG算法, 在应对4枚导弹时仍然能够训练出以很大概率规避所有导弹的智能体。对比发掘, 结合USS的强化学习算法在多枚导弹同期打击场景下的收敛速度更快、精度更高, 能够显著提高无人机连续规避多枚空空导弹打击的存活率。

图9 无人机规避导弹打击的训练曲线

由图 9可知, 由SSRL算法训练的智能体在规避单枚空空导弹中的存活率与DDQN算法和DDPG算法相当, 并且在连续规避多枚空空导弹中的存活率远高于DDQN算法和DDPG算法。

4.3.2 无人机规避飞行轨迹

在想定①中, DDQN算法、DDPG算法、SSDDQN算法、SSDDPG算法训练的智能体, 针对区别态势来袭的导弹会采取区别的规避机动方式。训练出的典型机动方式如图 10所示, 包含垂直于导弹运动方向、急速下潜、垂直置尾再急速转向等机动方式。智能体按照态势区别和飞行速度区别的来袭导弹,会选取采用区别的机动方式进行规避, 尽管这些机动方式区别, 然则都能够有效规避智能体遭遇导弹的攻击。

图10 无人机规避单枚导弹的飞行轨迹

在想定②中, SSDDQN算法与SSDDPG算法训练的智能体掌控无人机机动的飞行轨迹近似, 如图 11所示。图 11(a)为SSRL算法训练的智能体掌控无人机连续规避4枚导弹的飞行轨迹。在规避导弹的全部过程中, 智能体采取不规则的爬升和俯冲动作, 并在最后时刻运用最大过载进行极限转向。图 11(b)为无人机遭遇导弹周期的飞行轨迹, 当导弹靠近时, 智能体掌控无人机在垂直平面做不规则的蛇形机动, 持续调节飞行姿态, 使得无人机在最后时刻能够经过反向大机动规避空空导弹。

图11 无人机规避4枚导弹的飞行轨迹

4.3.3 导弹脱靶量

脱靶量是用来形容导弹与目的在运动过程中相对距离的最小值, 是评定导弹系统命中精度的重要指标, 脱靶量的体积能够直接影响导弹的毁伤概率。脱靶量越大, 导弹对无人机的威胁度越低, 当导弹的脱靶量大于攻击范围时, 无人机能够成功避开导弹。在遭遇周期, 能够认为导弹和无人机均做匀速直线运动, 并以此计算智能体应对区别位置来袭导弹的平均脱靶量。

图 12为区别机动方式下的导弹脱靶量箱型分布, 表 2为区别机动方式下的导弹平均脱靶量。图 12 (a)为想定①中导弹对无人机脱靶量的箱型分布: 高速直线飞行、高速俯冲的平均脱靶量集中在100 m范围内, 平均脱靶量分别为97 m、99 m; 最大过载转圈的脱靶量集中在100 m周边, 平均导弹脱靶量为106 m; DDQN算法、SSDDQN算法、DDPG算法、SSDDPG算法训练的智能体应对导弹的脱靶量集中在132 m周边。图 12 (b)为想定②中导弹对无人机脱靶量的箱型分布: 高速直线飞行、高速俯冲、最大过载转圈的脱靶量集中在100 m范围内, 平均脱靶量分别为43 m、74 m、83 m; DDQN算法、DDPG算法训练的智能体应对导弹的脱靶量分别为92 m、98 m; SSDDQN算法、SSDDPG算法训练的智能体应对导弹的脱靶量分别为128 m、127 m。由此可知, 在连续规避导弹的场景中, SSRL算法训练的智能体能够有效加强导弹脱靶量, 更好地避开导弹的打击。

图12 区别机动方式下的导弹脱靶量

表2 导弹平均脱靶量

5 结论

本文针对超视距空战中无人机在面对多枚导弹同期打击情景下状态空间维度大、状态信息维度持续变化、强化学习算法训练效果差等问题, 提出运用USS暗示单实体对多目的场景下的状态特征, 并利用GRU网络对USS进行特征融合与提取, 提取的特征用于强化学习, 形成SSRL算法。算法在“2021首届全国空中智能博弈大赛”仿真平台上进行训练。仿真结果显示, 相比DDQN算法、DDPG算法、简单机动算法, SSRL算法训练出来的智能体能够增多导弹脱靶量, 提高无人机在连续规避导弹场景中的存活率。

声明:公众号转载的文案照片出于非商场性的教育和研究目的供大众参考和探讨,并不寓意着支持其观点或证实其内容的真实性。版权归原作者所有,如转载稿触及版权等问题,请立即联系咱们删除。

“人工智能技术与咨询” 发布

回复

使用道具 举报

0

主题

1万

回帖

1

积分

新手上路

Rank: 1

积分
1
发表于 2024-8-23 09:49:18 | 显示全部楼层
期待楼主的下一次分享!”
回复

使用道具 举报

0

主题

1万

回帖

1

积分

新手上路

Rank: 1

积分
1
发表于 2024-8-26 11:20:16 | 显示全部楼层
外贸网站建设方法 http://www.fok120.com/
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

站点统计|Archiver|手机版|小黑屋|外链论坛 ( 非经营性网站 )|网站地图

GMT+8, 2024-10-3 23:22 , Processed in 0.086262 second(s), 20 queries .

Powered by Discuz! X3.4

Copyright © 2001-2023, Tencent Cloud.