删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

基于态势认知的无人机集群围捕方法*

本站小编 Free考研考试/2021-12-25

无人机集群作为一种新的应用样式,具有极大的发展前景[1]。无人机集群对目标的追捕问题是一种典型的应用场景。
针对无人机集群围捕问题,目前大多数研究均基于分布式控制[2],即通过将集群围捕问题转换为一致性问题,再设计分布式算法使得集群向目标位置收敛,实现围捕的效果。黄天云等[3]提出了一种基于松散偏好规则的自组织方法,通过分解围捕行为, 利用松散偏好规则使个体机器人自发形成理想的围捕队形,并运用Lyapunov稳定性定理证明系统的稳定性。李瑞珍等[4]提出了一种基于动态围捕点的多机器人协同围捕策略,根据目标位置设置动态围捕点,并利用任务分配方法为围捕机器人分配最佳围捕点,综合考虑围捕路径损耗和包围效果,计算围捕机器人的最优航向角,实现集群对目标的围捕。张子迎等[5]提出一种多层环状伏击围捕模型,并依据能量均衡原则,对系统能量消耗进行平衡。Uehara等[6]针对有障碍的复杂环境下集群围捕问题,改进了粒子群算法,使得围捕者能够在规避障碍物的情况下实现对目标的围捕。
近年来,部分****探索了通过强化学习来解决集群对目标的围捕问题[7-10]。Liu等[11]通过对围捕复杂任务进行分解,将学习过程分为高级学习和低级学习,并使两部分学习并行进行,完成了围捕问题分层次强化学习设计。Bilgin和Kadioglu-Urtis[12]结合Q学习(Q-learning)和资格痕迹(Eligibility Traces),对追捕者进行并行训练,并为每个追捕者维护一个独立的Q值表(Q-table),完成了集群内部存在交互的独立智能体学习。Awheda和Schwartz[13]提出了将卡尔曼滤波与强化学习结合起来的卡尔曼滤波模糊A-C算法,尝试解决在追捕者和目标训练环境不一样的情况下如何实现成功围捕的问题。Lowe等[14]于2017年提出了MADDPG(Multi-Agent Deep Deterministic Policy Gradient)算法,探索了多智能体领域的强化学习,该算法通过智能体之间信息的交互,使得每个智能体的强化学习都考虑到其他智能体的动作策略,取得了显著的效果,但该算法训练时需要知道对手智能体的逃逸策略,这与大多情景不符。
以上研究在环境属性确定的情况下能够有效解决集群围捕问题,但是在新环境下,往往围捕效果较差。基于此,本文设计了一种基于态势认知的无人机集群围捕方法,尝试解决不同环境下的围捕策略问题。首先,基于对围捕行为的分析,将围捕过程离散化;然后,利用深度Q神经网络(Deep Q-network,DQN)方法[15-17],解决固定时间窗口长度下的围捕策略生成问题;最后,通过建立状态-策略知识库,实现面向围捕问题的认知发育[18],基于态势识别,完成围捕策略的快速选取。仿真结果表明,在确定环境情况下,所设计的基于DQN的围捕发育方法能够解决围捕问题,给出围捕策略,提出的基于态势认知的围捕方法能够实现知识库的增量发育,有效应对新环境下的围捕问题。
1 问题描述 设战场上存在N架无人机组成的集群,对一个运动的目标进行追捕,如图 1所示。
图 1 围捕问题示意图 Fig. 1 Schematic of rounding up problem
图选项




U=(u1, u2, …, uN)表示追捕无人机状态矩阵,ui表示第i架无人机的状态矢量,用T表示目标状态矢量。设追捕无人机的速度为Vp,目标的速度为VtDp表示追捕无人机的探测距离,Dt表示目标的探测距离,通常设定Dp>Dt
目标与追捕无人机均在战场上运动,追捕无人机的目的是探测到目标的位置信息,再通过协作在目标周围设立包围圈,实现对目标的围捕。当其中一架无人机获得目标的位置信息后,视为其他追捕无人机获得目标的位置信息。目标初始时刻在战场随机运动,一旦发现追捕无人机后,会按照一定的逃离策略进行逃逸。
本文假设当3架及以上的追捕无人机在目标周围设立包围圈,且包围的无人机与目标的最大距离小于目标的探测距离,即视为围捕成功,无人机亦可依据障碍物设置包围圈,如图 2所示。
图 2 围捕成功示意图 Fig. 2 Schematic of successful rounding up
图选项




本文考虑2D仿真环境下的集群围捕问题。将无人机及目标看作质点,不考虑无人机及目标的姿态变化,可将无人机及目标的运动模型表述为
(1)

式中:(x, y)为当前时刻位置;(vx, vy)为当前时刻速度。
2 基于DQN的围捕策略发育 根据无人机集群围捕的特点,将围捕动作分解为:右侧包抄(R)、左侧包抄(L)、逼进(F)、后退(R)、静止(S)五种,记为
(2)

考虑时间窗口长度为τ的围捕效果,将围捕策略表示为τ时刻内各无人机动作的有序集合,即
(3)

式中:
(4)

其中:att时刻各无人机选取的动作;Ai为从Actions集合中选取的具体动作。
假设围捕无人机数目为N,则一个时间窗口内,共有5种围捕策略可供选择。假设考虑仅3架无人机时间窗口长度为5 s的围捕效果,则围捕策略的总数也多达3×1010。因此,为解决具体环境下围捕策略的发育问题,考虑使用DQN进行策略的选择。
2.1 状态 在无人机集群围捕过程中,可将状态看作是由战场本身存在的障碍物、各无人机及目标构成。
假设环境中第k个障碍物为以(xk, yk)为圆心、以rk为半径的圆,只考虑静止的障碍,则障碍物可以描述为
(5)


(6)

式中:O为环境中n个障碍物的集合。
无人机集群通过观察可获得目标的位置、速度的观测值,集群内部通过相互通信,可以获得各自的位置、速度信息,将t时刻目标状态描述为
(7)

式中:(x(t), y(t))为目标在t时刻的位置;(?(t), ?(t))为目标在t时刻的速度。
t时刻集群的状态描述为
(8)

式中:
(9)

其中:(xi(t), yi(t))和(?i(t), ?i(t))分别为无人机it时刻的位置和速度信息。
将状态统一描述为
(10)

2.2 奖励函数设定 DQN根据奖励值来调整网络权重,实现对网络的更新。奖励函数的设定极大地影响到训练的效果。
集群对目标的围捕成功与否是以无人机到目标的距离及相对角度判断的,因此,设置奖励函数时,需充分考虑这2个因素。
将无人机i到目标j的距离用dij表示,当?dij>Dp时,无人机集群尚未发现目标;当Dt < dijDp时,表示无人机i发现了目标j,且自身未暴露;当Dtdij时,表示目标j已经发现了无人机i,此时如果尚未形成包围圈,目标j会主动逃逸。
通过距离建立奖励函数:
(11)

理想的围捕队形通常是多无人机均匀分布在以目标为圆心、以围捕半径为圆的圆上[4],以3架无人机组成的集群为例,如图 3所示。
图 3 围捕队形示意 Fig. 3 Schematic of rounding up formation
图选项




设无人机i与周围2架无人机分别以目标为顶点的角度为ψφ,则ψ*=φ*=2π/N为最优的角度,可以通过角度建立奖励函数:
(12)

此外,需在奖励函数中加入避障项,以使得无人机能够主动规避环境中的障碍物:
(13)

式中:rOb为奖励函数的避障相;dmin为无人机距离最近障碍物的距离。
综上,将奖励函数设置为
(14)

式中:αβχ分别为距离项、队形项和避障项的权重,权重的确定通常需要实际训练来调整;f定义为
(15)

当围捕成功,无人机会获得+10的奖励。
2.3 基于DQN的策略发育 DQN[19]通过构建深度神经网络,完成对Q函数的拟合,解决了传统Q-learning方法中状态量太多导致的维度灾难问题。本文采用文献[19]中提出的DQN方法,实现多维度状态到低维度动作的映射。
为获取围捕策略,在每组训练过程中,将最终获得奖励值最大的一次训练的每一步以(St, at, rt)的形式储存,在所有训练结束后,针对储存的动作从t=0时刻进行一次长度为τ的采样,并进行m次长度为τ的随机采样。设采样的时刻为:0, t1, t2, …, tm,对应的采样点状态为:S0, St1, St2, …, Stm,可获得m+1次策略:π0, π1, …, πm
3 基于态势认知的围捕决策 得益于人脑强大的认知能力,飞行员在面对复杂多变的动态环境时,能够迅速地做出有利于战局的决策。仿照生物认知机制去构建具有学习和经验的增量式发育算法是解决一类复杂问题的有效途径,文献[18]受此启发,提出了包括认知决策、制导规划和执行控制3个层级的无人机认知控制系统结构,并在复杂动态环境下的多威胁无人机防碰撞问题中验证了有效性。本文在此基础上提出了一种基于场景认知的围捕决策。
图 4所示,在基本的围捕算法之上,构建包含状态-策略的知识库。当无人机集群每完成一次围捕训练,判断围捕方法是否有效,并设立一定的门槛,将有效训练的围捕策略存储到知识库中,构建围捕策略知识库。通过大量仿真训练,获得大量的状态-策略数据,在遇到相似状态的情况,可以直接调用策略进行围捕,而不需要重复训练。
图 4 无人机集群发育结构示意图 Fig. 4 Schematic diagram of UAV swarm development structure
图选项




3.1 基于认知发育的围捕 基于认知发育的围捕流程如图 5所示。
图 5 基于认知发育的围捕方法 Fig. 5 A rounding up algorithm based on cognitive development
图选项




围捕开始后,无人机集群获得当前时刻信息,通过态势认知将当前状态与知识库内的状态信息进行匹配,选择符合标准的策略进行围捕,若状态信息无法匹配,即遇到了新的状态,则调用第2节中的围捕发育算法进行围捕策略发育,以获得合适的围捕策略,此次围捕结束后,将获得的状态与相应的围捕策略加入到状态-策略知识库中,实现知识库的增量发展。
3.2 态势认知与策略匹配 围捕状态的描述已经在3.1节中给出,下面简要介绍如何通过对态势的认知,判断该状态是否为已知状态,并完成对状态的匹配。
为方便表述,将式(10)中状态的属性统一用G表示,共3n+4N+4项,即
(16)

为了实现对不同环境-目标模式的区分,以实现后续的分类及匹配工作,以绝对值指数法定义相似度函数:
(17)

式中:wi为属性Gi的权重。
设定C为相似度阈值,当
(18)

就认为SS为同一模式,否则为不同模式。并取增量判别函数:
(19)

作为判断是否需要将新状态S加入状态-策略知识库的依据,当S与已有知识库中的模式进行匹配时,如果相似度最大值大于阈值,则认为S为已存在模式,直接调用相应的策略进行围捕。反之,将S认为是全新的模式,调用围捕策略发育算法生成策略,并扩充到知识库中。
为简化状态匹配流程,将相似度阈值分解为
(20)

式中:ci对应项Gi的相似度。
比较状态SS的第i项,如果
(21)

则认为状态SS的第i项相似。进行状态匹配时,从G1项开始,从知识库中依次筛选符合条件的状态-策略对,最终获得匹配结果。
4 仿真与分析 为验证本文方法的有效性,采用文献[20]中的平台进行发育训练。通过随机生成围捕环境,建立训练集,验证基于态势认知的发育算法在围捕问题上的效果。
4.1 训练集参数设定 取无人机数目N=3,无人机和目标均为直径是2 m的圆,设定围捕环境横纵坐标范围为[-25, 25]m,无人机和目标的坐标每次均随机生成,具体参数如表 1所示。
表 1 无人机与目标参数设定 Table 1 Parameter setting of UAV and target
参数 数值
坐标轴范围/m [-25, 25]
围捕者最大速度/(m·s-1) 3
围捕者最大加速度/(m·s-2) 3
围捕者探测距离/m 10
目标最大速度/(m·s-1) 5
目标最大加速度/(m·s-2) 5
目标探测距离/m 5


表选项






记录围捕所消耗的时间,并设定围捕时间步大于100时为围捕失败。
训练集大小为1 000,通过对障碍物属性的随机生成,获得不同的围捕环境。设定障碍物的生成参数如表 2所示。
表 2 障碍物生成参数 Table 2 Obstacle generation parameters
参数 数值
数目均值 3
数目变化范围 0~5
位置范围/m [-24, 24]
直径均值/m 4
直径变化范围/m 2~8


表选项






4.2 仿真结果 1) 仿真实验1。选取一个随机生成的环境对所设计的DQN方法进行验证。
图 6为一次具体的围捕场景实例。此次围捕分为3个阶段:①无人机与目标距离较远,互相不知道对方的位置,无人机集群在搜索目标,目标在以随机的初始航向游走。②目标仍然随机运动。无人机2发现目标位置,其始终将自身与目标的距离控制在5~10 m之间,无人机1和无人机3则绕过障碍物,向目标前进,以构成围捕队形。③无人机3最先进入目标的探测范围,目标向反方向逃逸。无人机集群已在目标周围构成三角形,一同向目标趋近完成围捕。
图 6 围捕实例 Fig. 6 An example of rounding up
图选项




图 7中可看出,初始时刻,无人机集群无法有效完成对目标的围捕。随着训练次数增加,无人机集群最终能够在45步以内完成对目标的围捕。由此可见,DQN方法对无人机集群围捕问题是有效的。
图 7 平均围捕时间变化 Fig. 7 Change in mean time of rounding up
图选项




2) 仿真实验2。对基于态势认知的围捕方法进行训练,获得初步的知识库,再按照训练集的生成方法,生成一组长度同样为1 000的新环境,对知识库的有效性进行了验证,结果如图 8所示。
图 8 状态-策略知识库数目变化 Fig. 8 Change in number of state-policy repositories
图选项




图 8表示了随着对不同围捕环境的训练,状态-策略知识库中的状态-策略对也相应地增加,最终由于增量判别函数中阈值的存在,策略数目会稳定在一定的范围。
图 9中可看出,大多数场景下,集群都能在45步以内完成围捕,这表明面对新生成的不同环境,无人机集群能够迅速完成围捕任务。
图 9 测试环境下的围捕结果 Fig. 9 Rounding up results in test environment
图选项




5 结论 1) 设计的基于DQN的围捕策略发育方法能够有效解决固定环境下的围捕问题,给出围捕策略。
2) 提出的基于态势认知的围捕方法能够实现知识库的增量发育,有效应对新环境下的围捕问题。
为使本文方法能够应对更复杂的环境,仍需要优化策略存储机制及策略的提取机制,满足实时性要求。

参考文献
[1] 段海滨, 李沛. 基于生物群集行为的无人机集群控制[J]. 科技导报, 2017, 35(7): 17-25.
DUAN H B, LI P. Autonomous control for unmanned aerial vehicle swarms based on biological collective behaviors[J]. Science & Technology Review, 2017, 35(7): 17-25. (in Chinese)
[2] OLFATISABER R. Flocking for multi-agent dynamic systems: Algorithms and theory[J]. IEEE Transactions on Automatic Control, 2006, 51(3): 401-420. DOI:10.1109/TAC.2005.864190
[3] 黄天云, 陈雪波, 徐望宝. 基于松散偏好规则的群体机器人系统自组织协作围捕[J]. 自动化学报, 2013, 39(1): 57-68.
HUANG T Y, CHEN X B, XU W B. A self-organizing cooperative hunting by swarm robotic systems based on loose-preference rule[J]. Acta Automatica Sinica, 2013, 39(1): 57-68. (in Chinese)
[4] 李瑞珍, 杨惠珍, 萧丛杉. 基于动态围捕点的多机器人协同策略[J]. 控制工程, 2019, 26(3): 510-514.
LI R Z, YANG H Z, XIAO C S. Cooperative hunting strategy for multi-mobile robot systems based on dynamic hunting points[J]. Control Engineering of China, 2019, 26(3): 510-514. (in Chinese)
[5] 张子迎, 吕骏, 徐东, 等. 能量均衡的围捕任务分配方法[J]. 国防科技大学学报, 2019, 41(2): 107-114.
ZHANG Z Y, LV J, XU D, et al. Method of capturing task allocation based on energy balabce[J]. Journal of National University of Defense Technology, 2019, 41(2): 107-114. (in Chinese)
[6] UEHARA S, TAKIMOTO M, KAMBAYASHI Y.Mobile agent based obstacle avoidance in multi-robot hunting[M]//GEN M, GREEN D, KATAI O, et al.Intelligent and evolutionary systems.Berlin: Springer, 2017: 443-452.
[7] VLAHOV B, SQUIRES E, STRICKLAND L, et al.On developing a UAV pursuit-evasion policy using reinforcement learning[C]//201817th IEEE International Conference on Machine Learning and Applications (ICMLA).Piscataway: IEEE Press, 2018: 859-864.
[8] 谭浪, 巩庆海, 王会霞. 基于深度强化学习的追逃博弈算法[J]. 航天控制, 2018, 36(6): 3-8.
TAN L, GONG Q H, WANG H X. Pursuit-evasion game algorithm based on deep reinforcement learning[J]. Aerospace Control, 2018, 36(6): 3-8. (in Chinese)
[9] TENG T H, TAN A H, ZURADA J M. Selforganizing neural networks integrating domain knowledge and reinforcement learning[J]. IEEE Transactions on Neural Networks and Learning Systems, 2014, 26(5): 889-902.
[10] BEVERIDGE A, CAI Y. Pursuit-evasion in a two-dimensional domain[J]. ARS Mathematica Contemporanea, 2017, 13(1): 187-206. DOI:10.26493/1855-3974.1060.031
[11] LIU J, LIU S, WU H, et al.A pursuit-evasion algorithm based on hierarchical reinforcement learning[C]//2009 International Conference on Measuring Technology and Mechatronics Automation.Piscataway: IEEE Press, 2009, 2: 482-486.
[12] BILGIN A T, KADIOGLU-URTIS E.An approach to multiagent pursuit evasion games using reinforcement learning[C]//2015 International Conference on Advanced Robotics (ICAR).Piscataway: IEEE Press, 2015: 164-169.
[13] AWHEDA M D, SCHWARTZ H M.A fuzzy reinforcement learning algorithm using a predictor for pursuit-evasion games[C]//2016 Annual IEEE Systems Conference(SysCon).Piscataway: IEEE Press, 2016: 1-8.
[14] LOWE R, WU Y I, TAMAR A, et al.Multi-agent actor-critic for mixed cooperative-competitive environments[C]//Advances in Neural Information Processing Systems, 2017: 6379-6390.
[15] VAN HASSELT H, GUEZ A, SILVER D, et al.Deep reinforcement learning with double Q-learning[C]//National Conference on Artificial Intelligence, 2016: 2094-2100.
[16] HAUSKNECHT M, STONE P.Deep recurrent Q-learning for partially observable MDPS[EB/OL].(2015-07-23)[2020-06-01].https://arxiv.org/abs/1507.06527.
[17] HESTER T, VECERIK M, PIETQUIN O, et al.Deep Q-learning from demonstrations[C]//National Conference on Artificial Intelligence, 2018: 3223-3230.
[18] 魏瑞轩, 张启瑞, 许卓凡. 类脑发育无人机防碰撞控制[J]. 控制理论与应用, 2019, 36(2): 13-20.
WEI R X, ZHANG Q R, XU Z F. A brain-like mechanism for developmental UAVs' collision avoidance[J]. Control Theory & Applications, 2019, 36(2): 13-20. (in Chinese)
[19] MNIH V, KAVUKCUOGLU K, SILVER D, et al. Human-level control through deep reinforcement learning[J]. Nature, 2015, 518: 529-533. DOI:10.1038/nature14236
[20] MORDATCH I, ABBEEL P.Emergence of grounded compositional language in multi-agent populations[EB/OL].(2017-03-15)[2020-06-01].https://arxiv.org/abs/1703.04908.


相关话题/环境 奖励 信息 知识 控制

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19
  • 非线性移动路径跟踪及着舰控制应用*
    航母不仅是一个国家工业水平的象征,也是海军现代化的象征,航母战斗力集中体现在所装载的舰载机上。着舰控制问题是航母/舰载机领域的关键问题。由于舰载机着舰受到甲板长度及舰尾流等因素影响,使其难度远高于陆基飞机,早期只有在白天理想环境下才能实现安全有效着舰。针对美国海军在1964年间进行的25万次固定翼飞 ...
    本站小编 Free考研考试 2021-12-25
  • 考虑舵机时滞的阵风减缓主动控制律设计*
    阵风会改变飞机的有效迎角,引起升力的突然变化,从而产生涉及刚性运动和弹性变形的阵风响应[1]。阵风响应会降低飞机的飞行品质,而其所产生的内载荷会影响飞机的疲劳寿命,甚至飞行安全[2]。对于近年来迅速发展的大展弦比柔性飞机而言,其大柔性、低翼载的特点使得阵风响应的影响尤为严重[3]。而阵风减缓主动控制 ...
    本站小编 Free考研考试 2021-12-25
  • 基于SADRC的四旋翼姿态解耦控制及稳定性分析*
    四旋翼具有可垂直起降、定点悬停、对起飞着陆场地要求低等优势,在民用和军事领域都有广阔的应用前景,近年来逐渐成为航空领域的研究热点之一[1]。目前,对于四旋翼的研究主要集中在四旋翼的位姿控制[2-3]、航迹规划[4]及编队、协同控制[5-7]等方面。良好的姿态控制系统是四旋翼实现各项功能的前提,而四旋 ...
    本站小编 Free考研考试 2021-12-25
  • 基于复合控制的磁悬浮CMG动框架效应抑制*
    控制力矩陀螺(ControlMomentGyroscope,CMG)是敏捷机动卫星、大型卫星平台、空间站等航天器进行姿态控制的重要执行机构[1-2],主要由高速转子系统和框架系统组成,通过框架转动强制高速转子改变角动量的方向从而输出力矩,进而调节航天器的姿态[3]。与机械轴承CMG相比,磁悬浮CMG ...
    本站小编 Free考研考试 2021-12-25
  • 电液负载敏感位置伺服系统自抗扰控制方法*
    电液伺服系统因具有功率密度大、响应速度快、控制精度高等特点,已被广泛应用于航空航天、兵器、船舶、机床、冶金等众多领域中。电液伺服系统从原理上可以分成2类:阀控系统和泵控系统。其中,阀控系统属于节流控制,响应速度较快,但是存在较大的压力损失和溢流损失,系统能效较低,发热严重[1-5];泵控系统属于容积 ...
    本站小编 Free考研考试 2021-12-25
  • 变时滞间隙非线性机翼颤振主动控制方法*
    颤振是气动弹性领域中最危险的一类动不稳定现象,会降低飞行器的性能,甚至导致灾难性的飞行事故。随着主动控制技术的发展,通过在机翼上布置多个控制面,采用控制器主动驱动其联合偏转,从而改变机翼控制气流的能力,进而主动调节结构气动弹性效应的颤振主动抑制技术成为当今国际上普遍采用的颤振解决方案[1]。在主动控 ...
    本站小编 Free考研考试 2021-12-25
  • 基于非线性干扰观测器的航天器相对姿轨耦合控制*
    随着航天技术的发展,以在轨操作为目的的非合作交会对接技术成为研究的热点。非合作交会对接的远程导引已经历成熟研究,而近距离逼近及抓捕过程因姿轨耦合及大量不确定因素存在的原因,使得工程实施过程中相对测量和相对姿轨耦合控制均存在一定的困难。这些不确定因素主要包括空间环境干扰及非空间环境干扰。其中,空间环境 ...
    本站小编 Free考研考试 2021-12-25
  • 基于速度观测的双余度电液舵机系统容错同步控制*
    现代飞机普遍使用余度电液舵机系统驱动飞机的关键舵面,如副翼、方向舵和升降舵。以并联、工作在主/主(Active/Active,A/A)模式下的双余度电液舵机系统(DualRedundantElectro-HydraulicActuatorSystem,DREHAS)为例,两通道舵机同时运动,其输出端 ...
    本站小编 Free考研考试 2021-12-25
  • 基于ADRC和RBF神经网络的MSCSG控制系统设计*
    磁悬浮控制敏感陀螺(MSCSG)是航天器进行姿态控制的一种新型惯性器件[1],与现有的单一功能的磁悬浮控制力矩陀螺[2-3]或磁悬浮速率陀螺不同,MSCSG具有同时控制与同时敏感的突出优势,且具有高精度的巨大潜力,但是要实现MSCSG的高精度控制面临着如下困难与挑战。影响MSCSG实现高精度、高带宽 ...
    本站小编 Free考研考试 2021-12-25
  • 复杂威胁环境下无人机实时航线规划逻辑架构*
    为有效实现无人机(UAV)自主飞行,其核心支撑之一就是实时航线规划[1]。未来作战中,战场态势瞬息万变、信息对抗激烈[2],对于高度依赖测控链路的无人机来说,实时航线规划是一个巨大挑战。美国空军在“技术视野”研究报告中指出[3],提高无人机系统自主性作为“唯一最重要的课题”。自主性作为当下智能化无人 ...
    本站小编 Free考研考试 2021-12-25