共查询到18条相似文献,搜索用时 109 毫秒
1.
2.
3.
基于改进蚁群算法的无人机航路规划 总被引:2,自引:0,他引:2
为了提高无人机(UAV)的作战效率和生存概率,在执行任务之前必须设计出高效的无人机飞行航路.针对这一问题,采用了蚁群算法进行航路规划,并对蚁群算法进行了改进.提出了保留最优解、自适应状态转换规则和自适应信息激素更新规则,有效的提高了算法算收敛速度和解的性能.最后用改进的蚁群算法对无人机任务航路进行了仿真,仿真结果表明,该算法是一种有效的航路优化算法. 相似文献
4.
5.
基于多基因遗传算法的异构多无人机协同任务分配 总被引:1,自引:0,他引:1
以异构多无人机对多目标执行侦查、攻击和评估任务为背景,开展协同任务分配问题建模、算法设计和仿真分析。综合考虑异构无人机任务执行能力、任务执行时序和自身运动学等约束,同时考虑各无人机机载弹药毁伤概率因素,建立以任务执行时间和攻击收益为综合性能指标的任务分配优化模型,提出避免产生"死锁"现象的基于多类型基因编码的改进遗传算法,实现对协同任务分配问题的求解。基于任务分配方案和无人机的最小转弯半径,采用Dubins路径协调方法,生成无人机的可飞航迹。仿真结果表明,改进遗传算法可快速有效地求解多约束条件下异构多无人机协同任务分配问题,基于Dubins路径协调可为每个无人机生成完整的可飞航迹。 相似文献
6.
7.
利用空天资源的互补优势进行协同观测是对地观测领域的新趋势.为提高对地观测效益和多阶段观测任务的完成度,分析了空天资源协同观测任务规划问题中的观测资源异构性和多阶段观测任务分解方式的多样性.针对卫星和无人机的任务规划模型不一致的特点,建立了异构多智能体系统(MAS)多阶段协同任务规划模型,根据模型特点将问题求解分解为两个协商过程,并分别提出了基于市场模型的异构MAS多阶段协同任务规划算法和基于自适应“超级步”的资源Agent协同任务规划算法.最后,研究了该方法在空天资源联合观测中的应用情况,实验及分析结果表明该方法能够有效解决空天资源对地观测协同任务规划问题. 相似文献
8.
针对多无人机协同交互过程中存在的通信时滞问题,提出基于记忆-融合的多无人机分散式协同导航算法。在无人机惯性和全球卫星导航系统(GNSS)紧组合导航框架基础上,建立含时滞影响的系统状态向量,并对系统状态误差及其方差进行推导,进一步构建关于各无人机状态的最优估计模型,并基于状态误差方差最小准则对状态进行最优估计。建立了基于机间相对测量的多无人机分散式协同导航算法,提出了基于记忆融合模式的时滞处理方法。在GNSS可获取及拒止环境下进行多无人机协同导航仿真与实验测试,结果表明,所提出的基于记忆-融合的分散式协同导航算法能有效补偿通信时滞造成的精度损失,有效提高定位精度。 相似文献
9.
为提高无人机任务环境模拟的真实性,利用改进后的Voronoi图对任务环境进行建模。同时,为了更快地生成一条满足任务需求的最优飞行航迹,提高航迹规划的实战性和高效性,分析了蚁群航迹规划算法的运行原理,以及算法运行机制对算法性能的影响,提出了算法的改进原则,并在此基础上给出了新的信息素更新方式和新的启发式。利用改进后的蚁群算法,在改进型Voronoi图上进行了无人机航迹规划。计算机仿真结果表明,改进后的蚁群航迹规划算法与传统的蚁群航迹规划算法相比,运行时间更短,收敛速度更快,且得到最优航迹的概率更高,验证了算法改进原则的有效性。 相似文献
10.
为了研究通信约束对多无人机(UAV)协同搜索中目标分配任务的影响,提出了一种带通信约束的多无人机协同搜索中的目标分配方法,研究在通信约束条件下多无人机在协同搜索中如何进行目标分配。首先,基于无人机数学模型和搜索模型,建立了目标分配模型。其次,分析了通信约束条件,如通信距离限制、通信角度限制和通信时间延迟等对目标分配的影响,限定多无人机在通信距离和角度范围内才能通信,使用蒙特卡罗法来验证通信距离和角度对目标分配的影响,同时采用基于状态估计的无人机状态信息补偿方法来消除通信延迟的影响。仿真验证了带通信约束的多无人机协同搜索中的目标分配方法的合理性。 相似文献
11.
12.
基于遗传算法的无人机协同侦察航路规划 总被引:7,自引:0,他引:7
无人机将成为侦察卫星、有人驾驶侦察机的重要补充与增强手段 ,成为未来战场上广泛应用的一种侦察工具。为了提高无人机 (UAV)的侦察效率 ,在执行侦察任务前必需规划设计出高效的无人机侦察飞行航路。针对这一问题 ,本文提出了一种侦察效率指标评估的计算方法 ,解决了航路规划中的侦察效率量化问题。考虑在大范围任务区域内进行侦察航路优化存在计算的复杂性和收敛性等问题 ,本文采用遗传算法对侦察航路进行了优化处理。通过该方法得到的侦察航路可以有效地提高无人机的侦察效率。 相似文献
13.
有人机/无人机协同任务控制系统 总被引:4,自引:0,他引:4
针对有人机/无人机协同任务控制系统的设计和实现问题展开研究。结合有人机/无人机协同控制过程的特点,提出了基于自然语言接口方式的有人机/无人机协同任务控制系统结构。在此基础上,分析了系统模块的关键内容,设计了面向有人机与无人机交互过程的任务指令格式,提出了基于优先级的任务模式调度策略,针对无人机的典型任务模式,讨论了航路规划的计算方法选择,最后构建了有人机/无人机协同任务仿真环境。仿真试验结果验证了整体方法的可行性。 相似文献
14.
基于复杂网络的无人机飞行冲突解脱算法 总被引:1,自引:0,他引:1
为解决局部空域内的无人机(UAV)群相撞和可能发生连锁碰撞问题,创新地以复杂网络理论为基础,将无人机群的飞行冲突解脱分为关键节点选择和避撞方向选择2个步骤实施,最大限度地保证无人机群受威胁时的安全性。通过分析无人机群的状态信息,选择最重要无人机(关键节点)进行避撞,同时遵循鲁棒性最小原则进行避撞方向选择。通过2个典型无人机飞行案例的仿真实验,验证该策略不仅可以有效解决当前无人机的冲突问题,而且可以防止连锁碰撞,实现整体的最优化。大量仿真实验验证了所提算法的可行性和可扩展性,以及与随机选择方向避撞算法进行比较,结果表明该算法能够提升无人机群的安全性。 相似文献
15.
针对异构多无人机协同执行侦察和打击任务中,存在通信距离、时间延迟等约束条件下的局部任务分配问题,提出了一种基于合同网的分布式多无人机任务分配方法。首先建立了异构集群发现新目标时的局部任务分配问题模型,设计了局部无人机通信网络中的信息一致性算法,实现了任务分配过程中任务发布阶段各无人机的冲突消解。设计了任务分配过程中的联盟构建和无人机资源管理方法,使联盟中各无人机能够以更加平衡的方式消耗资源。仿真结果表明,该方法能够解决通信约束下,异构多无人机执行察打任务时,所触发的针对目标打击任务的任务分配问题,且能够获得最大的系统效能。 相似文献
16.
A multi-agent based intelligent configuration method for aircraft fleet maintenance personnel 总被引:1,自引:0,他引:1
A multi-agent based fleet maintenance personnel configuration method is proposed to solve the mission oriented aircraft fleet maintenance personnel configuration problem. The mainte- nance process of an aircraft fleet is analyzed first. In the process each aircraft contains multiple parts, and different parts are repaired by personnel with different majors and levels. The factors and their relationship involved in the process of maintenance are analyzed and discussed. Then the whole maintenance process is described as a 3-layer multi-agent system (MAS) model. A com- munication and reasoning strategy among the agents is put forward. A fleet maintenance personnel configuration algorithm is proposed based on contract net protocol (CNP). Finally, a fleet of 10 aircraft is studied for verification purposes. A mission type with 3 waves of continuous dispatch is imaged. Compared with the traditional methods that can just provide configuration results, the proposed method can provide optimal maintenance strategies as well. 相似文献
17.
《中国航空学报》2021,34(12):187-204
Unmanned Aerial Vehicles (UAVs) play a vital role in military warfare. In a variety of battlefield mission scenarios, UAVs are required to safely fly to designated locations without human intervention. Therefore, finding a suitable method to solve the UAV Autonomous Motion Planning (AMP) problem can improve the success rate of UAV missions to a certain extent. In recent years, many studies have used Deep Reinforcement Learning (DRL) methods to address the AMP problem and have achieved good results. From the perspective of sampling, this paper designs a sampling method with double-screening, combines it with the Deep Deterministic Policy Gradient (DDPG) algorithm, and proposes the Relevant Experience Learning-DDPG (REL-DDPG) algorithm. The REL-DDPG algorithm uses a Prioritized Experience Replay (PER) mechanism to break the correlation of continuous experiences in the experience pool, finds the experiences most similar to the current state to learn according to the theory in human education, and expands the influence of the learning process on action selection at the current state. All experiments are applied in a complex unknown simulation environment constructed based on the parameters of a real UAV. The training experiments show that REL-DDPG improves the convergence speed and the convergence result compared to the state-of-the-art DDPG algorithm, while the testing experiments show the applicability of the algorithm and investigate the performance under different parameter conditions. 相似文献