共查询到20条相似文献,搜索用时 93 毫秒
1.
针对临近空间高超声速飞行器的高速性、机动性等特性,为提高制导算法针对不同初始状态、不同机动性目标的准确性、鲁棒性及智能性,提出一种基于信赖域策略优化(TRPO)算法的深度强化学习制导算法。基于TRPO算法的制导算法由2个策略(动作)网络、1个评价网络共同组成,将临近空间目标与拦截弹相对运动系统状态以端对端的方式直接映射为制导指令。在算法训练过程中合理选取连续动作空间、状态空间、并通过权衡能量消耗、相对距离等因素构建奖励函数加快其收敛速度,最终依据训练的智能体模型针对不同任务场景进行拦截测试。仿真结果表明:与传统比例导引律(PN)及改进比例导引律(IPN)相比,本文算法针对学习场景及未知场景均具有更小的脱靶量、更稳定的拦截效果、鲁棒性,并能够在多种配置计算机上广泛应用。 相似文献
2.
根据可靠性理论和对导弹末制导雷达单元测试中“天线搜索周期”、“战斗指令记忆时间”项目的具体分析,提出了该两个项目的检查可以取消的观点,为反舰导弹末制导雷达单元测试项目的优化进行了初步探讨。 相似文献
3.
4.
针对高升阻比面对称飞行器末制导小空域、短航时条件下的大速域控制问题,提出一种分段导引策略的末制导轨迹设计方法。首先,提出一种分段导引策略,将末制导轨迹分为速度导引段和位置导引段,将多状态量的控制问题转化为分段协调控制问题;其次,速度导引段基于三次样条曲线模型解析规划飞行剖面,采用高度自适应的剖面校正方式实现高精度的速度控制;最后,位置导引段引入带速度修正的比例导引,在进行速度控制的同时满足落点、落角等约束。仿真结果表明,落点、落角控制较好,同时速度控制精度在速度控制量的2.5%以内,对再入点参数及飞行环境等扰动具有很好的适应性,具有较强的工程应用价值。 相似文献
5.
一种改进的末制导雷达目标捕捉概率解析算法 总被引:11,自引:3,他引:11
在对末制导雷达捕捉目标全过程分析的基础上,指出了末制导雷达目标捕捉概率的解析算法存在的问题,并针对存在的问题,提出了改进的方法,改进后的算法较原算法更合理. 相似文献
6.
基于FTA的末制导雷达故障诊断专家系统研究 总被引:1,自引:0,他引:1
以某型末制导雷达为例,阐述了基于 FTA 技术的故障诊断专家系统的重要应用。文中首先论述了末制导雷达故障诊断专家系统的构成;其次论述了知识库的组成、故障树和规则的概念、推理机的工作原理,最后论述了系统的自学习机制。 相似文献
7.
针对三维导弹-目标相对运动模型,结合反演控制、滑模控制和自适应技术,设计了一种新的自适应反演滑模末制导律。针对目标机动加速度上界难以获取的问题,将目标机动加速度视作模型的干扰,设计了一种自适应律对其进行在线估计,并将估计值补偿到制导律中。运用李亚普诺夫稳定性理论证明了系统的全局渐进稳定性和误差的收敛性。仿真结果证明了所设计的自适应反演滑模末制导律对机动目标的鲁棒性和有效性。 相似文献
8.
随着武器作战样式的变革,带约束条件下的末制导律研究受到了越来越广泛的关注。评述了近年来约束条件下的末制导律的研究新进展,对目前约束条件下的末制导律设计进行了详细的研究,分析了各种方法的优缺点。在此基础上,对比给出了多约束条件下的末制导律设计的难题以及可能解决的途径。 相似文献
9.
针对传统强化学习算法在生成空战机动策略时存在收敛效率低、专家经验利用不足的问题,研究了基于生成对抗-近端策略优化的策略生成算法。算法采用判别器-策略-价值(DAC)网络框架,在近端策略优化(PPO)算法基础上,利用专家数据和环境交互数据训练判别器网络,并反馈调节策略网络,实现了约束策略向专家策略方向优化,提高了算法收敛效率和专家经验利用率。仿真环境为基于 JSBSim开源平台的 F-16飞机空气动力学模型。仿真结高,PPO果表明,本文算法收敛效率高于算法,生成的策略模型具备较好的智能性。 相似文献
10.
11.
当前多智能体追逃博弈问题通常在二维平面下展开研究,且逃逸方智能体运动不受约束,同时传统方法在缺乏准确模型时存在设计控制策略困难的问题。针对三维空间中逃逸方智能体运动受约束的情况,提出了一种基于深度Q网络(DQN)的多智能体逃逸算法。该算法采用分布式学习的方法,逃逸方智能体通过对环境的探索学习得到满足期望的逃逸策略。为提高学习效率,根据任务的难易程度将智能体策略学习划分为两个阶段,并设计了相应的奖励函数引导智能体探索满足期望的逃逸策略。仿真结果表明,该算法所得逃逸策略效果稳定,并且具有泛化能力,在改变一定的初始位置条件后,逃逸方智能体也可成功逃逸。 相似文献
12.
This paper considers the guidance and control problem of a flight vehicle with side-window detection. In order to guarantee the target remaining in the seeker's sight of view, the line of sight and the attitude of the flight vehicle should be under some constraints caused by the side-window, which leads to coupling between the guidance and the attitude dynamics model. To deal with the side-window constraints and the coupling, a novel Integrated Guidance and Control (IGC) design approach is proposed. Firstly, the relative motion equations are derived in the body-Line of Sight (LOS) coordinate system. And the guidance and control problem of the flight vehicle is formulated into an IGC problem with state constraints. Then, based on the singular perturbation method, the IGC problem is decomposed into the control design of the quasi-steady-state subsystem and the boundary-layer subsystem which can be designed separately. Finally, the receding horizon control is applied to the control design for the two subsystems. Simulation results show the effectiveness of the proposed approach. 相似文献
13.
《中国航空学报》2023,36(5):377-391
As an advanced combat weapon, Unmanned Aerial Vehicles (UAVs) have been widely used in military wars. In this paper, we formulated the Autonomous Navigation Control (ANC) problem of UAVs as a Markov Decision Process (MDP) and proposed a novel Deep Reinforcement Learning (DRL) method to allow UAVs to perform dynamic target tracking tasks in large-scale unknown environments. To solve the problem of limited training experience, the proposed Imaginary Filtered Hindsight Experience Replay (IFHER) generates successful episodes by reasonably imagining the target trajectory in the failed episode to augment the experiences. The well-designed goal, episode, and quality filtering strategies ensure that only high-quality augmented experiences can be stored, while the sampling filtering strategy of IFHER ensures that these stored augmented experiences can be fully learned according to their high priorities. By training in a complex environment constructed based on the parameters of a real UAV, the proposed IFHER algorithm improves the convergence speed by 28.99% and the convergence result by 11.57% compared to the state-of-the-art Twin Delayed Deep Deterministic Policy Gradient (TD3) algorithm. The testing experiments carried out in environments with different complexities demonstrate the strong robustness and generalization ability of the IFHER agent. Moreover, the flight trajectory of the IFHER agent shows the superiority of the learned policy and the practical application value of the algorithm. 相似文献
14.
四足机器人灵巧运动技能的生成一直受到机器人研究者们的广泛关注,其中空中翻滚运动既能展现四足机器人运动的灵活性又具有一定的实用价值.近年来,深度强化学习方法为四足机器人的灵巧运动提供了新的实现思路,利用该方法得到的闭环神经网络控制器具有适应性强、稳定性高等特点.本文在绝影Lite机器人上使用基于模仿专家经验的深度强化学习方法,实现了仿真环境中四足机器人的后空翻动作学习,并进一步证明了设计的后空翻闭环神经网络控制器相比于开环传统位置控制器具有适应性更高的特点. 相似文献
15.
Multi-beam antenna and beam hopping technologies are an effective solution for scarce satellite frequency resources. One of the primary challenges accompanying with Multi-Beam Satellites(MBS) is an efficient Dynamic Resource Allocation(DRA) strategy. This paper presents a learning-based Hybrid-Action Deep Q-Network(HADQN) algorithm to address the sequential decision-making optimization problem in DRA. By using a parameterized hybrid action space,HADQN makes it possible to schedule the beam patte... 相似文献
16.
无人机栖落机动飞行是一种无需跑道的降落方法,能够提升无人机在复杂环境下执行任务的适应能力。针对具有高非线性、多约束特性的无人机栖落机动过程,提出了一种基于模仿深度强化学习的控制策略设计方法。首先,建立了固定翼无人机栖落机动的纵向非线性动力学模型,并设计了无人机栖落机动的强化学习环境。其次,针对栖落机动状态动作空间大的特点,为了提高探索效率,通过模仿专家经验的方法对系统进行预训练。然后,以模仿学习得到的权重为基础,采用近端策略优化方法学习构建无人机栖落机动的神经网络控制器。最后,通过仿真验证了上述控制策略设计方法的有效性。 相似文献
17.
随着人工智能技术的发展,智能航空发动机逐渐成为当今航空领域研究的热点。传统的航空发动机控制对发动机模型的依赖性过强,而基于发动机气热动力学公式的机理建模会引入较大的建模误差,给控制器设计带来困难。对此,提出一种基于强化学习的航空发动机控制虚拟自学习方法,首先利用航空发动机的试验数据通过LSTM 神经网络建立虚拟学习环境,然后采用深度强化学习TD3 算法,在虚拟环境中训练智能控制器,最后采用JT9D 发动机模型验证智能控制器的性能。结果表明:相比于传统PID 控制,智能控制器产生的超调量更小,调节时间更短。 相似文献
18.
主要研究了航空发动机在线优化问题。以非线性发动机部件级模型为优化对象,将信赖域滤子优化法应用于航空发动机在线优化问题,相比基本的信赖域方法,该算法由于采用非单调的滤子算法和松弛重置,兼顾了算法在目标函数值下降与可行性保持两方面的良好算法品质,通过必要的松弛重置避免了子问题的不可行性,滤子算法则保证了算法收敛到全局最小解。最后,基于Trust Region Filter算法,以某型涡扇发动机最小油耗寻优控制为应用仿真算例,验证了该算法在解决航空发动机在线优化问题时,相比基本的信赖域方法在提高优化效果方面的优越性。 相似文献
19.
20.
The terminal guidance problem for an unpowered lifting reentry vehicle against a sta- tionary target is considered. In addition to attacking the target with high accuracy, the vehicle is also expected to achieve a desired impact angle. In this paper, a sliding mode control (SMC)-based guidance law is developed to satisfy the terminal angle constraint. Firstly, a specific sliding mode function is designed, and the terminal requirements can be achieved by enforcing both the sliding mode function and its derivative to zero at the end of the flight. Then, a backstepping approach is used to ensure the finite-time reaching phase of the sliding mode and the analytic expression of the control effort can be obtained. The trajectories generated by this method only depend on the initial and terminal conditions of the terminal phase and the instantaneous states of the vehicle. In order to test the performance of the proposed guidance law in practical application, numerical simulations are carried out by taking all the aerodynamic parameters into consideration. The effec- tiveness of the proposed guidance law is verified by the simulation results in various scenarios. 相似文献