首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   46篇
  免费   34篇
  国内免费   18篇
航空   52篇
航天技术   14篇
综合类   9篇
航天   23篇
  2024年   2篇
  2023年   10篇
  2022年   16篇
  2021年   20篇
  2020年   10篇
  2019年   3篇
  2018年   4篇
  2017年   3篇
  2016年   1篇
  2015年   2篇
  2013年   3篇
  2012年   2篇
  2011年   1篇
  2010年   1篇
  2009年   2篇
  2008年   2篇
  2007年   2篇
  2006年   3篇
  2005年   2篇
  2004年   5篇
  2003年   1篇
  2002年   2篇
  1997年   1篇
排序方式: 共有98条查询结果,搜索用时 31 毫秒
81.
短纤维补强硅橡胶包覆材料研究   总被引:4,自引:1,他引:4  
介绍了短纤维对橡胶补强的特性和机理。研究了四种纤维对用作火箭推进剂包覆材料的室温硫化(RTV)硅橡胶力学性能的影响,分别考查了不同长度的碳纤维和不同添加量的高硅氧玻璃纤维补强后硅橡胶作用效果。  相似文献   
82.
非对称机动能力多无人机智能协同攻防对抗   总被引:1,自引:0,他引:1  
陈灿  莫雳  郑多  程子恒  林德福 《航空学报》2020,41(12):324152-324152
协同攻防对抗是未来军用无人机的重要作战场景。针对不同机动能力无人机群体间的攻防对抗问题,建立了多无人机协同攻防演化模型,基于多智能体强化学习理论,研究了多无人机协同攻防的自主决策方法,提出了基于执行-评判(Actor-Critic)算法的集中式评判和分布式执行的算法结构,保证算法稳定收敛的同时,提升执行效率。无人机的评判模块使用全局信息评价决策优劣引导策略学习,而执行时只需要依赖局部感知信息进行自主决策,提高了多机攻防对抗的效能。仿真结果表明,所提的多无人机强化学习方法具备较强的自进化属性,赋予了无人机一定智能,即稳定的自主学习能力,通过不断演化,能自主学习提升协同对抗的决策效能。  相似文献   
83.
未来智能空战发展综述   总被引:1,自引:0,他引:1  
孙智孝  杨晟琦  朴海音  白成超  葛俊 《航空学报》2021,42(8):525799-525799
随着装备战斗力生成模式逐渐向机械化、信息化、智能化"三化融合"发展演变,未来航空主战装备的定位、形态及运用将可能发生根本性变革。为应对新时期空战任务所面临的环境高复杂性、博弈强对抗性、响应高实时性、信息不完整性、边界不确定性等一系列挑战,交叉融合人工智能理论与空战对抗技术,研发智能空战系统,将有望在下一代无人制空装备谱系中构建不对称"智能代差",成为制胜未来空天战场的核心关键。本文完整梳理了智能空战研究的发展脉络,总结了以专家机动逻辑、自动规则生成、规则演进、机器学习等方法为代表的智能空战基础理论。从体系、应用及技术视角全面剖析了智能空战的发展趋势,以智能空战的不确定性、安全性、解释性、迁移性、协同性为切入点阐述了智能空战应用落地的若干问题,以期为未来智能空战技术研究勾勒出一条新的探索路径,为人工智能理论与航空科学技术的跨领域交叉融合提供新的发展思路。  相似文献   
84.
空间机械结构趋向大型化、复杂化、柔性化特点,容易导致残余振动,且残余振动频率低,振动时间长.针对多柔性梁耦合结构残余振动问题,通过有限元法建立了动力学模型,分析了振动特性,呈现密频特性,拍频特征.对于残余振动问题,结合模糊强化学习控制算法,构建模糊规则表,使用ε-贪婪法选择每条规则中的动作,进而生成最终的控制电压,与环...  相似文献   
85.
《中国航空学报》2023,36(5):377-391
As an advanced combat weapon, Unmanned Aerial Vehicles (UAVs) have been widely used in military wars. In this paper, we formulated the Autonomous Navigation Control (ANC) problem of UAVs as a Markov Decision Process (MDP) and proposed a novel Deep Reinforcement Learning (DRL) method to allow UAVs to perform dynamic target tracking tasks in large-scale unknown environments. To solve the problem of limited training experience, the proposed Imaginary Filtered Hindsight Experience Replay (IFHER) generates successful episodes by reasonably imagining the target trajectory in the failed episode to augment the experiences. The well-designed goal, episode, and quality filtering strategies ensure that only high-quality augmented experiences can be stored, while the sampling filtering strategy of IFHER ensures that these stored augmented experiences can be fully learned according to their high priorities. By training in a complex environment constructed based on the parameters of a real UAV, the proposed IFHER algorithm improves the convergence speed by 28.99% and the convergence result by 11.57% compared to the state-of-the-art Twin Delayed Deep Deterministic Policy Gradient (TD3) algorithm. The testing experiments carried out in environments with different complexities demonstrate the strong robustness and generalization ability of the IFHER agent. Moreover, the flight trajectory of the IFHER agent shows the superiority of the learned policy and the practical application value of the algorithm.  相似文献   
86.
无人机栖落机动飞行是一种无需跑道的降落方法,能够提升无人机在复杂环境下执行任务的适应能力。针对具有高非线性、多约束特性的无人机栖落机动过程,提出了一种基于模仿深度强化学习的控制策略设计方法。首先,建立了固定翼无人机栖落机动的纵向非线性动力学模型,并设计了无人机栖落机动的强化学习环境。其次,针对栖落机动状态动作空间大的特点,为了提高探索效率,通过模仿专家经验的方法对系统进行预训练。然后,以模仿学习得到的权重为基础,采用近端策略优化方法学习构建无人机栖落机动的神经网络控制器。最后,通过仿真验证了上述控制策略设计方法的有效性。  相似文献   
87.
针对无人机自主避障与目标追踪问题,以深度Q网络(DQN)算法为基础,提出一种多经验池深度Q网络(MP DQN)算法,使无人机避障与追踪的成功率和算法的收敛性得到优化。更进一步,赋予无人机环境感知能力,并在奖励函数中设计了方向奖惩函数,提升了无人机对环境的泛化能力以及算法的整体性能。仿真结果表明,相较于DQN和双重DQN(DDQN)算法,MP DQN算法具有更快的收敛速度、更短的追踪路径和更强的环境适应性。  相似文献   
88.
《中国航空学报》2022,35(12):321-335
An efficient hyper-elastic model that can reflect the primary mechanical behaviors of Carbon-Kevlar hybrid woven reinforcement was developed and implemented with VUMAT constitutive code for preforming simulation. The model parameters were accurately determined through the uniaxial and bias-extension tests. To calibrate the simulation code, preforming experiments of hybrid woven reinforcement over the hemisphere mold and tetrahedron mold were respectively conducted to validate the proposed hyper-elastic model. The comparison between the simulations and experiments shows that the model can not only accurately capture shear angle distribution and geometry shape after deformation, but also accurately predict the force–displacement curve and potential fiber tensile failure during the preforming process. This result indicates that the proposed model can be used to predict the preforming behavior of Carbon-Kevlar hybrid woven reinforcement, and simulate its manufacturing process of complicated geometry.  相似文献   
89.
颜鹏  郭继峰  白成超 《宇航学报》2022,43(8):1040-1051
针对现有方法难以预测出符合飞行移动目标不确定行为方式轨迹的问题,提出基于逆强化学习的飞行移动目标轨迹预测方法,通过学习目标行为偏好以及模拟目标行为决策过程的方式预测目标的移动轨迹。首先基于深度神经网络建立目标的行为决策模型与行为偏好模型,然后通过最大熵逆强化学习方法交替地学习模型参数。为了有效地学习目标的不确定行为特征,采用监督学习的方法学习出目标示例轨迹概率分布模型,用于指导目标行为偏好模型的训练以及初始化目标行为决策模型,同时通过对目标行为偏好模型进行预训练的方式提高其训练质量。仿真结果表明,提出的飞行移动目标轨迹预测方法可通过学习到的目标行为决策模型较为准确地模拟目标的行为方式,预测的目标轨迹分布与真实的目标轨迹分布在Kullback Leibler(KL)散度下的相似度可达0.24。  相似文献   
90.
四足机器人灵巧运动技能的生成一直受到机器人研究者们的广泛关注,其中空中翻滚运动既能展现四足机器人运动的灵活性又具有一定的实用价值.近年来,深度强化学习方法为四足机器人的灵巧运动提供了新的实现思路,利用该方法得到的闭环神经网络控制器具有适应性强、稳定性高等特点.本文在绝影Lite机器人上使用基于模仿专家经验的深度强化学习方法,实现了仿真环境中四足机器人的后空翻动作学习,并进一步证明了设计的后空翻闭环神经网络控制器相比于开环传统位置控制器具有适应性更高的特点.  相似文献   
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号