全文获取类型
收费全文 | 527篇 |
免费 | 88篇 |
国内免费 | 59篇 |
专业分类
航空 | 459篇 |
航天技术 | 60篇 |
综合类 | 51篇 |
航天 | 104篇 |
出版年
2024年 | 7篇 |
2023年 | 55篇 |
2022年 | 45篇 |
2021年 | 63篇 |
2020年 | 34篇 |
2019年 | 29篇 |
2018年 | 11篇 |
2017年 | 19篇 |
2016年 | 24篇 |
2015年 | 10篇 |
2014年 | 11篇 |
2013年 | 16篇 |
2012年 | 20篇 |
2011年 | 30篇 |
2010年 | 23篇 |
2009年 | 23篇 |
2008年 | 25篇 |
2007年 | 30篇 |
2006年 | 15篇 |
2005年 | 19篇 |
2004年 | 11篇 |
2003年 | 10篇 |
2002年 | 13篇 |
2001年 | 20篇 |
2000年 | 9篇 |
1999年 | 6篇 |
1998年 | 12篇 |
1997年 | 12篇 |
1996年 | 10篇 |
1995年 | 10篇 |
1994年 | 11篇 |
1993年 | 6篇 |
1992年 | 8篇 |
1991年 | 8篇 |
1990年 | 6篇 |
1989年 | 12篇 |
1987年 | 1篇 |
排序方式: 共有674条查询结果,搜索用时 15 毫秒
652.
针对大气层内高速机动目标的拦截问题,提出了一种基于双延迟深度确定性策略梯度(TD3)算法的深度强化学习制导律,它直接将交战状态信息映射为拦截弹的指令加速度,是一种端到端、无模型的制导策略。首先,将攻防双方的交战运动学模型描述为适用于深度强化学习算法的马尔科夫决策过程,之后通过合理地设计算法训练所需的交战场景、动作空间、状态空间和网络结构,并引入奖励函数整形和状态随机初始化,构建了完整的深度强化学习制导算法。仿真结果表明:与比例导引和增强比例导引两种方案相比,深度强化学习制导策略在脱靶量更小的同时能够降低对中制导精度的要求;具有良好的鲁棒性和泛化能力,并且计算负担较小,具备在弹载计算机上运行的条件。 相似文献
653.
为探究TC17钛合金超声喷丸强化均匀性量化表征方式,分析了0.2A喷丸强度下超声喷丸与传统喷丸对TC17钛合金表面与截面形貌分布状态的影响,结果表明,传统喷丸弹丸冲击方向离散度较小,法向冲击较多,引起凹坑深度及凸起程度较高,出现堆叠、孔隙等特征,表面粗糙度较高。超声喷丸试样受离散冲击引起的切应力影响,表面形貌相对平坦,截面近表层区域晶粒尺寸呈梯度分布明显,表面与截面变形一致性程度高 相似文献
654.
655.
针对临近空间高超声速飞行器的高速性、机动性等特性,为提高制导算法针对不同初始状态、不同机动性目标的准确性、鲁棒性及智能性,提出一种基于信赖域策略优化(TRPO)算法的深度强化学习制导算法。基于TRPO算法的制导算法由2个策略(动作)网络、1个评价网络共同组成,将临近空间目标与拦截弹相对运动系统状态以端对端的方式直接映射为制导指令。在算法训练过程中合理选取连续动作空间、状态空间、并通过权衡能量消耗、相对距离等因素构建奖励函数加快其收敛速度,最终依据训练的智能体模型针对不同任务场景进行拦截测试。仿真结果表明:与传统比例导引律(PN)及改进比例导引律(IPN)相比,本文算法针对学习场景及未知场景均具有更小的脱靶量、更稳定的拦截效果、鲁棒性,并能够在多种配置计算机上广泛应用。 相似文献
656.
双侧滚压工艺是航空结构件生产过程中常采用的校正方式,然而由于滚压校正过程中工件原有应力场与滚压应力场的耦合作用等材料内部物理力学性能变化机制不明确,限制了滚压校正工艺稳定性的提升。为此建立了无初始应力、仅毛坯应力、毛坯应力与加工应力耦合3种初始应力状态下的7050-T7451铝合金T型件双侧滚压有限元模型,获得了工件的滚压变形及残余应力分布规律。结果显示3种初始应力状态下滚压导致的工件最大弯曲变形量分别为2.56×10-1、2.76×10-1、2.49×10-1 mm。毛坯应力对滚压变形的影响程度约为7.8%,在此基础上加工应力的影响约为9.8%,且毛坯应力与加工应力的作用方向相反。滚压区域残余应力主要集中在滚压方向和垂直滚压方向,在工件表面均为压应力,在次表面达最大值。初始应力会导致工件沿滚压方向全厚度范围内的应力值增大;而在垂直滚压方向,初始应力主要造成表面应力的改变。对滚压过程中的应变-应力场演变过程进行了分析,揭示了毛坯应力与加工应力对滚压作用的影响机制。研究成果对于进一步提高滚压校正精度具有重要意义。 相似文献
657.
针对空海联合作战中多装备复杂作战场景不确定性高的难点,提出了一种基于深度强化学习的空海联合作战智能决策新方法。为了统一表示复杂网络的输入、输出及其对应关系,提出了综合利用感知机、深度长短时记忆网络及actor-critic结构的方法。针对策略网络学习过程中的不稳定性及近似策略优化算法的缺陷,提出了改进的近似策略优化算法;针对策略网络自学习过程中对手策略的易变性,提出了基于模型性能和模型多样性的新策略以对于基线策略模型进行选择。实验结果表明,该方法在空海联合作战决策中是有效和稳定的。在第四届中国指控学会兵棋推演专项赛中,本方法在百余轮与规则决策算法及人类的对抗中胜率达到97%,较规则决策算法提升20%左右。 相似文献
658.
660.
将深度强化学习方法应用于水洞实验,实现了实验室内的自动闭环优化框架,并用该框架优化了雷诺数Re=1.3×104下纯俯仰运动的NACA0012翼型模型的推进效率。现有的相关研究往往将运动模式限制为某种周期性函数,具有局限性。借助于强化学习方法,实现了在更广的非周期动作空间中的动作搜索。在实验中,模型自动地与水洞环境进行交互,最终学习到了高效推进的非周期运动策略。另外,通过修改奖励函数,实现了在给定推力阈值以上的效率优化。研究结果显示,强化学习模型可以在实验过程中通过不断调整拍动动作的幅度和频率来实现推进效率的持续提升,并且最终通过强化学习方法获得的最优拍动动作均与正弦拍动动作接近,得到的最优推进效率基本位于同等幅度正弦动作效率的上边界。研究展示了强化学习方法用于复杂流动控制问题的可行性。 相似文献