全文获取类型
收费全文 | 981篇 |
免费 | 172篇 |
国内免费 | 93篇 |
专业分类
航空 | 896篇 |
航天技术 | 100篇 |
综合类 | 81篇 |
航天 | 169篇 |
出版年
2024年 | 12篇 |
2023年 | 70篇 |
2022年 | 69篇 |
2021年 | 78篇 |
2020年 | 47篇 |
2019年 | 50篇 |
2018年 | 20篇 |
2017年 | 39篇 |
2016年 | 37篇 |
2015年 | 20篇 |
2014年 | 46篇 |
2013年 | 39篇 |
2012年 | 61篇 |
2011年 | 68篇 |
2010年 | 56篇 |
2009年 | 58篇 |
2008年 | 49篇 |
2007年 | 65篇 |
2006年 | 28篇 |
2005年 | 32篇 |
2004年 | 31篇 |
2003年 | 22篇 |
2002年 | 30篇 |
2001年 | 30篇 |
2000年 | 20篇 |
1999年 | 12篇 |
1998年 | 18篇 |
1997年 | 23篇 |
1996年 | 18篇 |
1995年 | 10篇 |
1994年 | 15篇 |
1993年 | 14篇 |
1992年 | 16篇 |
1991年 | 10篇 |
1990年 | 11篇 |
1989年 | 14篇 |
1988年 | 3篇 |
1987年 | 4篇 |
1985年 | 1篇 |
排序方式: 共有1246条查询结果,搜索用时 15 毫秒
131.
脉冲爆震燃烧室管壁冲击冷却效果的数值研究 总被引:2,自引:2,他引:2
根据实验测量的脉冲爆震燃烧室壁温沿程分布,推算出符合脉冲爆震燃烧室特定频率下的准稳态热流阶梯分布;在此基础上,针对叉排阵列射流冲击冷却的脉冲爆震燃烧室壁面温度分布进行了数值计算.研究表明,由于冷却气流通道端壁效应的影响,靠近爆震燃烧室尾部的射流孔的冲击射流速度较大,热流最大的燃烧室尾部管壁的温度可以得到有效的降低,而燃烧室中部的射流由于受到前排射流形成的横流影响,对管壁的冲击冷却效果较弱,使得壁面温度的峰值向中部转移.在相同的环形冷却通道进口雷诺数下,阵列射流孔宜布置在脉冲爆震燃烧室中部,射流冲击间距比Zn/d=1.5时,管壁的峰值温度最低而且整体的平均温度最小,较小的冲击孔直径对应的冲击冷却效果较好. 相似文献
132.
133.
134.
135.
飞机部件修理人员是从事飞机部、附件修理的专业技术人员,在提高部件的修理质量,降低维修成本乃至提高维修企业的核心竞争力方面具有重要的地位和作用。本文首先就部件修理人员的职业现状进行了分析,并重点对部件修理人员的管理方法和激励措施提出了自己的建议,以促进对其管理水平的提高。 相似文献
136.
稀土元素作为重要的镁合金强化相元素,其多元添加产生的影响并未得到充分研究。在Mg-Sc二元系的基础上将Y作为第三元加入,制备了Mg-5Sc二元合金及Mg-5Sc-0.5Y,Mg-5Sc-1Y,Mg-5Sc-2Y,Mg-5Sc-3Y,Mg-5Sc-3.5Y(质量分数,%)5种三元合金,并通过光学显微镜(OM)、扫描电子显微镜(SEM)、X射线衍射(XRD)及室温拉伸等试验,研究了Y元素的加入对Mg-Sc二元合金微观组织和力学性能的影响。结果表明:Y元素在合金中的主要存在形式为固溶态,富集于晶界处。随着Y元素含量的提升,合金晶粒度显著减小,屈服强度和硬度大幅提升,Mg-5Sc-3.5Y的屈服强度相比Mg-5Sc提升了约50%。该强度的提升主要是由细晶强化和固溶强化引起的。 相似文献
137.
针对再入飞行器姿态控制问题,应用自适应动态规划(ADP)理论设计了姿态控制器。将再入飞行器的姿态控制建模为非线性系统的最优控制问题,提出单网络积分型强化学习(SNIRL)算法进行求解,该算法简化了积分型强化学习(IRL)算法在迭代计算中的执行-评价双网络结构,只需要采用评价网络估计值函数就可以求得最优控制律,其收敛性得到了理论证明。基于SNIRL算法设计了自适应最优控制器,并证明了闭环系统的稳定性。通过数值仿真校验了SNIRL算法比IRL算法计算效率更高,收敛速度更快,并校验了自适应最优姿态控制器的有效性 。 相似文献
138.
139.
140.
针对航天器轨道追逃博弈问题,提出一种多阶段学习训练赋能方法,使得追踪星在终端时刻抵近逃逸星的特定区域,而逃逸星需要通过轨道机动规避追踪星。首先,构建两星的训练策略集,基于逻辑规则设计追踪星和逃逸星的机动策略,通过实时预测对方的终端位置,设计己方的期望位置和脉冲策略,显式给出追逃策略的解析表达式,用于训练赋能;其次,为提升航天器的训练赋能效率及应对未知环境的博弈能力,提出一种基于强化学习技术多模式、分阶段的学习训练方法,先使追踪星和逃逸星分别应对上述逻辑规则引导下的逃逸星和追踪星,完成预训练;再次,开展二次训练,两星都采用邻近策略优化(PPO)策略进行追逃博弈,在博弈中不断调整网络权值,提升决策能力;最后,在仿真环境中验证提出的训练方法的有效性,经过二次训练后,追踪星和逃逸星可有效应对不同策略驱动下的对手,提升追逃成功率。 相似文献