全文获取类型
收费全文 | 988篇 |
免费 | 266篇 |
国内免费 | 107篇 |
专业分类
航空 | 900篇 |
航天技术 | 146篇 |
综合类 | 113篇 |
航天 | 202篇 |
出版年
2024年 | 17篇 |
2023年 | 85篇 |
2022年 | 72篇 |
2021年 | 92篇 |
2020年 | 55篇 |
2019年 | 64篇 |
2018年 | 29篇 |
2017年 | 39篇 |
2016年 | 50篇 |
2015年 | 32篇 |
2014年 | 40篇 |
2013年 | 37篇 |
2012年 | 48篇 |
2011年 | 61篇 |
2010年 | 56篇 |
2009年 | 55篇 |
2008年 | 54篇 |
2007年 | 43篇 |
2006年 | 43篇 |
2005年 | 38篇 |
2004年 | 34篇 |
2003年 | 27篇 |
2002年 | 31篇 |
2001年 | 30篇 |
2000年 | 19篇 |
1999年 | 19篇 |
1998年 | 24篇 |
1997年 | 24篇 |
1996年 | 22篇 |
1995年 | 27篇 |
1994年 | 20篇 |
1993年 | 10篇 |
1992年 | 17篇 |
1991年 | 10篇 |
1990年 | 14篇 |
1989年 | 12篇 |
1988年 | 5篇 |
1987年 | 2篇 |
1985年 | 1篇 |
1984年 | 2篇 |
1982年 | 1篇 |
排序方式: 共有1361条查询结果,搜索用时 15 毫秒
161.
162.
163.
为探索环境温度变化条件下固体火箭发动机药柱温度场的一种简单而有效的技术途径,利用有限元传热分析法,对某固体火箭发动机在温度循环条件下的燃烧室药柱温度场进行了研究。针对不同的药柱结构分别建立了二维和三维传热模型,通过对比计算值与试验测试值可知,与三维模型相比,二维传热计算方法可提高药柱温度场的计算效率,且计算结果与试验测试值吻合度较高,可满足试验预测要求。因此在工程分析中,为快速得到有效的分析结果,可采用二维传热模型分析发动机药柱温度场,其中二维无翼槽模型适于模拟药柱远离翼槽部位的温度场,二维有翼槽模型适于模拟药柱翼槽部位的温度场。 相似文献
164.
稀土元素作为重要的镁合金强化相元素,其多元添加产生的影响并未得到充分研究。在Mg-Sc二元系的基础上将Y作为第三元加入,制备了Mg-5Sc二元合金及Mg-5Sc-0.5Y,Mg-5Sc-1Y,Mg-5Sc-2Y,Mg-5Sc-3Y,Mg-5Sc-3.5Y(质量分数,%)5种三元合金,并通过光学显微镜(OM)、扫描电子显微镜(SEM)、X射线衍射(XRD)及室温拉伸等试验,研究了Y元素的加入对Mg-Sc二元合金微观组织和力学性能的影响。结果表明:Y元素在合金中的主要存在形式为固溶态,富集于晶界处。随着Y元素含量的提升,合金晶粒度显著减小,屈服强度和硬度大幅提升,Mg-5Sc-3.5Y的屈服强度相比Mg-5Sc提升了约50%。该强度的提升主要是由细晶强化和固溶强化引起的。 相似文献
165.
针对再入飞行器姿态控制问题,应用自适应动态规划(ADP)理论设计了姿态控制器。将再入飞行器的姿态控制建模为非线性系统的最优控制问题,提出单网络积分型强化学习(SNIRL)算法进行求解,该算法简化了积分型强化学习(IRL)算法在迭代计算中的执行-评价双网络结构,只需要采用评价网络估计值函数就可以求得最优控制律,其收敛性得到了理论证明。基于SNIRL算法设计了自适应最优控制器,并证明了闭环系统的稳定性。通过数值仿真校验了SNIRL算法比IRL算法计算效率更高,收敛速度更快,并校验了自适应最优姿态控制器的有效性 。 相似文献
166.
167.
168.
针对具有复杂围护结构光学窗口传热特性,建立了高热流作用下的光学窗口及其复杂围护结构的辐射-导热传热模型,分别讨论了窗口的辐射半透明、光谱选择性、外部加热热流以及窗口尺寸对其瞬态温度响应的影响。结果表明,忽略窗口半透明特征会产生最大31.4%误差,忽略光谱选择性会产生最大40.4%误差;窗口外部气动加热热流影响显著,温度响应随热流的增大而急剧增大;窗口厚度对其传热特性的影响较大,随着厚度的增大窗口温度响应减小;而窗口半径产生的影响可忽略不计。 相似文献
169.
170.
针对航天器轨道追逃博弈问题,提出一种多阶段学习训练赋能方法,使得追踪星在终端时刻抵近逃逸星的特定区域,而逃逸星需要通过轨道机动规避追踪星。首先,构建两星的训练策略集,基于逻辑规则设计追踪星和逃逸星的机动策略,通过实时预测对方的终端位置,设计己方的期望位置和脉冲策略,显式给出追逃策略的解析表达式,用于训练赋能;其次,为提升航天器的训练赋能效率及应对未知环境的博弈能力,提出一种基于强化学习技术多模式、分阶段的学习训练方法,先使追踪星和逃逸星分别应对上述逻辑规则引导下的逃逸星和追踪星,完成预训练;再次,开展二次训练,两星都采用邻近策略优化(PPO)策略进行追逃博弈,在博弈中不断调整网络权值,提升决策能力;最后,在仿真环境中验证提出的训练方法的有效性,经过二次训练后,追踪星和逃逸星可有效应对不同策略驱动下的对手,提升追逃成功率。 相似文献