全文获取类型
收费全文 | 360篇 |
免费 | 31篇 |
国内免费 | 45篇 |
专业分类
航空 | 227篇 |
航天技术 | 64篇 |
综合类 | 47篇 |
航天 | 98篇 |
出版年
2024年 | 1篇 |
2023年 | 9篇 |
2022年 | 10篇 |
2021年 | 13篇 |
2020年 | 14篇 |
2019年 | 13篇 |
2018年 | 12篇 |
2017年 | 7篇 |
2016年 | 12篇 |
2015年 | 13篇 |
2014年 | 18篇 |
2013年 | 11篇 |
2012年 | 19篇 |
2011年 | 34篇 |
2010年 | 17篇 |
2009年 | 15篇 |
2008年 | 22篇 |
2007年 | 28篇 |
2006年 | 28篇 |
2005年 | 27篇 |
2004年 | 14篇 |
2003年 | 15篇 |
2002年 | 14篇 |
2001年 | 14篇 |
2000年 | 8篇 |
1999年 | 3篇 |
1998年 | 8篇 |
1996年 | 8篇 |
1995年 | 5篇 |
1994年 | 4篇 |
1993年 | 6篇 |
1992年 | 5篇 |
1991年 | 2篇 |
1990年 | 3篇 |
1989年 | 1篇 |
1988年 | 1篇 |
1987年 | 1篇 |
1982年 | 1篇 |
排序方式: 共有436条查询结果,搜索用时 15 毫秒
431.
为了探究小扰动作用对动力学系统不变量的影响,研究El-Nabulsi指数模型和El-Nabulsi幂律模型下非保守系统的近似Noether不变量。根据Hamilton原理,并以非标准Lagrange函数作为其作用量泛函,建立非保守系统的El-Nabulsi型动力学方程。在此基础上,依据泛函在无限小变换下的不变性,给出非保守系统在小扰动作用下的近似Noether不变量。当未受扰动时,则给出精确Noether不变量。证明了El-Nabulsi指数模型和El-Nabulsi幂律模型下非保守系统的近似Noether不变量定理。本文方法为研究非保守系统动力学提供了一个新的思路,算例亦显示结果之有效性。 相似文献
432.
对于包含激波、剪切层等复杂结构的流动问题,为了精确模拟剪切层等精细结构,且保证激波计算的稳定性,必须采用低耗散且强鲁棒的数值通量方法。传统的HLL近似Riemann求解器的耗散性较大,Roe、HLLEM和HLLC等近似Riemann求解器在计算某些含有强激波的物理问题时会出现非物理解,容易导致不稳定。针对这一问题,本文在Riemann求解器中通过合理设计反扩散矩阵,发展了一类具有自适应反扩散的新型Riemann求解器,并将其应用到高阶加权紧致格式,实现了高阶精度求解。通过典型数值算例验证了新型方法的计算精度和稳定性,结果表明本文提出的新型自适应反扩散Riemann求解器克服了传统Riemann求解器的缺陷,既能准确识别剪切层等精细结构,又能保证激波解的稳定性。 相似文献
433.
为了充分利用机场跑道富余长度,提高国产民机商载能力,在满足民航适航和运行规章要求的前提下,就起飞重量、起飞速度比与平衡起飞决断速度对起飞距离的影响分别进行了单参数敏感性分析。通过仿真计算建立了实施组合参数敏感性分析的ARJ21-700飞机网格工具图,并进一步建立了不平衡起飞场长限重增量速查表,最后结合ARJ21-700飞机的实际运行环境对典型高原机场进行实例分析,比较了不同可用距离差异下使用不平衡起飞方法对场长限重和起飞速度比的影响。结果表明:实施不平衡起飞能够在满足规章要求的前提下有效利用跑道富余长度,增加商载能力,提升航空公司经济效益。 相似文献
434.
435.
针对空海联合作战中多装备复杂作战场景不确定性高的难点,提出了一种基于深度强化学习的空海联合作战智能决策新方法。为了统一表示复杂网络的输入、输出及其对应关系,提出了综合利用感知机、深度长短时记忆网络及actor-critic结构的方法。针对策略网络学习过程中的不稳定性及近似策略优化算法的缺陷,提出了改进的近似策略优化算法;针对策略网络自学习过程中对手策略的易变性,提出了基于模型性能和模型多样性的新策略以对于基线策略模型进行选择。实验结果表明,该方法在空海联合作战决策中是有效和稳定的。在第四届中国指控学会兵棋推演专项赛中,本方法在百余轮与规则决策算法及人类的对抗中胜率达到97%,较规则决策算法提升20%左右。 相似文献
436.
为解决强化学习算法在自主导航任务中动作输出不连续、训练收敛困难等问题, 提出了一种基于近似策略优化(PPO)算法的移动平台自主导航方法。在PPO算法的基础上设计了基于正态分布的动作策略函数, 解决了移动平台整车线速度和横摆角速度的输出动作连续性问题。设计了一种改进的人工势场算法作为自身位置评价, 有效提高强化学习模型在自主导航场景中的收敛速度。针对导航场景设计了模型的网络框架和奖励函数, 并在Gazebo仿真环境中进行模型训练, 结果表明, 引入自身位置评价的模型收敛速度明显提高。将收敛模型移植入真实环境中, 验证了所提方法的有效性。 相似文献