全文获取类型
收费全文 | 527篇 |
免费 | 88篇 |
国内免费 | 59篇 |
专业分类
航空 | 459篇 |
航天技术 | 60篇 |
综合类 | 51篇 |
航天 | 104篇 |
出版年
2024年 | 7篇 |
2023年 | 55篇 |
2022年 | 45篇 |
2021年 | 63篇 |
2020年 | 34篇 |
2019年 | 29篇 |
2018年 | 11篇 |
2017年 | 19篇 |
2016年 | 24篇 |
2015年 | 10篇 |
2014年 | 11篇 |
2013年 | 16篇 |
2012年 | 20篇 |
2011年 | 30篇 |
2010年 | 23篇 |
2009年 | 23篇 |
2008年 | 25篇 |
2007年 | 30篇 |
2006年 | 15篇 |
2005年 | 19篇 |
2004年 | 11篇 |
2003年 | 10篇 |
2002年 | 13篇 |
2001年 | 20篇 |
2000年 | 9篇 |
1999年 | 6篇 |
1998年 | 12篇 |
1997年 | 12篇 |
1996年 | 10篇 |
1995年 | 10篇 |
1994年 | 11篇 |
1993年 | 6篇 |
1992年 | 8篇 |
1991年 | 8篇 |
1990年 | 6篇 |
1989年 | 12篇 |
1987年 | 1篇 |
排序方式: 共有674条查询结果,搜索用时 15 毫秒
511.
空间飞行器在太空飞行过程中需要满足多任务、多工作模式以及大范围机动的需求,其控制系统在大范围机动飞行条件下存在大量的外界干扰和内部参数不确定,同时飞行器的自适应过程受限于资源,人工干预难度大,并且现有的成熟的动态自适应方法并不一定适合空间飞行器控制软件进行自主控制,所以目前对自主控制系统软件的动态自适应调整方法提出了更... 相似文献
512.
已有的空中格斗控制方法未综合考虑基于专家知识的态势评估及通过连续性速度变化控制空战格斗的问题。基于深度确定性策略梯度(DDPG)强化学习算法,在态势评估函数作为强化学习奖励函数的基础上,设计综合考虑飞行高度上下限、飞行过载以及飞行速度上下限的强化学习环境;通过全连接的载机速度控制网络与环境奖励网络,实现DDPG算法与学习环境的交互,并根据高度与速度异常、被导弹锁定时间以及格斗时间设计空战格斗结束条件;通过模拟一对一空战格斗,对该格斗控制方法在环境限制学习、态势评估得分以及格斗模式学习进行验证。结果表明:本文提出的空战格斗控制方法有效,能够为自主空战格斗进一步发展提供指导。 相似文献
513.
514.
515.
516.
517.
由于距离地球较远、测控延时误差较大、飞行环境十分复杂且难以提前预测,行星软着陆的自主制导技术目前存在水平位置估计困难、导航参考信息匮乏、复杂地形着陆困难等挑战。针对行星软着陆存在的困难和挑战,提出了基于引导策略搜索算法的有模型强化学习制导方法,实现了着陆器在初始状态受到扰动时,无需重新规划,仍能在满足约束条件的情况下降落在指定位置。该方法将迭代线性二次调节器作为控制器,产生初始轨迹;其次,使用多层神经网络拟合制导策略;最后,利用控制器监督策略学习,进而收敛产生可行策略。针对行星表面软着陆的仿真验证结果显示该算法仅通过几次循环,即可以实现初始状态变化的快速软着陆。一方面表明了基于有模型强化学习的数据高效利用率,另一方面也证明了强化学习方法在深空探测领域中具有广阔的应用前景。 相似文献
519.
飞行器空战智能决策是当今世界各军事强国的研究热点。为解决近距空战博弈中无人机的机动决策问题,提出一种基于深度强化学习方法的无人机近距空战格斗自主决策模型。决策模型中,采取并改进了一种综合考虑攻击角度优势、速度优势、高度优势和距离优势的奖励函数,改进后的奖励函数避免了智能体被敌机诱导坠地的问题,同时可以有效引导智能体向最优解收敛。针对强化学习中随机采样带来的收敛速度慢的问题,设计了基于价值的经验池样本优先度排序方法,在保证算法收敛的前提下,显著加快了算法收敛速度。基于人机对抗仿真平台对决策模型进行验证,结果表明智能决策模型能够在近距空战过程中压制专家系统和驾驶员。 相似文献
520.