全文获取类型
收费全文 | 518篇 |
免费 | 133篇 |
国内免费 | 79篇 |
专业分类
航空 | 382篇 |
航天技术 | 118篇 |
综合类 | 38篇 |
航天 | 192篇 |
出版年
2024年 | 12篇 |
2023年 | 14篇 |
2022年 | 47篇 |
2021年 | 52篇 |
2020年 | 37篇 |
2019年 | 29篇 |
2018年 | 18篇 |
2017年 | 21篇 |
2016年 | 35篇 |
2015年 | 17篇 |
2014年 | 35篇 |
2013年 | 40篇 |
2012年 | 28篇 |
2011年 | 46篇 |
2010年 | 37篇 |
2009年 | 23篇 |
2008年 | 34篇 |
2007年 | 24篇 |
2006年 | 35篇 |
2005年 | 33篇 |
2004年 | 24篇 |
2003年 | 18篇 |
2002年 | 8篇 |
2001年 | 9篇 |
2000年 | 6篇 |
1999年 | 2篇 |
1998年 | 12篇 |
1997年 | 4篇 |
1996年 | 6篇 |
1995年 | 3篇 |
1994年 | 2篇 |
1993年 | 2篇 |
1992年 | 4篇 |
1991年 | 4篇 |
1989年 | 2篇 |
1988年 | 1篇 |
1986年 | 2篇 |
1985年 | 4篇 |
排序方式: 共有730条查询结果,搜索用时 62 毫秒
51.
针对目前舰船消磁绕组优化调整方法中只考虑舰艇磁场信号幅值而较少考虑磁场梯度信号幅值的不足,提出同时以磁场幅值和磁场梯度幅值削减为目标的优化调整方法.为此,首先以线圈等效电流值为优化对象,磁场和梯度峰值为优化目标,建立了消磁绕组优化调整的多目标数学模型;随后采用多目标微粒群算法求解得到了该优化问题的Pareto解集;最后通过一个计算实例验证了方法的有效性.实例结果表明该方法能够同时处理磁场和磁场梯度幅值,并能给出多种不同等效电流组合以供选择使用. 相似文献
52.
针对载体在多径信号的影响下,传统码相位鉴别器不能实时有效鉴别出码相位误差,提出一种高斯码相位鉴别器构建方法。在GPS/INS深组合模式中,接收机码相位鉴别器的构建将改变传统设计方法。INS系统利用GPS接收机产生的即时码相位信息,建立INS系统码相位鉴别器,该INS码相位鉴别器用于辅助GPS接收机码相位鉴别器,构建高斯码相位鉴别器,有效降低码相位跟踪误差。仿真结果表明,与传统的码鉴相器相比,高斯码相位鉴别器减小了噪声方差,能有效提高鉴相精度,从而在多径干扰下提高定位精度。 相似文献
53.
货币政策通过信贷渠道的传导离不开贷款服务机构尤其是商业银行。货币政策受中央银行的存款准备金制度影响,从商业银行贷款、存款和金融创新等方面影响居民和企业的消费和投资活动,最终影响实体经济的运行。因此,充分发挥商业银行货币政策传导的主渠道作用,对于取得货币政策实施的最大效应,具有极其重要的作用。 相似文献
54.
地面等待策略中的时隙分配模型与算法研究 总被引:1,自引:0,他引:1
机场拥塞是制约民航运输的瓶颈所在,地面等待策略(GHP)是解决机场拥塞的有效方法,其核心就是时隙分配问题。为适应我国空中交通持续发展需要,实现科学时隙分配的要求,对GHP已有的研究进行分析和归纳,重点论述了时隙分配的概念、属性、模型和算法,在此基础上总结了时隙分配的关键问题,即随机容量的影响、均衡模型的建立以及模型求解算法的研究。最后指出了时隙分配问题未来的研究方向。 相似文献
55.
56.
57.
58.
59.
基于多智能体强化学习的空间机械臂轨迹规划 总被引:1,自引:0,他引:1
针对某型六自由度(DOF)空间漂浮机械臂对运动目标捕捉场景,开展了基于深度强化学习的在线轨迹规划方法研究。首先给出了机械臂DH (Denavit-Hartenberg)模型,考虑组合体力学耦合特性建立了多刚体运动学和动力学模型。然后提出了一种改进深度确定性策略梯度算法,以各关节为决策智能体建立了多智能体自学习系统。而后建立了"线下集中学习,线上分布执行"的空间机械臂对匀速直线运动目标捕捉训练系统,构建以目标相对距离和总操作时间为参数的奖励函数。最后通过数学仿真验证,实现了机械臂对各向匀速运动目标的快速捕捉,平均完成耗时5.4 s。与传统基于随机采样的规划算法对比,本文提出的自主决策运动规划方法求解速度和鲁棒性更优。 相似文献
60.
针对多颗微小卫星合作接管失效卫星姿态运动的问题,研究了考虑微小卫星控制约束的多星合作博弈策略学习与协同控制方法。首先,建立了微小卫星合作博弈模型,给出了能够处理微小卫星控制约束的多星合作博弈帕累托最优策略显式表达式。其次,针对微小卫星合作博弈策略学习需求,通过过去与当前时刻数据的并行使用,设计了基于并行学习的策略迭代方法,该方法放松了神经网络(NN)权值矢量学习对持续激励条件的要求。给出了为确保神经网络权值矢量估值收敛,所使用的过去时刻数据所需满足的条件,并通过Lyapunov方法分析了神经网络权值矢量估计误差的一致最终有界性。之后,采用并行学习策略迭代方法进行了微小卫星合作博弈帕累托最优策略数值解的逼近。所获得的合作博弈策略具有反馈控制形式,在进行神经网络权值矢量学习后,各微小卫星能够通过合作博弈策略的独立计算实现失效卫星姿态运动接管过程中的闭环协同控制。所设计方法避免了传统姿态控制方法所需进行的力矩分配,消除了微小卫星数量对其控制计算复杂度的影响。最后,通过数值仿真对所设计方法的有效性进行了验证。 相似文献