首页 | 本学科首页   官方微博 | 高级检索  
文章检索
  按 检索   检索词:      
出版年份:   被引次数:   他引次数: 提示:输入*表示无穷大
  收费全文   1篇
  免费   0篇
  国内免费   2篇
航空   2篇
航天技术   1篇
  2021年   1篇
  2020年   2篇
排序方式: 共有3条查询结果,搜索用时 0 毫秒
1
1.
在轨道间机动的航天器规避空间目标,需兼顾沿转移轨道飞行的绝对运动和规避空间目标的相对运动,路径自主规划难度较大且目前国内外公开研究成果较少。针对上述问题,提出了一种将Frenet坐标系与改进人工势场相结合的在轨规避路径自主规划方法。首先,构建Frenet坐标系表述空间规避运动,解决了路径规划中航天器与既定转移轨道相对位置不易表述的难题,实现了空间规避运动的简便表示;其次,改进人工势场函数、调整势场作用区域,避免了传统人工势场法存在过早轨迹偏离以及局部震荡现象,实现了对空间目标的自主规避;最后,考虑规避安全、轨道保持、制动时效以及燃料消耗因素构建全局优化函数,能够满足不同任务的需求与偏好,实现了沿转移轨道飞行的最小偏移与快速恢复。算法比对与算例求解表明:所提方法应用优势明显,路径平滑、偏移量小,满足航天器规避空间目标的路径规划需求。   相似文献   
2.
刘冰雁  叶雄兵  周赤非  刘必鎏 《航空学报》2020,41(5):323630-323630
针对开展在轨服务前的资源分配非线性多目标优化问题,构建复合服务模式下的在轨资源分配模型,基于对DQN (Deep Q-Network)方法的收敛性和稳定性改进,提出了一种在轨服务资源分配方法。该方法能够应对同时包含"一对多""多对一"的复合服务模式,并在满足预期成功率的前提下优先分配重要服务对象,兼顾资源分配综合效益和总体能耗效率,达到了以期望成功率、较少资源投入尽快完成任务的综合目标。仿真实验表明,改进DQN方法能够在任务执行前依据服务对象重要程度自主分配航天器资源,收敛速度快、训练误差低,在分配效益和总体能耗的优化方面具有明显的比较优势。  相似文献   
3.
基于分支深度强化学习的非合作目标追逃博弈策略求解   总被引:2,自引:0,他引:2  
刘冰雁  叶雄兵  高勇  王新波  倪蕾 《航空学报》2020,41(10):324040-324040
为解决航天器与非合作目标的空间交会问题,缓解深度强化学习在连续空间的应用限制,提出了一种基于分支深度强化学习的追逃博弈算法,以获得与非合作目标的空间交会策略。对于非合作目标的空间交会最优控制,运用微分对策描述为连续推力作用下的追逃博弈问题;为避免传统深度强化学习应对连续空间存在维数灾难问题,通过构建模糊推理模型来表征连续空间,提出了一种具有多组并行神经网络和共享决策模块的分支深度强化学习架构。实现了最优控制与博弈论的结合,有效解决了微分对策模型高度非线性且难于利用经典最优控制理论进行求解的难题,进一步提升了深度强化学习对离散行为的学习能力,并通过算例仿真检验了该算法的有效性。  相似文献   
1
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号