首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 109 毫秒
1.
胡启阳  王大轶 《宇航学报》2020,41(11):1410-1417
针对面向在轨服务的非合作空间目标测量感知问题,提出了一种基于双目视觉的相对导航与惯性参数辨识方法。利用目标表面的特征点建立几何坐标系,并分别设计了姿态测量和相对导航滤波器,实现了目标姿态、角速度、轨道,质心位置与惯量比的高精度估计。在此基础上,通过黏附卫星与非合作目标形成组合体,利用相对导航算法获得的质心位置和惯量比在黏附前后的变化,实现了目标质量和转动惯量的辨识。数值仿真试验证明了算法的有效性。  相似文献   

2.
非合作大目标位姿测量的线结构光视觉方法   总被引:2,自引:0,他引:2  
高学海  梁斌  潘乐  徐文福 《宇航学报》2012,33(6):728-735
空间机器人与非合作大目标交会接近最终段,单目相机不能获取完整的特征图像而无法完成相对位姿测量。针对此问题,提出基于线结构光和单目视觉的相对位姿测量方法。以非合作大目标上的局部矩形特征为测量对象,首先,建立相对位姿测量模型并给出四个测量坐标系之间的关系;其次,通过相机对不完整矩形和线结构光的约束获得四个特征点在相机坐标系下的坐标;然后,利用四个特征点计算相机坐标系与目标坐标系之间的转移矩阵;最后,将转移矩阵分解得到矩形特征的相对位姿。通过改变影响测量精度的输入误差和标定误差等因素对该方法进行仿真验证,结果表明该测量方法是有效的。  相似文献   

3.
针对空间非合作目标姿态测量问题,提出一种基于卷积神经网络的非合作目标姿态视觉测量方法。该方法先设计特征提取网络并利用公开数据集进行预训练,用少量实际目标图像进行迁移学习,实现非合作目标图像高层抽象特征的自动提取;再设计基于回归模型的姿态映射网络,建立图像高层特征与三轴姿态角之间的非线性关系,实现非合作目标的姿态测量。实验验证了两类特征提取网络测量精度和参数量大小,测量精度可达 0.711° (1σ),表明了“单目相机+卷积神经网络”方法的可行性。  相似文献   

4.
李宜鹏  解永春 《宇航学报》2018,39(8):870-878
针对在轨旋转非合作目标相对状态估计中关于几何结构及惯量参数先验信息未知的问题,提出一种以双目相机对目标特征点的投影作为测量值的解耦估计方法,实现旋转非合作目标相对状态的估计。首先,建立非合目标的动力学模型和目标特征点的运动模型;其次,为避免由目标特征点与目标质心相对位置不确定引起滤波性能降低的问题,建立相对特征的运动模型及投影模型,对旋转运动和平移运动进行解耦;最后,设计相应的滤波器对非合作目标的相对状态进行估计。仿真结果表明,提出的解耦估计方法能够有效地估计出非合作目标的相对状态。  相似文献   

5.
梁斌  高学海  潘乐  徐文福 《宇航学报》2016,37(2):182-188
针对地球静止轨道(GEO)上被服务航天器的远距离和非合作特点,提出一种高自主、高协同、多任务的编队空间机器人在轨服务系统方案,实现对非合作目标的自主交会接近。首先,分析GEO卫星轨道约束力小的轨道特征和非合作的信息交互特征,给出由操作空间机器人和监视空间机器人组成的编队在轨服务系统,设计交会接近相对测量分系统以及在轨服务飞行任务;接着,给出典型远距离交会接近的多视线相对导航方法与多冲量相对制导律;最后,进行远距离交会任务仿真校验,结果表明编队空间机器人交会接近方法是有效的。  相似文献   

6.
金泽明  汪玲  刘柯  杜荣华  张翔 《宇航学报》2021,42(7):907-916
针对微小卫星自主抵近任务中模型未知的非合作目标的相对位姿估计难题,提出一种联合扩展卡尔曼滤波EKF和扩展卡尔曼粒子滤波EKPF的非合作目标的单目位姿估计方法。以任务星相机坐标系为参考,构建非合作目标的相对运动模型。以目标图像中的特征点坐标为观测值,构建非合作目标测量方程。对相对位姿和特征点三维坐标进行初始化后,利用扩展卡尔曼粒子滤波估计目标相对位姿,利用扩展卡尔曼滤波估计特征点三维坐标。使用OpenGL生成非合作目标空间图像进行仿真验证,结果表明本文提出的非合作目标单目位姿估计方法可获得较高精度的位姿估计,且具有较好的鲁棒性。相比已有方法,本文方法不需要初始位姿假设,且能够有效减小计算时间,提高位姿估计效率。  相似文献   

7.
冯乾  潘泉  侯晓磊  杨家男 《宇航学报》2021,42(9):1128-1138
针对故障卫星、失效航天器、空间碎片等空间非合作目标无先验模型,且无法直接获得其角速度及惯量参数等问题,提出一种参数化非合作目标相对位姿和惯量参数估计方法。首先,基于自由航天器姿态动力学模型,用反双曲正切函数来描述含两个独立变量的惯量参数,建立非合作目标角速度传播模型方程;基于立体视觉测量模型,建立非合作目标上若干特征点的量测方程。然后,结合Clohessy-Wiltshire方程描述的航天器间相对运动学模型,以非合作目标的相对位置、相对线速度、相对姿态、惯性角速度及惯量参数为状态量,设计扩展卡尔曼滤波器以估计各状态量。最后,进行不同场景的数值仿真验证。蒙特卡洛仿真结果表明,所设计的滤波器在不同噪声水平下能够高精度地有效估计出非合作目标的相对位姿和惯量参数。  相似文献   

8.
针对模型未知的空间非合作目标的位姿测量问题,提出了基于低成本固态激光雷达的点云配准方法。算法首先根据空间目标的特点,提取平面点与边缘点作为匹配特征点;接着,提出了基于迭代匹配与自回环的位姿求解方案,解决了位姿优化中误匹配与误差累计问题;最后,在气浮台半实物实验校验中,算法解决了固态激光雷达单线收发、不规则采样的问题,实现了实时鲁棒的位姿跟踪,同时降低了跟踪过程中累计误差,测量精度优于现有算法,能够满足对非合作目标相对位姿测量的任务需要。  相似文献   

9.
针对空间非合作目标对接过程中特征点识别的非高斯测量噪声与幅值不确定,对传统滤波方法的量测更新部分进行改进.通过量测更新后的新息数据对量测噪声量级进行在线二次估计,使得量测噪声估计值更贴近实际,增进滤波效果.设计了针对空间非合作目标对接段的滤波器,能够提供对接段相对位置、速度、姿态角及角速率估计信息.仿真结果表明所提出的...  相似文献   

10.
梁斌  何英  邹瑜  杨君 《宇航学报》2016,37(9):1080-1088
针对已有测量手段在空间非合作目标近距离测量中的问题,本文主要分析了ToF(Time-of-Flight)相机在空间应用中的可能性。首先总结了空间非合作目标近距离测量现状及已有测量手段;随后介绍了ToF相机的原理及发展,并以非合作目标典型特征为例对其性能指标进行分析;接着将ToF相机与现有空间近距离测量手段进行性能比较;并对其中的关键技术进行梳理;最后对ToF相机的未来发展趋势及其在空间中的应用进行展望。  相似文献   

11.
高轨非合作目标多视线分布式相对导航方法   总被引:2,自引:0,他引:2  
高学海  梁斌  潘乐  杜晓东 《宇航学报》2015,36(3):292-299
针对仅采用单视线难于实现高轨非合作目标的远距离自主相对导航问题,提出基于双空间机器人的多视线分布式相对导航方法。首先,建立基于多视线测量的相对导航模型,并给出空间机器人与非合作目标的相对动力学模型;然后,为降低集中式滤波相对导航的维数,设计分布式滤波的相对导航方法,采用扩展卡尔曼滤波算法实现相对运动估计;最后,建立数学仿真模型,对多视线分布式滤波相对导航算法及可观测性进行仿真校验,仿真结果表明该方法是稳定有效的。  相似文献   

12.
GEO非合作目标超近距相对位姿视觉测量   总被引:1,自引:0,他引:1  
蔡晗  张景瑞  翟光  张尧 《宇航学报》2015,36(6):715-722
提出一种基于几何特征综合匹配的双目超近距相对位姿视觉测量方法。首先,将失效卫星的矩形太阳帆板作为几何特征,采用综合匹配方法实现了双目图像的高精度匹配,随后基于几何特征指标参数判别和ROI检测方法,实现了卫星太阳帆板特征点组的识别与提取,在此基础上,进一步建立了目标坐标系,通过三维重建完成了超近距阶段失效卫星的相对位姿高精度解算。最后建立了高精度双目视觉超近距相对测量实验系统,结合所提出的综合匹配算法和相对位姿解算方法,完成了动态非合作目标的相对位姿测量实验,实验结果说明所提出的方法具有较好的实时性和较高的精度。  相似文献   

13.
于大腾 《宇航学报》2020,41(8):1084-1093
提出了一种针对非合作接近威胁飞行器的安全性分析方法,具备对多脉冲接近的威胁飞行器进行安全性分析的能力,所得结果可对自主规避决策提供支撑。文中给出了安全性分析流程,从能量约束等角度出发,选取脉冲冲量、交会时间以及最小相对距离三种参数作为安全性分析指标;随后对指标标准化,建立了多指标加权综合评价与决策模型。仿真结果表明,在本文模型下,非合作主动接近飞行器施加多脉冲机动变轨对目标器进行接近,其每次脉冲均会在安全性评价值中得到体现,算法可对脉冲真实意图进行准确判断。本文提出的安全性分析方法可推动空间复杂环境下卫星面对各种主动威胁时的安全性分析研究,对未来卫星防护体系及相关技术的研究具有一定参考意义。  相似文献   

14.
一种非合作目标相对位置和姿态确定方法   总被引:3,自引:0,他引:3  
周军  白博  于晓洲 《宇航学报》2011,32(3):516-521
针对非合作目标中的从星若无法获得主星的动态信息时,就无法自主进行相对位置和姿态确定的问题,提出了一种采用陀螺、立体视觉系统和加速度计的相对状态确定方法。首先分别建立相对姿态方程、主星动力学方程和相对位置方程等系统的数学模型。然后根据这些方程组成的状态方程和立体视觉系统的测量模型设计了卡尔曼滤波器。该滤波器使得从星根据加速度计、陀螺和立体视觉系统的输出,在仅获得主星的外观特征和一些静态参数的情况下,能够自主进行相对位置和姿态的确定。最后,数值仿真结果表明,在相同仿真条件下,与使用主星陀螺信息的相对状态确定算法相比,该算法能够自主进行相对状态的确定,且位置和姿态稳态误差分别为0.05m和2°。  相似文献   

15.
空间翻滚非合作目标相对位姿估计的视觉SLAM方法   总被引:1,自引:0,他引:1  
针对空间翻滚非合作目标相对位姿测量中目标先验信息缺失和模型不确定问题,将移动机器人视觉同步定位与建图(SLAM)贝叶斯滤波估计模型推广到非合作目标相对位姿测量中,提出一种基于视觉SLAM的翻滚非合作目标相对位姿估计方法。首先,构建了相对位姿估计的贝叶斯滤波状态转移模型和量测更新模型。其次,为避免平动噪声协方差过大导致滤波性能下降的问题,对状态转移方程进行优化,采用最小二乘估计方法预测位置参数。最后,采用一种联合无损卡尔曼滤波和粒子滤波的贝叶斯滤波方法实现了目标全部位姿参数的快速平滑估计。基于计算机合成图像数据和真实图像序列的仿真实验表明:提出的方法具有较优的速度和精度,且对目标速度变化、特征提取和数据关联误差等具有较好的鲁棒性。  相似文献   

16.
Xiaodong Du  Bin Liang  Wenfu Xu  Yue Qiu 《Acta Astronautica》2011,68(11-12):2047-2065
In recent years some communications satellites lost their ability due to the failure of mechanisms to deploy, which resulted in large cost. A space robotic system is expected to perform the on-orbit repairing mission. This is a tremendous challenge since the targets are generally non-cooperative, i.e. no facilities used for relative state measurement are mounted on the targets. Moreover these targets are very large. Limited by the FOV (field of view), a monocular camera cannot supply enough information of the targets in close range. In this paper, a method based on two collaborative cameras is proposed to determine the pose (position and orientation) of a large non-cooperative target. Firstly, we designed a sensing system used for the non-cooperative measurement, according to the investigation of the characteristics of communications satellites. A rectangular feature, which is common in the configuration of a satellite, is chosen as the recognized object. Secondly, we proposed that two cameras share the recognition task in a collaborative behavior, i.e. each provides partial image of the rectangle, and the full feature is then obtained by fusing their information. Lastly, the corresponding algorithm of image processing and pose measurement is addressed. Simulation results of typical cases verify the proposed approach.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号