首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
空间翻滚非合作目标相对位姿估计的视觉SLAM方法   总被引:1,自引:0,他引:1  
针对空间翻滚非合作目标相对位姿测量中目标先验信息缺失和模型不确定问题,将移动机器人视觉同步定位与建图(SLAM)贝叶斯滤波估计模型推广到非合作目标相对位姿测量中,提出一种基于视觉SLAM的翻滚非合作目标相对位姿估计方法。首先,构建了相对位姿估计的贝叶斯滤波状态转移模型和量测更新模型。其次,为避免平动噪声协方差过大导致滤波性能下降的问题,对状态转移方程进行优化,采用最小二乘估计方法预测位置参数。最后,采用一种联合无损卡尔曼滤波和粒子滤波的贝叶斯滤波方法实现了目标全部位姿参数的快速平滑估计。基于计算机合成图像数据和真实图像序列的仿真实验表明:提出的方法具有较优的速度和精度,且对目标速度变化、特征提取和数据关联误差等具有较好的鲁棒性。  相似文献   

2.
非合作大目标位姿测量的线结构光视觉方法   总被引:2,自引:0,他引:2  
高学海  梁斌  潘乐  徐文福 《宇航学报》2012,33(6):728-735
空间机器人与非合作大目标交会接近最终段,单目相机不能获取完整的特征图像而无法完成相对位姿测量。针对此问题,提出基于线结构光和单目视觉的相对位姿测量方法。以非合作大目标上的局部矩形特征为测量对象,首先,建立相对位姿测量模型并给出四个测量坐标系之间的关系;其次,通过相机对不完整矩形和线结构光的约束获得四个特征点在相机坐标系下的坐标;然后,利用四个特征点计算相机坐标系与目标坐标系之间的转移矩阵;最后,将转移矩阵分解得到矩形特征的相对位姿。通过改变影响测量精度的输入误差和标定误差等因素对该方法进行仿真验证,结果表明该测量方法是有效的。  相似文献   

3.
GEO非合作目标超近距相对位姿视觉测量   总被引:1,自引:0,他引:1  
蔡晗  张景瑞  翟光  张尧 《宇航学报》2015,36(6):715-722
提出一种基于几何特征综合匹配的双目超近距相对位姿视觉测量方法。首先,将失效卫星的矩形太阳帆板作为几何特征,采用综合匹配方法实现了双目图像的高精度匹配,随后基于几何特征指标参数判别和ROI检测方法,实现了卫星太阳帆板特征点组的识别与提取,在此基础上,进一步建立了目标坐标系,通过三维重建完成了超近距阶段失效卫星的相对位姿高精度解算。最后建立了高精度双目视觉超近距相对测量实验系统,结合所提出的综合匹配算法和相对位姿解算方法,完成了动态非合作目标的相对位姿测量实验,实验结果说明所提出的方法具有较好的实时性和较高的精度。  相似文献   

4.
郝刚涛  杜小平  赵继广  宋建军 《宇航学报》2015,36(10):1178-1186
针对传统的利用单一视觉传感器难以实现复杂非合作空间操控导航的问题,提出一种基于单目相机与无扫描三维激光雷达融合的非合作目标相对位姿估计方法。首先,设计了基于成像几何关系的单目纹理-非扫描距离图像的快速配准与融合方法;之后,在构建目标同步定位与建图(SLAM)贝叶斯滤波模型基础上,提出一种扩展卡尔曼滤波-无损卡尔曼滤波-粒子滤波联合的滤波估计算法,可实现尺度模糊下相对位姿的快速鲁棒估计;其次,针对估计中的尺度模糊问题,提出基于融合图像的全局尺度系数确定方法,将尺度系数估计问题转化为简单线性滤波问题。基于OpenGL生成的2D/3D图像实验表明:所提出的方法具有较优的精度和鲁棒性;相对位置估计误差与尺度估计误差相关,二者近似成线性正比关系。  相似文献   

5.
高轨失稳目标单载荷相对位姿测量方法   总被引:1,自引:0,他引:1  
针对线阵扫描型激光雷达在探测高轨失稳目标过程中,发生时空非定常点云数据畸变,而需多载荷协同方式测量相对位姿问题,提出一种激光雷达同向差分扫描测量方法。该方法基于运动目标畸变点云信息瞬时拓扑结构不变性,首先对相邻两次扫描的畸变点云进行配准来获取目标运动增量、解算目标瞬时运动参数。其次,逐条恢复畸变扫描线点云所处目标真实几何位置、完成目标三维重建。然后以目标三维模型为初始位姿基准,通过设定增量次数阈值不断更新位姿基准实现误差自标定。最后通过叠加位姿增量获取目标相对位姿。该方法在缺失非合作目标先验信息的情况下,仅使用单一载荷,不仅实现了目标三维点云模型的重建,而且精确测量了空间非合作目标相对位姿。  相似文献   

6.
冯乾  潘泉  侯晓磊  杨家男 《宇航学报》2021,42(9):1128-1138
针对故障卫星、失效航天器、空间碎片等空间非合作目标无先验模型,且无法直接获得其角速度及惯量参数等问题,提出一种参数化非合作目标相对位姿和惯量参数估计方法。首先,基于自由航天器姿态动力学模型,用反双曲正切函数来描述含两个独立变量的惯量参数,建立非合作目标角速度传播模型方程;基于立体视觉测量模型,建立非合作目标上若干特征点的量测方程。然后,结合Clohessy-Wiltshire方程描述的航天器间相对运动学模型,以非合作目标的相对位置、相对线速度、相对姿态、惯性角速度及惯量参数为状态量,设计扩展卡尔曼滤波器以估计各状态量。最后,进行不同场景的数值仿真验证。蒙特卡洛仿真结果表明,所设计的滤波器在不同噪声水平下能够高精度地有效估计出非合作目标的相对位姿和惯量参数。  相似文献   

7.
针对空间绳系机器人超近距视觉伺服中相对位姿无法测量的问题,在建立机器人视觉系统非线性量测模型的基础上,提出一种基于直线跟踪的混合视觉伺服控制方法,利用帆板支架边缘线图像特征跟踪相对位姿,利用基座具有较大误差的量测信息保证控制系统的稳定性。仿真试验结果表明:在仅能获得帆板支架边缘线图像信息的情况下,设计的超近距逼近控制方法能够保证空间绳系机器人稳定到达目标卫星的帆板支架处,并满足捕获条件。  相似文献   

8.
对一种基于显著特征点的空间非合作目标超近距离位姿测量技术方案进行了研究。给出了方法的流程。介绍了非合作目标捕获与跟踪、特征提取、特征匹配、三维结构重建、相对位置与相对姿态测量等关键技术。仿真结果验证了其可行性。  相似文献   

9.
针对对称结构空间目标相对位姿解算过程中点云误匹配带来的误差问题,提出一种基于点云深度学习的对称结构空间目标相对位姿测量方法。首先设计空间目标点云特征提取网络及关键点回归网络,将位姿测量问题转换为空间目标点云关键点回归问题,通过两个并行的回归网络分别输出空间目标平移向量和具有固定标签的目标点云三维边界框角点;其次利用具有连续稳定标签的角点求解目标姿态,可有效解决目标的对称结构导致的点云误配准问题;最后通过仿真数据集的实验表明,该方法相比于传统的点云配准方法有更高的准确率,能够精确求解具有对称结构的空间目标相对位姿。  相似文献   

10.
基于对偶四元数的航天器交会对接位姿视觉测量算法   总被引:5,自引:0,他引:5  
根据光学测量基本原理建立双目视觉测量模型,提出基于双目视觉的航天器间相对位姿 的测量方法。利用对偶四元数,建立目标航天器的坐标系和追踪航天器上的摄像机坐标 系之间的关系,构造出航天器交会对接位姿误差模型,通过使用拉格朗日求极值的方法,解 算出航天器间的相对位置和姿态。仿真结果表明该算法有效,能够满足航天器交会对接的测 控要求。  相似文献   

11.
基于单目视觉与惯性测量单元(IMU)融合的SLAM(simultaneous localization and mapping)技术,具有硬件成本低、体积小和消耗计算资源少等优点,在移动机器人导航系统中得到了广泛的应用。单目视觉SLAM系统主要通过求解对极几何来解算位姿,但当平移为零时(仅存在姿态旋转运动),存在解算漂移的问题。通过将磁力计的数据融合到单目视觉SLAM算法中,不但可以解决纯旋转情况下姿态解算漂移问题,还可以提高解算精度。物理仿真实验的结果表明,与传统的SLAM算法相比,本文提出的基于磁力计、IMU和单目视觉融合的算法具有精度高、鲁棒性好的优点。  相似文献   

12.
视觉系统是空间机械臂的重要组成部分,空间机械臂除开环控制外的所有工作模式都不能离开视觉系统的引导和辅助而独立实现。文章以建立满足空间机械臂实际应用需求的视觉系统为目标,提出通过分布在不同空间位置的多个相机的协同工作扩展并增强视觉系统的监视和测量能力,并从系统组成、工作模式、测量方式等多方面完成空间机械臂视觉系统方案设计。仿真试验结果表明,目标三维位姿的测量误差与视觉标记点检测结果的误差近似成线性关系,视觉标记点检测的准确性对目标位姿测量的精度具有重要影响。室内环境试验结果表明,在视觉系统的引导下机械臂能够自主完成对目标的定位和捕获,视觉系统满足空间机械臂大范围运动和精准操作任务的应用需求。  相似文献   

13.
基于双目视觉的航天器间相对位置和姿态的测量方法   总被引:6,自引:0,他引:6  
张庆君  胡修林  叶斌  钟山 《宇航学报》2008,29(1):156-161
在光学测量基本原理上建立了双目视觉测量模型,提出了基于双目视觉的航天器间相对位置及姿态的测量方法,并对测量系统中的误差进行分析,得到影响测量精度的因素。仿真结果表明该方法有效,获得的航天器间相对空间位姿信息的精度能满足航天测控要求,对航天器在轨实时应用具有重要参考价值。  相似文献   

14.
刘智远  郭延宁  梁维奎  徐杭 《宇航学报》2020,41(10):1314-1321
针对空间非合作目标相对位姿解算对点云迭代最近点(ICP)算法迭代初值要求较高,易产生误匹配等问题,提出了一种基于点云分割与点云关键点的ICP初始迭代位姿获取方法。首先,考虑到非合作目标可能具有的高度对称外观,基于LCCP点云分割算法与点云Harris关键点,在已知目标外轮廓点云基础上,设计了点云ICP初始迭代位姿获取方法。该方法具体流程为:点云降采样处理与关键部分提取、关键部分点云多角度预变换处理、最佳点云匹配及初始迭代位姿获取。最后,以某通信卫星模型搭建虚拟验证平台,使用本文提出的方法给出ICP迭代初始位姿并进行对比实验。结果表明,本文提出的点云ICP迭代初始位姿获取方法可有效规避非合作目标高度对称带来的误匹配,可给出较精确的相对位姿。  相似文献   

15.
基于立体视觉的航天器相对位姿测量方法与仿真研究   总被引:5,自引:1,他引:4  
空间目标的相对位姿测量,是进行交会对接、绕飞监测、编队飞行等的前提.提出了基于立体视觉的方法,包括图像滤波、分割、连通区域标记、3D重建、相对位姿计算等步骤.并建立了仿真系统,该系统基于VC环境,将追踪星、日标星的3D几何模型、姿态动力学模型、相对轨道动力学模型、控制器/执行机构的数学模型,以及立体相机的成像与采集模型集成一体,可进行全闭环的仿真.仿真结果验证了算法的有效性.  相似文献   

16.
基于对偶四元数的航天器交会对接位姿双目视觉测量算法   总被引:1,自引:0,他引:1  
钱萍  王惠南 《宇航学报》2013,34(1):32-38
针对航天器交会对接中位姿参数的测量问题,突破传统的位姿计算态分而治之的模式,采用双目视觉技术和对偶四元数这一数学工具,建立了追踪航天器与目标航天器间相对位姿参数的统一描述模型.该模型与传统的欧拉角和四元数的描述方法完全不同,具有非常简洁统一的形式.同时,针对该对偶四元数模型,给出其两步解析算法,解算出两航天器间的相对位置和姿态参数.仿真结果表明该算法能够满足航天器位姿参数的测量要求,并且具有较强的稳定性,对航天器的在轨实时应用具有重要参考价值.  相似文献   

17.
面向空间在轨服务重大应用需求,以提高系统自主性和空间环境适应性为目标,发展了一种空间非合作目标三维重建、目标识别和位姿估计一体化的近距离相对测量方法。该方法基于二维图像信息和深度数据,通过数据融合并重建出非合作目标的稠密三维模型,接着基于快速迭代最近点配准算法,提出基于SIFT和SHOT特征融合的三维识别方法,为系统的相对位姿估计提供有效的参数初始化。本文方法可进一步减少地面的干预,增强在轨服务系统的自主性,扩展系统的工作范围。地面仿真实验验证了该方法的可行性和有效性。  相似文献   

18.
郭新程  孟中杰  黄攀峰 《宇航学报》2019,40(10):1243-1250
针对微小卫星逼近观测未知的空间翻滚非合作目标星任务,提出一种基于单目视觉的目标星相对状态估计方法。在建立追踪星/目标星相对运动模型的基础上,以单目相机识别并测量获得的目标星固有特征的像素位置为观测输入,通过扩展卡尔曼滤波算法实现对目标星相对位置、相对速度、相对姿态、角速度、惯量比和特征位置等状态的估计。仿真结果表明,该方法能够很好地实现对未知非合作目标星的相对状态估计,姿态估计误差小于2°,位置估计误差小于0.1 m,特征点位置平均估计误差小于0.04 m。  相似文献   

19.
张鑫  张雅声  程文华  姚红 《上海航天》2016,33(3):124-129
针对模型尺寸已知的非合作目标,在目标三维特征点和图像二维特征点坐标已知但匹配关系未知的条件下,对基于SoftPOSIT算法的非合作目标航天器间相对位姿估计方法进行了研究。SoftPOSIT算法将解决匹配的Softassign和解决位姿的POSIT两种迭代方法融入一个迭代循环,建立全局目标函数,最小化目标函数就可在获得服务航天器与目标航天器相对位姿的同时确定三维点与二维点间的匹配关系。仿真结果表明由SoftPOSIT算法所得位态精度很高,算法正确有效。在不同条件下用该算法对某卫星位姿进行估计,发现算法的相对位置估计精度随目标与服务航天器相对距离增大而提高,而相对姿态角对估计精度的影响较小。  相似文献   

20.
基于Rodrigues参数的视觉相对位姿确定算法   总被引:3,自引:1,他引:2  
岳晓奎  侯小娟 《宇航学报》2010,31(3):753-757
以Rodrigues参数作为姿态描述参数提出了一种视觉相对位姿确定算法。Rodrigues参 数作为一种简洁、高效的姿态描述法,适用于实时性要求高的视觉相对位姿确定,但它本身 的奇异性使其不能用于大角度的位姿确定。将视觉导航方法和无奇异姿态描述的Rodrig ues参数切换理论结合起来,推导了基于Rodrigues参数的视觉相对位姿解算模型,并给出了 这种相对位姿确定算法的流程。仿真结果表明该算法能很好地解决奇异问题,实现全姿态运 动情形下的相对位姿确定。
  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号