排序方式: 共有12条查询结果,搜索用时 15 毫秒
1.
2.
非合作大目标位姿测量的线结构光视觉方法 总被引:2,自引:0,他引:2
空间机器人与非合作大目标交会接近最终段,单目相机不能获取完整的特征图像而无法完成相对位姿测量。针对此问题,提出基于线结构光和单目视觉的相对位姿测量方法。以非合作大目标上的局部矩形特征为测量对象,首先,建立相对位姿测量模型并给出四个测量坐标系之间的关系;其次,通过相机对不完整矩形和线结构光的约束获得四个特征点在相机坐标系下的坐标;然后,利用四个特征点计算相机坐标系与目标坐标系之间的转移矩阵;最后,将转移矩阵分解得到矩形特征的相对位姿。通过改变影响测量精度的输入误差和标定误差等因素对该方法进行仿真验证,结果表明该测量方法是有效的。 相似文献
3.
4.
针对微小卫星逼近观测未知的空间翻滚非合作目标星任务,提出一种基于单目视觉的目标星相对状态估计方法。在建立追踪星/目标星相对运动模型的基础上,以单目相机识别并测量获得的目标星固有特征的像素位置为观测输入,通过扩展卡尔曼滤波算法实现对目标星相对位置、相对速度、相对姿态、角速度、惯量比和特征位置等状态的估计。仿真结果表明,该方法能够很好地实现对未知非合作目标星的相对状态估计,姿态估计误差小于2°,位置估计误差小于0.1 m,特征点位置平均估计误差小于0.04 m。 相似文献
5.
针对传统的利用单一视觉传感器难以实现复杂非合作空间操控导航的问题,提出一种基于单目相机与无扫描三维激光雷达融合的非合作目标相对位姿估计方法。首先,设计了基于成像几何关系的单目纹理-非扫描距离图像的快速配准与融合方法;之后,在构建目标同步定位与建图(SLAM)贝叶斯滤波模型基础上,提出一种扩展卡尔曼滤波-无损卡尔曼滤波-粒子滤波联合的滤波估计算法,可实现尺度模糊下相对位姿的快速鲁棒估计;其次,针对估计中的尺度模糊问题,提出基于融合图像的全局尺度系数确定方法,将尺度系数估计问题转化为简单线性滤波问题。基于OpenGL生成的2D/3D图像实验表明:所提出的方法具有较优的精度和鲁棒性;相对位置估计误差与尺度估计误差相关,二者近似成线性正比关系。 相似文献
6.
7.
8.
针对空间非合作目标姿态测量问题,提出一种基于卷积神经网络的非合作目标姿态视觉测量方法。该方法先设计特征提取网络并利用公开数据集进行预训练,用少量实际目标图像进行迁移学习,实现非合作目标图像高层抽象特征的自动提取;再设计基于回归模型的姿态映射网络,建立图像高层特征与三轴姿态角之间的非线性关系,实现非合作目标的姿态测量。实验验证了两类特征提取网络测量精度和参数量大小,测量精度可达 0.711° (1σ),表明了“单目相机+卷积神经网络”方法的可行性。 相似文献
9.
针对强化学习策略由仿真环境向实际迁移困难的问题,以提高无人机采用无深度信息单目视觉时的行人规避能力为目标,提出一种基于异步深度神经网络结构的跨传感器迁移学习方法。首先,在仿真环境中仅使用虚拟单线激光雷达作为传感器,通过基于确定性策略梯度(DDPG)的深度强化学习方法,训练得到一个稳定的初级避障策略。其次,用单目摄像头和激光雷达同步采集现实环境中的视觉和深度数据集并逐帧绑定,使用上述初级避障策略对现实数据集进行自动标注,进而训练得到无需激光雷达数据的单目视觉避障策略,实现从虚拟激光雷达到现实单目视觉的跨传感器迁移学习。最后,引入YOLO v3-tiny网络与Resnet18网络组成异步深度神经网络结构,有效提高了存在行人场景下的避障性能。 相似文献
10.
针对非合作目标之间基于特征点的相对位姿单目视觉确定问题,考虑利用自然特征导致误差增大等因素,提出一种基于凸松弛理论和LMI算法的相对位姿求解迭代方法。该方法在基于逆投影线构建的优化模型基础上,首先利用松弛理论将姿态矩阵的单位正交非凸等式约束松弛为不等式凸约束,并证明了松弛后的优化问题与原问题等价,即松弛后的凸问题取得最值时,姿态矩阵满足原等式约束。进一步将松弛后的姿态矩阵不等式凸约束表示成线性矩阵不等式形式,进而利用内点法进行求解,并利用全局收敛性定理证明了该算法的全局收敛性。以在轨服务为背景,仿真试验表明,利用该算法相对位姿可在7次迭代达到收敛,与传统SVD算法相比,在噪声较大的情况下,该算法计算精度提高近一倍,能够快速收敛并具有较强的鲁棒性。 相似文献