首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
航天器空间对接位置视觉测量方法   总被引:1,自引:0,他引:1  
针对航天器空间对接过程中对接环位置的实时测量问题,提出了一种基于单目视觉的对接环识别定位新方法.通过将采集到的目标图像序列RGB信息转换到HSV色彩空间,以图像色调值为判据,实现了航天器空间对接环目标特征的有效提取.结合最小二乘椭圆拟合算法和小孔成像理论,建立了单目视觉的对接环识别定位模型,以完成航天器空间位置的精确计算.仿真结果表明,航天器近距定位可达到小于2 cm的精度,完全能够满足对接的精度要求.  相似文献   

2.
现有的机器视觉通常以边缘轮廓和角点作为特征,因此要求背景单一,对环境结构化依赖程度高。为了拓展机器人的应用范围,使其脱离结构化的环境,提出了一种基于SIFT特征点和PNP技术的单目相机估计目标物体位姿的方法。以BumbleBee双目相机为硬件基础,以C++为开发平台,结合了Eigen计算库、OpenCV图像处理库和Triclops库,开发了单目视觉位姿估计算法,实现在复杂背景下对表面纹理较为丰富的物体的位姿估计。利用试验对所提方法进行了验证,试验结果表明,该算法具有较高的估计精度,可以作为机器抓取的依据。  相似文献   

3.
近年来,基于可见光图像的目标识别在无人车感知领域得到了广泛应用.然而,可见光图像目标识别无法应用于弱光和黑暗环境.针对于此,提出了一种基于红外视觉/激光雷达融合的目标识别与定位算法.首先,通过基于颜色迁移的数据增强训练方法,提高了红外目标识别算法的泛化性能.继而,提出了一种基于激光雷达修正的单目深度估计方法,通过视觉图像与激光雷达点云的数据融合,实现了基于稠密深度图对目标位置的估计,提高了对小目标的定位能力.试验结果表明,与传统Yolov3目标识别算法相比,该算法平均识别准确率可提升5.8%;此外,相对定位算法将包含小目标在内的物体相对定位精度提高了13.4%.  相似文献   

4.
基于四元数的单目视觉物体位姿测量方法   总被引:2,自引:0,他引:2  
对基于点特征的单目视觉定位算法进行了研究,设计了一种5点平面靶标,在五个特征点的基础上提出了一种基于四元数的单摄像机位姿测量方法。建立了四元数空间变换矩阵,然后再根据特征点在世界坐标系下的坐标值以及特征点在CCD成像面上的坐标值,在空间投射的基础上利用最小二乘法求解出靶标的四元数空间变换矩阵,从而求得靶标的空间位姿。通过实验对该单目视觉定位方法进行验证,实验结果表明:测量模型平移定位精度达到了,旋转定位精度达到了。  相似文献   

5.
为增强空间遥操作系统的力交互性,提出了一种基于视觉/力觉辅助的空间遥操作系统。结合虚拟现实技术,借助力觉反馈设备搭建了基于虚拟3D视觉反馈和虚拟力觉反馈的空间遥操作实验平台。使用KINECT相机采集3D点云数据,采用滑动最小二乘法(SLSM)在线识别未知环境中的模型参数并更新本地虚拟环境。通过虚拟预测环境产生实时的视觉、力觉反馈。基于人工势场的共享控制方法,产生引力或斥力信号来增强操作者控制远端机器人的避障及接近操作目标的能力。该方法在7自由度Schunk机械臂上得到了实现,实验表明此方法能够克服2 s时延影响并显著提高操作效率。  相似文献   

6.
为了解决由于视觉传感器视角单一、光线条件复杂导致的空间机械臂作业中相似目标识别较差的问题,提出一种基于CNN-GRU的视触融合目标识别系统.系统由机械臂、灵巧手和视觉传感器构成,实现了对目标物视觉和触觉信息的自主采样,并通过CNN-GRU网络提取视觉信息的空间特征和触觉信息的时序特征,有效利用多模态信息,提高目标识别的...  相似文献   

7.
针对基于视觉的机械臂抓取精确抓取的需求,考虑传统的视觉识别算法受环境、对象变化的制约且在识别正确率及快速性上存在的问题,在现有研究的基础上,提出了一种基于深度学习的目标精确检测与识别方法。首先基于深度学习改进了YOLO算法,通过对数据集的训练,基于英伟达Jetson TX1高性能处理单元实现了复杂环境下多目标的识别与定位,给出了目标的类别与位置等信息;以此为基础,结合利用Move It!功能包完成的机械臂运动轨迹的求解与规划,以及基于李群李代数建立的递推正逆动力学模型,设计了机械臂抓取控制的滑模控制律。仿真及实物验证表明,基于深度神经网络的方法学习到的特征对复杂背景具有较强的鲁棒性和稳定性;所设计的滑模控制算法在0.21 s时跟踪误差在2%,取得了较高的控制精度。可为后续视觉抓取任务提供参考。  相似文献   

8.
合作目标方案在辅助飞行器着陆、物资投递、工程量测中具有重要应用价值.为解决单目视觉定位任务中非充分光照条件下合作目标识别不准确、提取过程易丢失等问题,提出了结合改进自适应局部阈值二值化与形态学约束的轮廓提取方案.以图像明度通道值作为灰度化依据,提出使用自适应局部阈值的方法对像素点进行二值化处理,结合使用形态学约束条件筛...  相似文献   

9.
单目视觉在地面机器人等无人导航系统中的应用越来越广泛,而相机参数的标定是利用视觉进行导航的基础性工作。标定结果的好坏,直接影响导航性能和定位精度。主要考虑单目相机的径向畸变,基于张正友平面标定法,通过利用Matlab进行图像预处理、利用OpenCV进行Harris角点检测和亚像素精确化等方法在角点提取精度等方面进行了改进,通过重投影法对标定结果进行了评估,并将其与Matlab相机标定工具箱Toolbox_calib所得结果进行了比较。实验结果表明,改进的标定算法标定结果精度更高,并且对多个摄像头传感器均有效,适用性强。  相似文献   

10.
提出一种根据PCA重构图像与原目标相关等级进行的目标识别方法,解决伪目标参与识别影响识别准确度的问题。首先建立目标模板库特征空间,将定位到的目标对象映入特征空间,利用PCA变换进行图像重构,定义降维重构图像与原目标之间的相关度函数,根据该函数判别图像等级;若原目标与其重构图像相似度很低,认定原目标为伪目标,将其剔除,不进入识别过程;若认定为真实目标后,根据相似性程度,分别选用降维重构图像或原图像作为识别对象,利用Hu不变矩距离分类器进行识别。该方法可有效剔除伪目标,并根据图像质量选用识别目标,提高了目标识别准确度,交通卡口获取的实测车辆图像车标识别试验验证了该方法的鲁棒性和有效性。  相似文献   

11.
针对深空环境下机器人精确自定位的大视野和防抖性要求,提出了一种基于多图像匹配和惯性约束的即时定位与建图(SLAM)方法。基于对多目情况下SLAM系统的像素投影与位姿跟踪过程的分析,引入紧耦合视觉惯性约束,以降低轨迹估计的累计漂移误差,增强系统的鲁棒性,使其在快速运动时定位不易丢失;针对鲁棒初始化的需求,提出了一种稳定的自动静止初始化方法。搭建了多目相机视觉惯性定位的仿真试验平台,在V-REP中搭建仿真试验场景,仿真结果验证了本方法的定位准确性和鲁棒性。  相似文献   

12.
针对月面车载机械臂存在的鲁棒性和空间运动轨迹较差的问题,提出了月面车载机械臂的无标定视觉伺服控制方法。对无标定视觉伺服控制系统的控制原理和控制方法进行了分析,提出了双目双轴平行视觉配置方法,选取图像特征空间的点特征和线特征设计控制器,并基于卡尔曼滤波算法实时在线估计机械臂的手眼映射关系。通过仿真试验与基于六轴机械臂无标定视觉伺服平台的地面空间定位模拟实验,验证了该方法的有效性。  相似文献   

13.
跑道作为机场的关键设施,是飞机着陆和减速滑行的区域,通过视觉定位方法计算飞机相对跑道的位置,可以作为辅助飞机快速平稳着陆的一种思路。视觉传感器所需成本较低,对安装环境要求不高,本文旨在设计一个仅靠视觉传感器对飞机进行定位的辅助着陆系统,运用目标检测和视觉定位两个模型,计算飞机相对跑道的位置。首先搭建出等比例微缩的机场跑道模型,视觉传感器产生运动模拟飞机飞行路径,目标检测模型通过机载视觉传感器获取的图像识别出跑道区域,随后视觉定位模型提取图像中跑道区域特征点,计算飞机相对跑道的位置。分别对目标检测和视觉定位两部分的实现原理及难点进行阐述,尝试将目标检测和视觉定位结合起来实现飞机降落时的定位,描述辅助着陆系统设计的整体思路。  相似文献   

14.
RGB-D SLAM是指使用RGB-D相机作为视觉传感器,进行同时定位与地图构建(SLAM)的技术。RGB-D相机是近几年推出的能够同时采集环境RGB图像和深度图像的视觉传感器。首先对主流RGB-D相机,RGB-D SLAM算法框架流程做了介绍,然后对RGB-D SLAM算法的国内外主要标志性成果,以及RGB-D SLAM的研究现状进行介绍,并对RGB-D SLAM方法前端视觉里程计中特征检测与匹配、后端位姿图优化、回环检测等关键技术进行介绍总结。最后,对RGB-D SLAM算法的优缺点进行了分析,并对RGB-D SLAM算法的研究热点及发展趋势进行了讨论。  相似文献   

15.
为了满足复杂环境下无人机视觉着陆引导需求,通过试验分析了视觉定位方法的局限性,设计了一种基于误差状态滤波的视觉/惯性组合引导方法来解决视觉着陆引导中高延时和定位误检问题。采用时间同步方法完成视觉量测信息延时补偿,基于滤波新息自适应方差统计特性实现视觉定位结果误检判别,最后通过试飞试验完成着陆过程中视觉定位和惯性组合数据采集分析。试验结果表明视觉/惯性组合引导方法稳定可靠,能够有效提高视觉引导的实时性和连续性。  相似文献   

16.
相对位姿是装配过程中的一项重要监控项。针对大尺度部件对接过程中的相对位姿测量需求,提出了一种基于视觉的相对位姿实时测量方法。该方法利用单目视觉技术,通过采集合作靶标的图像,实时解算大部段间的相对位姿,用于辅助大尺度部件的装配。首先,设计了一套相对位姿实时测量系统,包括搭载单目相机的视觉测量单元,以及用于辅助位姿解算的合作靶标;其次,对相对位姿测量的完整流程进行了研究,包含系统标定方法与实时位姿解算方法;最后,在实验室环境下对位姿测量系统的精度进行测试。试验结果表明,位姿测量系统在垂直于光轴方向的重复精度可达0.02mm,沿光轴方向重复精度优于0.2mm,输出位姿结果时间低于0.3s;对多测量单元组网测量进行了仿真计算,垂直于光轴方向的重复精度优于0.1mm,沿光轴方向重复精度优于0.2mm,输出位姿结果时间优于1.3s。试验结果表明,提出的方法可满足一般大尺度部件对接过程实时位姿监控与对接状态评估的需求。  相似文献   

17.
针对局部自主遥操作过程中识别目标准确率低的问题,提出了一种基于改进快速区域卷积神经网络的抓取构型识别方法,通过对其区域生成网络中锚点尺度、前景特征区域、候选框的线性回归和分类网络分别进行改进,以提高抓取构型识别的准确率。首先将抓取构型参数化,然后在目标区域中利用锚点法对抓取构型参数进行识别,结合视觉传感器采集到的深度信息确定目标高度,并通过线性回归方法对抓取区域进行修正。通过搭建机器人试验平台,利用Cornell Grasp Dataset进行训练与测试进行验证。试验结果表明,提出的方法在简单网络识别准确率为96.4%,并成功实现机器人对目标的抓取。  相似文献   

18.
提高高分辨率SAR图像在复杂战场环境中的目标识别能力,对防御未来战争中来自地面目标的威胁具有重要意义。针对地面特定目标的大小、方位、旋转等变化以及强杂波背景给目标识别带来的严重影响,提出将目标的三维模型投影到二维平面,采用余弦傅里叶矩和瑞利分布的CFAR检测方法分别对其矩特征和峰值特征进行提取,利用级联组合分类器对目标识别进行建模分析,并通过试验验证该方法的有效性。结果表明:该方法实现了在特征维数高和姿态变化下的目标识别,而且无需额外增加对制导控制系统的开销。  相似文献   

19.
近些年,基于激光雷达和视觉的目标感知在无人系统中得到了广泛应用。目标的体积测量在很多应用场景可以发挥极其重要的作用,然而对识别感知目标的体积测量,目前尚无大量研究。首次提出了一种基于激光雷达/视觉的无人车目标体积自动测量方法,实现了无人车与目标体积测量功能的结合。通过在LeGO-LOAM算法中加入点云畸变补偿,相较于原始LeGO-LOAM算法,无人车在高速情况下的构图精度得到提升;通过将激光雷达与视觉进行深度融合,实现了目标的自动识别与全局定位;通过基于平面拟合的地面分割与欧式聚类,实现了目标点云轮廓的实时获取;通过设计一种基于切片法的不规则物体体积测量方法,实现了无人车在运动情况下对目标体积的自动估计。最终,分别通过Gazebo仿真和实际试验验证了算法的有效性。试验结果表明,所提算法在无人车运动的情况下对静态目标物的实时体积测量精度优于3%,具有较好的工程应用价值。  相似文献   

20.
针对插头锥套式自主空中加油过程中加油锥套的识别跟踪问题,提出了一种基于Cam Shift的视觉识别跟踪算法。选取加油锥套跟踪视觉特征,将RGB空间图像转换到HSV色彩空间,并采用自适应阈值算法分割图像。运用最小二乘椭圆拟合算法解算锥套在图像中的中心点坐标;根据目标像素位置变换速度,对Mean Shift算法的目标搜索窗宽进行自适应修正;定义基于巴氏系数的阈值函数,处理锥套被遮挡的情况;将VC与Open CV相结合,设计了加油锥套视觉跟踪软件,对锥套位置进行实时解算和显示。试验结果表明,该算法可达到毫米级精度,满足自主空中加油视觉导航的技术要求。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号