共查询到20条相似文献,搜索用时 15 毫秒
1.
2.
现有的机器视觉通常以边缘轮廓和角点作为特征,因此要求背景单一,对环境结构化依赖程度高。为了拓展机器人的应用范围,使其脱离结构化的环境,提出了一种基于SIFT特征点和PNP技术的单目相机估计目标物体位姿的方法。以BumbleBee双目相机为硬件基础,以C++为开发平台,结合了Eigen计算库、OpenCV图像处理库和Triclops库,开发了单目视觉位姿估计算法,实现在复杂背景下对表面纹理较为丰富的物体的位姿估计。利用试验对所提方法进行了验证,试验结果表明,该算法具有较高的估计精度,可以作为机器抓取的依据。 相似文献
3.
4.
5.
6.
7.
近年来,无人机在控制稳定性、传感器精度和载荷智能化等方面进步显著,被普遍应用于情报侦察、打击引导、安防巡逻、应急救援、森林巡检等军事和民用领域。无人机及其载荷主要承担发现和定位目标的任务,利用相机对地面目标地理定位(简称对地视觉定位)是最为普及的低成本手段,属于航空摄影测量技术分支。基于深度学习的计算机视觉浪潮促进了各类无人系统视觉感知能力的智能化发展,对于搭载光电载荷的无人机而言,对地目标智能识别和定位是重要的能力增长点。鉴于此,系统总结了无人机对地视觉定位技术的研究现状,全面细致地探究了定位过程涉及的各类坐标系定义与相互转换关系,指出了关键原理问题和技术途径。无人机视觉地理定位可分为单机定位和多机协同定位两种方式,主要通过基于辅助地理信息的定位、已知目标距离的定位、三角定位和纯角度滤波定位四种途径实现。同时,预测了未来无人机视觉地理定位技术的研究趋势,力求为无人机系统智能化发展提供支撑。 相似文献
8.
针对基于视觉的机械臂抓取精确抓取的需求,考虑传统的视觉识别算法受环境、对象变化的制约且在识别正确率及快速性上存在的问题,在现有研究的基础上,提出了一种基于深度学习的目标精确检测与识别方法。首先基于深度学习改进了YOLO算法,通过对数据集的训练,基于英伟达Jetson TX1高性能处理单元实现了复杂环境下多目标的识别与定位,给出了目标的类别与位置等信息;以此为基础,结合利用Move It!功能包完成的机械臂运动轨迹的求解与规划,以及基于李群李代数建立的递推正逆动力学模型,设计了机械臂抓取控制的滑模控制律。仿真及实物验证表明,基于深度神经网络的方法学习到的特征对复杂背景具有较强的鲁棒性和稳定性;所设计的滑模控制算法在0.21 s时跟踪误差在2%,取得了较高的控制精度。可为后续视觉抓取任务提供参考。 相似文献
9.
10.
单目视觉在地面机器人等无人导航系统中的应用越来越广泛,而相机参数的标定是利用视觉进行导航的基础性工作。标定结果的好坏,直接影响导航性能和定位精度。主要考虑单目相机的径向畸变,基于张正友平面标定法,通过利用Matlab进行图像预处理、利用OpenCV进行Harris角点检测和亚像素精确化等方法在角点提取精度等方面进行了改进,通过重投影法对标定结果进行了评估,并将其与Matlab相机标定工具箱Toolbox_calib所得结果进行了比较。实验结果表明,改进的标定算法标定结果精度更高,并且对多个摄像头传感器均有效,适用性强。 相似文献
11.
提出一种根据PCA重构图像与原目标相关等级进行的目标识别方法,解决伪目标参与识别影响识别准确度的问题。首先建立目标模板库特征空间,将定位到的目标对象映入特征空间,利用PCA变换进行图像重构,定义降维重构图像与原目标之间的相关度函数,根据该函数判别图像等级;若原目标与其重构图像相似度很低,认定原目标为伪目标,将其剔除,不进入识别过程;若认定为真实目标后,根据相似性程度,分别选用降维重构图像或原图像作为识别对象,利用Hu不变矩距离分类器进行识别。该方法可有效剔除伪目标,并根据图像质量选用识别目标,提高了目标识别准确度,交通卡口获取的实测车辆图像车标识别试验验证了该方法的鲁棒性和有效性。 相似文献
12.
13.
增强现实(AR)是航天员训练的有效途径,其关键技术是场景重建与空间定位。针对当前AR设备只能进行场景空间静态识别,无法感知目标动态变化的问题,提出了深度学习与AR技术相结合的目标识别与位姿估计方法。采用YOLO v5神经网络实现了小训练样本量的操作目标识别,结合深度信息实现了目标点云分割,与目标CAD模型点云进行ICP匹配后估计出目标的三维空间位姿,从而在AR显示空间中实现目标的动态定位与虚实融合。结果表明:YOLO v5的识别平均精度可以达到0.995,虚实结构可以准确叠加。该方法可有效提高AR设备的场景理解能力,扩展航天员AR训练手段。 相似文献
14.
15.
跑道作为机场的关键设施,是飞机着陆和减速滑行的区域,通过视觉定位方法计算飞机相对跑道的位置,可以作为辅助飞机快速平稳着陆的一种思路。视觉传感器所需成本较低,对安装环境要求不高,本文旨在设计一个仅靠视觉传感器对飞机进行定位的辅助着陆系统,运用目标检测和视觉定位两个模型,计算飞机相对跑道的位置。首先搭建出等比例微缩的机场跑道模型,视觉传感器产生运动模拟飞机飞行路径,目标检测模型通过机载视觉传感器获取的图像识别出跑道区域,随后视觉定位模型提取图像中跑道区域特征点,计算飞机相对跑道的位置。分别对目标检测和视觉定位两部分的实现原理及难点进行阐述,尝试将目标检测和视觉定位结合起来实现飞机降落时的定位,描述辅助着陆系统设计的整体思路。 相似文献
16.
RGB-D SLAM是指使用RGB-D相机作为视觉传感器,进行同时定位与地图构建(SLAM)的技术。RGB-D相机是近几年推出的能够同时采集环境RGB图像和深度图像的视觉传感器。首先对主流RGB-D相机,RGB-D SLAM算法框架流程做了介绍,然后对RGB-D SLAM算法的国内外主要标志性成果,以及RGB-D SLAM的研究现状进行介绍,并对RGB-D SLAM方法前端视觉里程计中特征检测与匹配、后端位姿图优化、回环检测等关键技术进行介绍总结。最后,对RGB-D SLAM算法的优缺点进行了分析,并对RGB-D SLAM算法的研究热点及发展趋势进行了讨论。 相似文献
17.
18.
近些年,基于激光雷达和视觉的目标感知在无人系统中得到了广泛应用。目标的体积测量在很多应用场景可以发挥极其重要的作用,然而对识别感知目标的体积测量,目前尚无大量研究。首次提出了一种基于激光雷达/视觉的无人车目标体积自动测量方法,实现了无人车与目标体积测量功能的结合。通过在LeGO-LOAM算法中加入点云畸变补偿,相较于原始LeGO-LOAM算法,无人车在高速情况下的构图精度得到提升;通过将激光雷达与视觉进行深度融合,实现了目标的自动识别与全局定位;通过基于平面拟合的地面分割与欧式聚类,实现了目标点云轮廓的实时获取;通过设计一种基于切片法的不规则物体体积测量方法,实现了无人车在运动情况下对目标体积的自动估计。最终,分别通过Gazebo仿真和实际试验验证了算法的有效性。试验结果表明,所提算法在无人车运动的情况下对静态目标物的实时体积测量精度优于3%,具有较好的工程应用价值。 相似文献
19.
相对位姿是装配过程中的一项重要监控项。针对大尺度部件对接过程中的相对位姿测量需求,提出了一种基于视觉的相对位姿实时测量方法。该方法利用单目视觉技术,通过采集合作靶标的图像,实时解算大部段间的相对位姿,用于辅助大尺度部件的装配。首先,设计了一套相对位姿实时测量系统,包括搭载单目相机的视觉测量单元,以及用于辅助位姿解算的合作靶标;其次,对相对位姿测量的完整流程进行了研究,包含系统标定方法与实时位姿解算方法;最后,在实验室环境下对位姿测量系统的精度进行测试。试验结果表明,位姿测量系统在垂直于光轴方向的重复精度可达0.02mm,沿光轴方向重复精度优于0.2mm,输出位姿结果时间低于0.3s;对多测量单元组网测量进行了仿真计算,垂直于光轴方向的重复精度优于0.1mm,沿光轴方向重复精度优于0.2mm,输出位姿结果时间优于1.3s。试验结果表明,提出的方法可满足一般大尺度部件对接过程实时位姿监控与对接状态评估的需求。 相似文献
20.