首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 218 毫秒
1.
针对无人机航拍图像背景复杂、小尺寸目标较多等问题,提出了一种基于倒置残差注意力的无人机航拍图像小目标检测算法。在主干网络部分嵌入倒置残差模块与倒置残差注意力模块,利用低维向高维的特征信息映射,获得丰富的小目标空间信息和深层语义信息,提升小目标的检测精度;在特征融合部分设计多尺度特征融合模块,融合浅层空间信息和深层语义信息,并生成4个不同感受野的检测头,提升模型对小尺寸目标的识别能力,减少小目标的漏检;设计马赛克混合数据增强方法,建立数据之间的线性关系,增加图像背景复杂度,提升算法的鲁棒性。在VisDrone数据集上的实验结果表明:所提模型的平均精度均值比DSHNet模型提升了1.2%,有效改善了无人机航拍图像小目标漏检、误检的问题。  相似文献   

2.
基于增量式路标表观学习的移动机器人定位   总被引:1,自引:0,他引:1  
在全景图像中,机器人参考定位的路标表观受到畸变、观察视角、路标尺度变化以及环境亮度的影响,致使基于全景视觉的机器人自主定位存在着许多难点有待解决.提出增量式的路标表观学习方法,准确估计路标的表观变化,并为基于粒子滤波的机器人定位过程提供准确的观测信息.增量式路标学习过程利用增量式概率主元分析为理论工具,将不同视角的路标表观的主元特征表示成不断自主更新的特征基底,为计算观测量与路标真实表观的相似度提供了实现途径和理论依据.该学习算法能够被集成到带有重采样的贯序权值采样粒子滤波算法过程中,实现了全景视觉机器人的精确自主定位.实验结果表明:该算法的定位误差小,计算量小,执行效率高,对全景图像中的各类干扰均不敏感.  相似文献   

3.
自主导航技术是无人机、智能机器人以及智能车辆等技术领域中的一项关键技术。为了克服传统视觉导航方法存在的不足,以摄像机自运动估计为理论基础,提出了一种使用地标点修正的高精度双目视觉导航方法。该方法从连续图像序列的帧间变化中提取摄像机自运动信息,再通过速度、角速度积分求得载体的位置姿态等参数。同时,通过引入地标点提供的绝对定位信息,进一步提高了长时间导航的精度。将地标点绝对定位与双目视觉相对定位相结合,并对双目视觉量测噪声建模和解相关,抑制了单纯使用双目视觉长时间导航时误差的积累发散。仿真结果表明此方法具有精度高、自主性强、导航信息完备等优点。  相似文献   

4.
针对无人机航拍图像尺度变化大、识别难度大和目标普遍较小的问题,提出一种基于改进单阶段多框检测器(single shot multibox detector, SSD)的无人机航拍目标检测算法——RCBnet.该算法为了提升网络的特征提取能力,将SSD算法的特征提取网络修改为Resnet-50并采用特征融合的方式,将特征图进行融合,用融合后的特征图构建特征金字塔;为了增强算法对物体的检测能力,设计一种联合注意力机制的多尺度卷积结构来有效调节感受野,实现不同尺寸卷积核对特征图的并行运算;针对训练过程中正负样本极具不平衡的问题,该算法采用Focal Loss损失函数训练网络模型,使其侧重于困难样本.通过与其他经典算法相比可知,所提算法在无人机航拍图像中具有更高的检测精度、更好的检测性能和鲁棒性,相比SSD,精度提高达3.46%.  相似文献   

5.
  总被引:2,自引:2,他引:0  
针对室内无卫星定位下的无人机自主导航问题,提出了一种融合惯导、光流和视觉里程计的组合导航方法。在速度估计上,采用基于ORB特征的光流法,该方法可以实时地估计出无人机的三轴线速度信息。方法采用基于特征点的稀疏光流,对金字塔Lucas-Kanade光流法进行了改进,采用前后双向追踪和随机采样一致的方法提高特征点追踪精度。在位置估计上,采用视觉/惯导融合的视觉里程计,以人工图标法为主,融合视觉光流信息和惯导数据实现无人机定位。通过与运动捕捉系统的定位信息、Guidance和PX4Flow导航模块的测速信息进行对比,以及实际的飞行测试,验证本文方法的可行性。  相似文献   

6.
    
针对无人机(UAV)获取的图像易受雾、霾等天气影响导致图像质量降低的问题,本文提出一种基于大气光鲁棒估计的无人机图像去雾方法。首先,选取具有不同表面反照率的像素块,得到各个图像块的像素直线,利用各条像素直线与大气光共面的性质,估计得到大气光的方向;然后,利用无人机对地成像时图像各像素点的景深相似的特点,定义了图像的全局透射率,通过全局透射率和各像素直线在大气光方向上的投影计算得到大气光幅度;最后,通过对雾天图像模型进行变换得到无雾图像。为使本文方法适用于不同类型的图像,采用了自动调整图像块尺寸和条件阈值等措施来提高方法的鲁棒性。通过真实无人机图像的去雾实验证明,相比现有的图像去雾方法,本文方法在去雾的视觉效果和客观评价指标上都有较大的提升。  相似文献   

7.
TDICCD相机大视场多通道遥感图像自动拼接方法   总被引:1,自引:0,他引:1  
在TDICCD大视场多通道遥感图像的拼接中, 由于存在成像平台谐振及颤振等因素的影响, 以往的经典方法抗噪性和鲁棒性不高, 很难达到图像高精度和快速拼接的要求. 为此, 提出了一种空域互相关自校正亚像素配准方法. 该方法针对TDICCD多通道图像间重叠像素的特点, 采用变搜索窗口的互相关系数作为评价函数; 采用局部检测法监视图像参数的变化, 找出图像每一部分最佳参数; 采用干扰点排除法控制图像中误匹配的点, 使参数更加可信; 在最佳点配准的基础上, 采用所提出的亚像素定位法对配准进行补偿.实际遥感图像拼接结果证明, 该算法精度优于0.1 pixel, 同时比其他方法速度快, 稳定性、抗噪性和鲁棒性都很高, 拼接图像获得了良好的效果.   相似文献   

8.
图像定位常用于无人机视觉导航,传统的无人机视觉导航广泛采用景象匹配导航方式,随着计算机技术的不断发展,深度学习技术为视觉导航的实现提供了新途径。以无人机的垂直侦查为背景,将飞行区域的航拍图像划分成大小相同的若干网格,每个网格代表一类区域,用网格图像制作数据集训练卷积神经网络(CNN)。基于AlexNet设计了一种融合显著性特征的全卷积网络模型,有效实现了一个基于CNN的多尺寸输入的滑动窗口分类器,并提出了一种邻域显著性参照定位策略来筛选分类结果,从而实现多尺寸航拍图像的定位。   相似文献   

9.
针对无人机在动态环境下快速高精度定位的问题,提出了用单目相机对无人机上的人工特征点进行位姿解算的方法。在无人机上放置一定数量的小型LED灯,并将其作为视觉测量的特征点,并以其中一个点作为原点建立无人机机体坐标系。通过多场景测量确定特征点在机体坐标系下的三维位置,再将三维位置与特征点在图像中的成像位置相匹配,最后使用EpnP算法求解出无人机的位置和姿态。在实验部分,利用三轴移动平台和三维转台,分别对位置解算结果和姿态解算结果进行误差测量。试验结果表明,位置解算误差在2%以下,姿态误差在8%左右。同时,该算法的处理时间在2 ms左右,该算法可以满足无人机对定位的实时性和精度的要求。  相似文献   

10.
为了满足月面巡视探测器的自主导航要求.使用一种新的基于尺度不变的特征点提取和匹配算法.首先根据尺度不变特征变换方法从图像中提取关键点作为特征点,然后进行左右双目图像的特征点匹配和视差的恢复.与传统特征算法相比,可以提高对不同光照环境图像匹配的鲁棒性和匹配精度.在模拟试验场的双目视觉图像匹配中,仿真实验取得较好的效果.  相似文献   

11.
相比较传统的视角插值合成方法只能在基线上合成虚拟图像,提出的一种基于三角形重投影的虚拟视角合成方法,可以在已知少数几个匹配点的情况下,将场景内容自动迭代划分为一致和非一致三角形区域,通过不同策略的三角形重投影实现更加自由的视点的虚拟图像合成.划分过程中引入直线段约束可以解决直线纹理在三角形接缝处的畸变问题,保证最后的合成图像中场景表示在此处的连续性.利用设计的可信度函数,沿一定搜索路径可找到更多的新匹配点,从而带来更多的一致三角形区域.将此方法应用到虚拟彩色图像的合成,实验结果证明了此方法可以在更大视点范围内合成逼近于真实图的虚拟图像.  相似文献   

12.
鲁棒的红外小目标视觉显著性检测方法   总被引:1,自引:1,他引:0  
鲁棒的红外(IR)小目标检测是自动目标检测的关键技术,低信噪比条件下的红外小目标检测一直是业内研究热点.为了能有效地检测红外小目标,对红外小目标若干表观特征及其视觉显著性进行了分析,提出一种基于多尺度图像块统计序对比度(MOCIP)的红外小目标视觉显著性鲁棒检测方法,采用两步级联多尺度图像块统计序对比度算法抑制背景和噪声,提升目标强度,获得红外小目标显著性图,并利用自适应阈值实现目标检测.本文详细给出了红外小目标视觉显著性的检测算法,使用红外小目标图像对检测性能进行了实验验证,并与其他检测方法进行了对比.实验结果表明,所提出的方法能够在低信噪比条件下克服噪声和复杂背景的影响,有效地对红外小目标视觉显著性进行检测.   相似文献   

13.
介绍了一种新的面向智能无人机应用的道路检测与跟踪算法.首先从电子道路地图中得到标示道路初始区域的合成图像,然后利用光学图像的距离变换图像、合成图像的边缘图像等信息把道路检测问题表述为一最优化问题,最后利用迭代算法解此问题得到路面区域.道路跟踪利用前一帧检测结果的预测值初始化其对应的优化问题.实验证明该方法具有较高的稳定性和适应能力.   相似文献   

14.
基于MSER的无人机图像建筑区域提取   总被引:1,自引:0,他引:1  
对建筑区域自动检测与提取是无人机(UAV,Unmanned Aerial Vehicle)图像处理的一项重要功能.在分析无人机成像特点和最大稳定极值区域(MSER,Maximum Stable Extremal Regions)算法对无人机侦察图像建筑区域检测的适用性基础上,提出了一种基于MSER的无人机侦察图像建筑区域提取算法.算法包含5步:无人机图像预处理,运用MSER算法分析计算图像稳定区域,通过计算稳定区域密度筛选建筑区域,进一步利用自适应K均值聚类算法对建筑区进行划分,最后采用Graham算法生成建筑区的边界从而实现了建筑区的自动提取.选取无人机实飞图像数据进行实验统计,本算法提取精度为92.25%;同时与基于Gabor变换的纹理特征、SIFT特征点的提取算法相比,建筑区域提取时间缩短,满足无人机实时应用需求.   相似文献   

15.
摘要: 针对用于地外天体着陆视觉导航的路标图像信息存在的计算量大和占用存储空间大等问题,提出一种路标图像的稀疏化表征方法.引入着陆路标图像的尺度估计和尺度变换,采用Harris 算法提取路标特征点,改进了FREAK特征描述子用以稀疏化表征天体路标信息;并针对图像旋转、尺度变化、图像噪声和尺度估计误差4种外界干扰,仿真对比改进算法与原FREAK算法、SURF算法的性能.仿真结果表明:提出的算法大幅减少计算量和特征描述子所占用的存储空间,同时能够正确匹配到更多的路标特征,鲁棒性更好,更适合地外天体着陆任务应用.  相似文献   

16.
本文针对无人机航拍目标检测技术中目标聚集、目标较小及实时性差等问题,将YOLO V5的主干架构进行改进,简化Neck网络,提出了一种提高检测速度又能准确识别的无人机航拍图像检测技术方案。经过仿真实验测试,改进后的YOLO V5网络在保持识别精度的同时,检测速率提升了31%,满足无人机在航拍作业时对于准确性与实时性的要求。  相似文献   

17.
探测器月面着陆点高精度定位是探测器着陆的重要技术环节,也是地外天体探测器开展各项工作的重要前提.本文基于多源图像数据,利用图像特征匹配和多重覆盖影像定位技术,设计了探测器月面着陆点高精度定位方法,并使用嫦娥三号任务相关影像进行了定位实验与精度验证.在高精度图像匹配和几何变换的基础上,降落相机序列影像间的匹配精度达到子像素,LRO NAC影像与中分辨率降落图像的匹配精度优于1pixel,最终解算的嫦娥三号探测器着陆点坐标为(44.1196°N,19.5148°W).本文方法综合利用了多源图像数据,不完全依靠着陆区DOM底图的制图精度,是对影像与DOM底图配准定位结果的进一步精化,在未来的月球着陆探测任务中具有应用价值.   相似文献   

18.
为了从单张RGB图像估计出相机的位姿信息,提出了一种深度编解码双路卷积神经网络(CNN),提升了视觉自定位的精度。首先,使用编码器从输入图像中提取高维特征;然后,使用解码器提升特征的空间分辨率;最后,通过多尺度位姿预测器输出位姿参数。由于位置和姿态的特性不同,网络从解码器开始采用双路结构,对位置和姿态分别进行处理,并且在编解码之间增加跳跃连接以保持空间信息。实验结果表明:所提网络的精度与目前同类型算法相比有明显提升,其中相机姿态角度精度有较大提升。   相似文献   

19.
电动VTOL飞行器双目立体视觉导航方法   总被引:1,自引:1,他引:1  
研究了在未知的、动态的室内走廊环境中,采用双目立体视觉引导电动VTOL(Vertical Take-Off and Landing)飞行器安全飞行的方法.使用安装在飞机上的两个微型摄像头从不同的位置获取图像,由双目立体视觉理论恢复其周围环境特征点的三维坐标.采用角点匹配方法计算视差,实现无人机在走廊中的横向坐标定位.采用区域灰度相关算法进行立体匹配获取视差图,从视差图上检测出障碍物,并给出避障导航点.初步实验验证表明,该方法可行性较高,可以作为进一步研究的基础.   相似文献   

20.
基于扩展卡尔曼滤波的舰机相对位姿估测   总被引:1,自引:0,他引:1  
通过将基于扩展卡尔曼滤波的长序列图像分析方法与单目视觉技术相结合,把无人机自主着舰视觉导引中舰机间相对位姿的估测,转化为机载摄像机对着舰靶标平面3D位姿的实时估测问题.首先根据透视投影理论,建立了以摄像机的透镜中心为原点且Z轴与光轴重合的摄像机坐标系和世界坐标系,然后利用机载摄像机连续拍摄的靶标图像序列,选择描述相对运动的3个欧拉角、平移向量及它们的速度作为状态变量;由靶标角点的提取和帧间匹配,建立了反映着舰靶标上特征点的图像坐标和状态变量之间关系的观测方程,带入扩展卡尔曼滤波器,估测出舰机的相对运动参数.计算机数据仿真和基于DSP平台的半实物仿真试验验证了算法的有效性和鲁棒性.   相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号