首页 | 本学科首页   官方微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 781 毫秒
1.
反舰导弹对舰船要害部位的精确打击能力是精确制导武器的关键技术之一。针对反舰导弹导引头对舰船要害部位检测精度低、特征提取能力不足,预测框的处理降低检测速度等问题,提出了一种多尺度特征融合的Anchor-Free轻量化舰船要害部位检测算法。由于舰船要害部位检测数据具有多尺度、多角度特性,引入多尺度特征融合模块,综合利用不同感受野的检测信息,优化特征提取;利用高效轻量化注意力机制改进Hourglass结构中的跨层连接,提升检测精度,降低算法总参数量;使用迁移学习有效提升算法收敛效果。在建立的舰船要害部位检测数据集和公开的PASCAL VOC数据集进行实验,检测准确率分别提升了4.41%和5.57%,分析算法参数与运算量,设计了模块消融实验,论证了所提算法的有效性。   相似文献   

2.
为了从单张RGB图像估计出相机的位姿信息,提出了一种深度编解码双路卷积神经网络(CNN),提升了视觉自定位的精度。首先,使用编码器从输入图像中提取高维特征;然后,使用解码器提升特征的空间分辨率;最后,通过多尺度位姿预测器输出位姿参数。由于位置和姿态的特性不同,网络从解码器开始采用双路结构,对位置和姿态分别进行处理,并且在编解码之间增加跳跃连接以保持空间信息。实验结果表明:所提网络的精度与目前同类型算法相比有明显提升,其中相机姿态角度精度有较大提升。   相似文献   

3.
为实现对空间姿态翻滚航天器的在轨服务与维护以及对空间碎片的清理,需对其进行精确的相对位姿测量。针对相对位姿测量问题,提出了基于单目视觉与卡尔曼滤波的相对位姿测量方法。通过对特征点匹配算法进行调查,采用了具有尺度不变性与旋转不变性的尺度不变特征变换算法(SIFT)和加速稳健特征算法(SURF)的特征点提取方法,并对二者进行了对比,得到了二者分别适用的工况条件。通过对Kalman滤波算法进行研究,引入了相机偏置矩阵,设计了Kalman滤波器,解决了单目相机的距离模糊问题,估计得到了非合作目标的相对位姿、主惯量比以及特征点位置信息。经过仿真,姿态角度估计误差在稳定后低于0.3°,相对位置估计误差在稳定后低于0.5m,相较于真值,误差小于1.67%,主惯量比估计误差在稳定后低于0.01,特征点位置误差在稳定后低于0.005m。在引入相机偏置条件后,滤波状态变量均收敛,并得到具有足够精度的估计,成功解决了单目相机深度信息缺失问题。  相似文献   

4.
基于先验子图检测的失效航天器SLAM方法   总被引:1,自引:0,他引:1  
基于激光雷达的航天器位姿估计技术是当前在轨服务研究热点。针对失效航天器位姿估计,将通用的图优化SLAM技术应用到空间非合作目标的研究中。为解决SLAM算法在动态场景中产生累积误差问题,利用失效航天器自身运动特点,提出一种基于先验子图检测改进的SLAM算法。在该算法中,通过激光雷达和惯性测量单元分别采集失效航天器及周围环境的点云数据、服务航天器的运动信息,构建出服务场景下航天器的相对位姿图;再采用先验子图检测方法建立不连续的位姿节点间的约束关系;最后用约束信息对位姿图进行优化。仿真结果表明,相较于通用的SLAM算法的位姿估计,该方法减小了累积误差,提高了相对位姿估计精度,可以为后期的导航、控制等在轨任务提供信息。  相似文献   

5.
基于普吕克直线的交会对接相对位姿确定算法   总被引:1,自引:0,他引:1  
为了描述航天器交会对接中的相对位置和姿态测量信息,提出了结合特征线的双目视觉测量以及普吕克直线方程来进行航天器交会对接的相对位姿测量算法。传统算法中航天器的相对位姿是分开测量和计算的,普吕克直线方程则统一描述了两个航天器的相对位姿信息。首先采用双目视觉算法计算得到目标航天器中两条非共面直线在追踪航天器下的坐标值,然后根据普吕克直线方程得到这两条直线在两个坐标系下的相对位姿关系,最后通过采用奇异值分解的方法解算出两个航天器间的相对位姿信息。仿真结果表明该算法不仅实现了位置和姿态的统一测量,而且能够满足航天器交会对接相对位姿的测量要求,验证了该算法的科学合理性与解算快捷性。  相似文献   

6.
精确测量追踪航天器与目标航天器之间的相对位姿关系是成功完成航天器交会对接任务的关键。传统的位姿测量算法将旋转和平移分而视之,破坏了三维运动的统一性,同时增加了算法的复杂性和计算难度。针对这个问题,采用双目视觉测量方法,在马达代数框架内,以两个特征光点确定的特征直线为变换基元,统一描述并设计算法测量追踪与目标航天器之间的位姿关系,最终将两航天器之间的相对位姿解算问题简化为求解两个线性方程组。该方法在计算形式上更为简洁,且测量受特征光点的安装位置限制较小。仿真结果表明,算法具有较高的精度和稳定性,可以满足航天器交会对接任务的要求。  相似文献   

7.
基于点云的空间非合作目标位姿估计,常受到噪声影响.提出截断最小二乘估计与半定松弛(truncated least squares estimation and semidefinite relaxation, TEASER)与迭代最近点(iterative closest point, ICP)的结合算法,提升空间非合作目标位姿估计精度与鲁棒性.该方法包括粗配准与精配准两个环节:在粗配准环节中,基于局部点云与模型点云的方向直方图特征(signature of histogram of orientation, SHOT)确定匹配对,利用TEASER算法求解初始位姿;在精配准环节中,可结合ICP算法优化位姿估计结果.北斗卫星仿真实验表明:在连续帧位姿估计中,噪声标准差为3倍点云分辨率时,基于TEASER的周期关键帧配准方法的平移误差小于3.33 cm,旋转误差小于2.18°;与传统ICP方法相比,平均平移误差与平均旋转误差均有所降低.这表明所提出的空间非合作目标位姿估计方法具有良好的精度和鲁棒性.  相似文献   

8.
针对整流罩分离过程中的空间目标三维位姿跟踪测量,设计了双目视觉测量系统,完成整流罩关键点的空间三维坐标测量。基于各特征点的图像处理、识别及跟踪测量算法,结合极线约束匹配,实现目标点的精确立体匹配,可完成不同目标特征点的三维空间坐标解算,进而获取不同运动姿态时的速度、加速度等关键信息,为整流罩机械设计、动力学设计提供参考依据。  相似文献   

9.
针对可重构航天器模块超近距离对接场景下特征点消失问题,提出一种可见光/激光的高精度相对位姿测量方法。该方法先通过可见光/激光组合对初始相对横滚角误差进行校零,完成粗校准环节;然后通过激光二维双镜反射法进行精确的相对位姿解算,获得高精度相对位姿数据。仿真结果表明,在现有技术条件下,该方法在模块相对距离在100cm内可不依赖视觉特征点,实现±1.2mm和±0.03°的相对位姿测量精度,为模块航天器对接后续的超近距离高精度位姿控制奠定基础。  相似文献   

10.
针对无人机在动态环境下快速高精度定位的问题,提出了用单目相机对无人机上的人工特征点进行位姿解算的方法。在无人机上放置一定数量的小型LED灯,并将其作为视觉测量的特征点,并以其中一个点作为原点建立无人机机体坐标系。通过多场景测量确定特征点在机体坐标系下的三维位置,再将三维位置与特征点在图像中的成像位置相匹配,最后使用EpnP算法求解出无人机的位置和姿态。在实验部分,利用三轴移动平台和三维转台,分别对位置解算结果和姿态解算结果进行误差测量。试验结果表明,位置解算误差在2%以下,姿态误差在8%左右。同时,该算法的处理时间在2 ms左右,该算法可以满足无人机对定位的实时性和精度的要求。  相似文献   

11.
针对惯性行人导航中航向角发散致使导航精度降低的问题,提出了一种基于零速修正与姿态自观测的惯性行人导航算法。通过四条件零速检测算法对行走步态中的零速区间进行检测。在检测得到的零速区间内,利用零速修正算法原理构造速度误差的观测量;利用零速区间内行人脚部与地面保持静止、只受到重力加速度及姿态角不变的特性,构造姿态角误差的观测量。应用卡尔曼滤波对零速区间内的姿态角、速度及位置的误差进行估计。利用得到的误差状态估计结果对行人导航进行误差校正,提高惯性行人导航的精度。实验表明:小范围矩形路径中,所提算法的导航轨迹相对误差平均值仅占总路程的0.98%,比零速修正算法减小了78.11%;导航轨迹误差标准差仅为0.14 m,比零速修正算法减小了88.62%;400 m标准操场闭合路径中解算终点相对位置误差仅为1.18%。解算轨迹与实际轨迹匹配度较高,具有良好的应用价值。   相似文献   

12.
基于深度学习的目标检测算法通常需要使用非极大值抑制等后处理方法对预测框进行筛选,无法在行人拥挤的场景下平衡模型的检测精度和召回率。虽然迭代检测的方法可以解决非极大值抑制等方法带来的问题,但是重复检测同样会限制模型的性能。提出了一种历史信息特征敏感的行人迭代检测方法。引入带权重的历史信息特征(WHIC),提高特征的区分度;利用历史信息特征提取模块(HIFEM)得到不同尺度的历史信息特征,并融合进主网络中进行多尺度检测,增强了模型对历史信息特征的敏感度,有效抑制重复检测框的产生。实验结果表明:所提方法在拥挤场景的行人检测数据集CrowdHuman和WiderPerson上取得了最优的检测精度和召回率。  相似文献   

13.
针对立方星在轨服务任务中的近距离相对导航问题,提出一种相对位姿测量视觉传感器设计。为应对空间复杂的光照条件,设计一种具有多层结构的立体靶标,选取波长为850nm的LED灯作为立体靶标的光源。在相机镜头处安装850nm的红外窄带滤镜以提高立体靶标成像质量。为提高视觉传感器的测量精度,提出一种迭代直接求解(iterative direct solution, IDS)的相对位姿估计算法。该算法直接利用立体靶标上的非共面点提供的深度信息获得初始相对位姿,然后引入Haralick迭代算法来优化初始测量结果。搭建六自由度实验平台对该视觉传感器进行性能测试。实验结果表明,该视觉传感器能克服背景光的干扰,且提出的 IDS相对位姿估计算法的精度优于经典的P3P算法和EPnP算法。  相似文献   

14.
针对雷达/红外复合导引头中存在天线罩折射以及外部干扰问题,在三维模型下,提出一种基于扩展卡尔曼滤波(EKF,Extended Kalman Filter)的多模型算法,对天线罩斜率进行估计,并将估计结果代入EKF,降低观测视线角中的天线罩折射干扰,形成最优局部估计.采用基于环境信息的加权因子法对雷达/红外局部估计结果进行融合,通过环境信息度量传感器测量结果的可信度,忽略不可信的局部估计结果.设计4组算例检验融合算法性能,仿真结果表明:所提算法可以准确估计天线罩斜率,合理并有效使用雷达/红外传感器信息,提高系统估计精度.  相似文献   

15.
基于改进型YOLO算法的遥感图像舰船检测   总被引:1,自引:1,他引:0  
目标检测算法在PASCAL VOC等数据集中取得了非常好的检测效果,但是在大尺度遥感图像中舰船目标的检测准确率却很低。因此,针对可见光遥感图像的特点,在YOLOv3-Tiny算法的基础上增加了特征映射模块,为预测层提供丰富的语义信息,同时在特征提取网络中引用残差网络,提高了检测准确率,从而有效提取舰船特征。实验结果表明:优化后的M-YOLO算法检测准确率为94.12%。相比于SSD和YOLOv3算法,M-YOLO算法的检测准确率分别提高了11.11%和9.44%。   相似文献   

16.
针对现有深度学习图像修复算法修复壁画时,存在特征提取不足及细节重构丢失等问题,提出了一种多尺度特征和注意力融合的生成对抗壁画修复深度学习模型。设计多尺度特征金字塔网络提取壁画中不同尺度的特征信息,增强特征关联性;采用自注意力机制及特征融合模块构建多尺度特征生成器,以获取丰富的上下文信息,提升网络的修复能力;引入最小化对抗损失与均方误差促进判别器的残差反馈,从而结合不同尺度的特征信息完成壁画修复。通过对真实敦煌壁画数字化修复的实验结果表明,所提算法能够有效保护壁画图像的边缘和纹理等重要特征信息,并且主观视觉效果及客观评价指标均优于比较算法。  相似文献   

17.
针对雷达导引头的测量信息带有闪烁噪声的问题,研究了交互式多模型和鲁棒滤波在雷达导引头目标机动估计中的应用.采用Huber Based滤波理论改进高阶容积卡尔曼滤波,提出高阶容积鲁棒滤波算法,选取Singer模型、“当前”统计模型、常加速度模型作为目标机动模型,建立雷达导引头测量模型,结合交互式多模型算法框架,设计目标机动估计滤波器.蒙特卡洛数字仿真结果表明,所提算法的鲁棒性较强,与传统高斯滤波相比,所提算法对闪烁噪声具有更高的滤波精度.  相似文献   

18.
为获取实时、精确的船舶升沉运动信息,根据船舶升沉运动模型和频谱分析方法,建立描述惯性测量单元(IMU)的加速度测量信息与船舶升沉运动状态量关系的解析模型。基于无迹卡尔曼滤波(UKF)算法非线性滤波的特点,进行升沉运动滤波解算。通过仿真分析证明了所提方法在船舶升沉运动测量中的有效性。利用三自由度平台升沉运动测量实验验证,结果表明,同一模型下,相比于扩展卡尔曼滤波(EKF)算法的解算结果,所提方法具有更快的收敛速度和更高的测量精度;对船舶升沉位移的估计精度达到最大升沉幅值的5%,可以得到精确、无时延的船舶升沉运动信息。   相似文献   

19.
针对传统深度学习模型在进行焊缝缺陷检测时对小缺陷目标检测效果不理想问题,提出基于改进深度学习Faster RCNN模型的焊缝缺陷检测算法,算法通过多层特征网络提取多尺度特征图并共同作用于模型后续环节,以充分利用模型中的低层特征,增加细节信息;改进模型的区域生成网络,加入多种滑动窗口,从而优化了模型锚点的长宽比设置,提高检测能力。实验表明,改进Faster RCNN模型取得最优的缺陷检测结果,对于小缺陷目标仍取得较好的检测精度,从而验证了算法的有效性。  相似文献   

20.
针对复杂场景下的人眼检测问题,间接方法和直接方法具有一定的局限性。提出了一种不依赖人脸检测的直接型人眼检测算法,以解决复杂场景下多尺度尤其是小尺度人眼检测问题。算法通过减少下采样因子并加入扩张残差单元以提升小尺度人眼检测能力,且对多尺度特征相互拼接以保证多尺度人眼检测的精度。同时,算法借助于压缩特征输出通道降低了模型复杂度,使人眼检测效率得以提升。实验结果表明:所提模型可以在小尺度下有效地进行左右眼区分,并在红外数据上表现良好。经在DIF数据集上进行训练与测试,所提模型在较小尺度下人眼检测精度达到82.59%,检测效率达到30.5 fps。   相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司  京ICP备09084417号