ORB-SLAM2车载双目视觉的自主导航性能评估

  • ORB-SLAM2车载双目视觉的自主导航性能评估已关闭评论
  • 128 views
  • A+
所属分类:AGV设计资料
摘要

针对全球定位系统用于车载导航在复杂环境下定位精度较低、低成本惯导漂移明显等问题,给出ORB-SLAM2用于车载双目视觉自主导航的原理和方法,介绍特征匹配与提取及位姿估计优化部分的关键技术,评估采用不同轨迹、不同运动状态的车载数据的性能,重点分析ORB-SLAM2整体的定位定姿精度、累积误差随距离的变化以及回环检测对车载定位定姿的影响。实验结果表明:持续的动态物体干扰会对ORB-SLAM2整体的导航精度有所影响;无回环探测时,位置误差随行驶距离呈现明显的1%线性发散,成功的回环检测能够有效抑制位置姿态误差的发散并提高其精度,定位精度保持在2m左右。

0 引言

近几年来,随着无人机、无人驾驶汽车、智能移动机器人相关技术的飞速发展,视觉导航作为一种非传统的定位技术被广泛应用。文献[1-2]提到:视觉导航仅利用单一相机传感器完成,精度稳定且无需场景和运动的先验信息,可避免由于传感器精度降低或低成本惯性测量单元(InertialMeasurementUnit,IMU)漂移严重引起的误差发散问题;其被动无源的特点,也弥补了全球卫星导航系统(GlobalNavigationSatelliteSystem,GNSS)在复杂城市或室内环境下信号易受遮挡而无法定位的缺陷。

自1982年文献[3]首次提出了一套完整的基于计算机视觉的理论框架以来,视觉导航领域的相关算法和应用层出不穷。视觉导航算法根据其对图像信息的利用程度可分为特征法和直接法。直接法直接对图像所有像素点进行操作,可充分利用环境几何信息,其代表作为文献[4]的基于直接法的大范围单目即时定位和地图构建方法(large-scaledirectmonocularsimultaneouslocalizationandmapping,LSD-SLAM),在精确计算自身位姿的前提下,还可构建出大规模的半稠密地图。而单目定位构图(monocularsimultaneouslocalizationandmappingmono-SLAM)、平行跟踪与地图构建(ParallelTrackingandMapping,PTAM)等算法则采用了对图像关键信息进行检测提取的特征法。mono-SLAM基于扩展卡尔曼滤波器实现,将相机位姿及地图点3D坐标作为状态向量进行观测更新,算法计算复杂度较高,且线性化也造成了一定误差。文献[5]提出基于关键帧提取及光束法平差优化的PTAM算法,首次将定位与构图分为2个独立工作的线程。2014年文献[6]提出的半稠密单目视觉里程计算法(semi-directmonocularvisualodometry,SVO)则融合了特征法与直接法,首先采用加速分割检测特(FromAcceleratedSegmentTest,FAST)角点跟踪关键点,再根据关键点的周围信息估计帧间位姿,其实时性高、算法简洁,非常适用于平台受限的场合,如无人机、手持增强现实(augmentedreality,AR)及虚拟现实(Virtualreality,VR)设备等,该法对位姿估计精度依赖性强,易出现丢失和重定位的情况。为达到实时性的自主导航定位要求,文献[7]将特征信息在用于位姿估计后不进行保留,后续优化仅依据位姿关系,减轻了存储计算负担,其基于光束法平差(bundleadjustment,BA)的实时视觉定位构图算法成为了在大范围内进行定位构图的开创性作品。文献[8]的基于外观的实时定位构图方案(Real-timeappearance-basedmapping,RTAB-MAP)则从内存管理机制角度出发,将定位点根据被访问的频率及存在的时间长度设置权重,以此为依据进行分类与修剪,从而提高了回环检测的效率。

文献[9-10]提出的基于旋转不变特征点的实时定位构图系统(orientedbrief-SLAM,ORB-SLAM)被公认为现有综合性能最好的视觉导航算法:在整体架构上延续了PTAM的多线程思想;但改进了PTAM需手动进行初始化的缺陷,扩展了应用环境的多样性和系统的交互性。ORB-SLAM
实现了基于单目相机的实时算法,而ORB-SLAM2在此基础上扩展为双目、RGBD相机,并被广泛应用于采集车、无人机及室内外机器人等设备。

本文采用不同采集环境的车载数据对双目视觉自主导航性能进行评估,重点分析其整体定位定姿精度、累积误差随距离的变化情况以及回环检测对定位结果的影响。

1利用ORB-SLAM2进行位姿估计

ORB-SLAM2整个系统分为位置跟踪、局部地图优化、回环检测3个并行处理的线程,其整体架构如图1所示。

ORB-SLAM2车载双目视觉的自主导航性能评估

图1 ORB-SLAM2算法整体架构

跟踪线程主要负责每帧影像的位姿估计。经畸变矫正的双目序列影像和相机的标定参数输入至系统后,采用具有方向信息的多尺度FAST算子对影像进行特征提取,并用256位的具有方向信息的二元加速鲁棒特征(orientedbinaryrobustin-dependentelementaryfeatures,rBRIEF)二进制描述符表示特征点。根据小孔成像原理以及双目相机高度一致、光轴平行的特点,左右影像匹配后可重构出每对匹配点在相机坐标系中的坐标。将第一帧影像的左相机坐标系作为系统参考坐标系,通过序列影像的帧间匹配可将特征点的世界坐标进行传递和扩展,在帧间进行3D-3D对应估计可获得参考坐标系与每帧影像的相对位姿关系。设第i帧中某匹配特征点在该帧相机坐标系中的坐标为(x,y,z),与i-1帧进行匹配可得该点在系统参考坐标系中的坐标为(X,Y,Z)

抱歉,此资源仅限赞助会员下载,请先
注意:本站资源多为网络收集,如涉及版权问题请及时与站长联系QQ:2766242327,我们会在第一时间内与您协商解决。如非特殊说明,本站所有资源解压密码均为:agvba.com。
weinxin
微信公众号
agvba是一个分享AGV知识和agv案例视频的网站。