融合直接法与特征法的快速双目SLAM算法

1 引言(Introduction)

随着机器人定位理论的不断发展以及计算机视觉技术的不断进步,基于视觉的机器人同时定位与地图创建的研究成为机器人研究领域的热点[1-3].利用视觉信息进行同时定位与地图创建,获得的机器人3维位姿信息和环境信息,是移动机器人执行其他任务的基础.然而由于环境的未知性、复杂性和机器人任务的多样性,机器人对定位的鲁棒性、实时性和精确性有很高的要求.

目前,一般采用3种视觉传感器获取环境信息:单目摄像头、RGB-D传感器和双目摄像头.由于单目摄像头只是方向感知器,无法获得像素点的真实深度,因此仅仅采用单目的SLAM算法无法获取机器人运动和环境信息的真实尺度,并且在计算中存在尺度偏移问题[4-7].RGB-D传感器可以获取像素点深度,但范围有限,且受红外线影响较大,功耗也较高,因此基于RGB-D传感器的SLAM算法主要应用在室内环境[8-10].而具有固定基线的双目摄像头含有真实尺度信息,可以恢复图像中像素点的深度,且受红外线影响较小,相比 RGB-D 传感器而言,对环境的适应性较好[10-12].

VSLAM 中的 VO(visual odometry,视觉里程计) [13] 用于估计连续图像帧之间的位姿变换,是VSLAM 的重要组成部分.VO 主要采用 2 种方式计算:直接法和特征法.直接法利用图像灰度值,通过最小化光度误差来获取机器人的位姿信息,计算像素深度,实现自身定位和建图.特征法首先提取图像特征点和描述子,进行特征点匹配后通过最小化重投影误差计算机器人位姿[1].直接法相对于特征法,由于不需要提取图像特征,执行速度较快;对图像的光度误差鲁棒性较高,但是对相机内参要求很高,当存在几何噪声时算法性能下降较快;在发生图像运动模糊的情况下依然可以实现相机定位,但对大基线运动的鲁棒性较差.

文 [5] 提出融合直接法与特征法的 SVO(fastSemi-direct monocular VisualOdometry)算法,由于在跟踪过程中不需要提取特征点,可以达到很高的运行帧率.但 SVO 是为无人机的下视相机设计的,无法适应复杂的机器人运动,对环境的要求较高.并且 SVO 采用单目相机,无法恢复真实的位姿信息和场景尺度.另外 SVO 是视觉里程计,也无法实现闭环功能来提高定位和建图的一致性.Krombach [14] 所做的工作与文 [15] 提到的思路类似,融合了直接法 SLAM(LSD SLAM) [6] 和特征法VO(LIBVISO2) [11],利用特征法得到的运动估计作为直接法计算的初始值.该算法可以获得半稠密的深度地图,但算法的视觉里程计精度有待提高.

本文对融合直接法与特征法的算法进行改进,设计新的融合框架,提出一种快速双目 SLAM 算法(FBSLAM,fast binocular SLAM).在跟踪线程中使用直接法获得初始的相机位姿估计和像素点的对应关系.在特征提取线程中获取图像特征,并与局部建图线程交互,采用特征法进一步优化相机位姿和环境地图.对机器人被绑架后回到已探索环境的情况进行处理:在机器人被绑架后重新获得可靠的图像信息时,重新开启新的 SLAM 过程,若与被绑架前的环境发生闭环,则进行被绑架前后的闭环融合,得到更完整的环境信息和机器人轨迹信息.

2 双目相机模型(Stereo camera model)

假设双目图像已经通过矫正,即环境中的地图点 P 在 2 幅图像上

融合直接法与特征法的快速双目SLAM算法-AGV吧
融合直接法与特征法的快速双目SLAM算法
此内容为付费资源,请付费后查看
20积分
付费资源
© 版权声明
THE END
喜欢就支持一下吧
点赞7赞赏 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容