基于改进ORB算法的移动机器人视觉SLAM方法研究

0 引言

作为移动机器人实现智能化的关键技术,同步定位与 地图创建(Simultaneous Localization And Mapping,SLAM)[1] 在移动机器人的自主导航、自主控制中发挥着重要的意 义。随着视觉传感器[2]的发展,视觉 SLAM 在移动机器人 中的应用越趋普遍。 视觉信息与惯性导航系统相结合, 可以避免移动机器人对有源信号的依赖,更满足于无源 条件下的导航需求,具有体积小、重量轻、安装方便等优 点。 根据使用视觉传感器类型的不同,将视觉 SLAM 划 分为 : 单目(Monocular) 视觉 SLAM、 双目 (Binocular) 视觉 SLAM 和深度(RGB-D)视觉 SLAM。 深度视觉 SLAM 利用 深度相机记录周围场景的同时, 能够输出 RGB-D 图像信息(彩色图像与深度图像),有效地解决了单目相机没 有深度信息、 双目相机求解深度信息计算量繁重的问 题。 在 RGB-D SLAM 算法中,特征提取算法的选择会影 响整个系统的实时性。 目前,在 RGB-D SLAM 算法中应 用最为广泛的特征点检测与提取算法有 SIFT[3]、SURF[4] 和 ORB[5]3 种。

尺度不变的特征变换(Scale-invariant Feature Transform,SIFT)是一种特征检测与描述子提取算法。 该算法 在旋转、尺度的缩放、光照条件的变化、噪声干扰等方面 受到的影响较小,具有较好地稳定性。 加速鲁棒性特征 (Speeded Up Robust Features,SURF)算法是对 SIFT 算法 的改进, 其具有稳健的局部特征点检测和描述符特征。 与 SIFT 算法相比,SURF 算法采用了积分图像和 Harr 特 征使得 SURF 算子在速度上有了一定的提高。 但上述两种算法都要求建立高维描述符,需要大量的内存空间和 较长的运行时间[6],该两种特征点提取算法都不适合应 用在对系统实时性要求较高的 RGB-D SLAM 算法中。

为满足 RGB-D SLAM 算法对系统实时性的要求,在 此使用运算速度较快的 ORB(Oriented FAST and rotated BRIEF)算法。 该算法的运算速度是 SIFT 的 100 倍,是 SURF 的 10 倍[7]。 但是,ORB 算法存在特征点分布不均 匀、输出重叠特征点较多等问题。因此,本文提出一种改 进 ORB 算法, 并且使用一种特征点分布均匀度的评价 方法计算特征点的分布情况。

1 基本原理

1.1 RGB-D SLAM 算法

RGB-D SLAM 算法由前端数据处理和后端优化处 理两部分组成。 前端数据处理主要对 Kinect 相机采集的 彩色图像与深度图像进行处理,得到相邻两帧图像之间 的运动关系,进而定量地估计相机的运动情况,恢复三 维场景的空间结构。 后端优化处理主要对前端生成的数 据结果进行优化,使用滤波与非线性优化方法、引入回 环检测解决 RGB-D SLAM 过程中存在的噪声问题,最 终生成全局最优的运动轨迹和三维空间环境地图。

1.2 ORB 算法基本原理

在 ORB 算法中,特征点提取采用改进 FAST(oFAST) 算法 , 特征点描述子采用具 有旋转 不变 性的 BRIEF (rBRIEF)算法。 ORB 算法对角点方向测量时使用灰度质 心法[8]。 假设某角点的灰度与其所在的邻域重心没有完 全重合,发生了偏移,可以通过角点灰度坐标到质心之 间形成的向量计算出角点的主方向。 定义角点邻域的 (p+q)阶矩,如式(1)所示:

基于改进ORB算法的移动机器人视觉SLAM方法研究

式中,I(x,y)是图像的灰度表达式。 通过式(1)可以得到 图像的零阶矩 m00、一阶矩 m01 和 m10,如式(2)所示:

基于改进ORB算法的移动机器人视觉SLAM方法研究

基于改进ORB算法的移动机器人视觉SLAM方法研究-AGV吧
基于改进ORB算法的移动机器人视觉SLAM方法研究
此内容为付费资源,请付费后查看
20积分
付费资源
© 版权声明
THE END
喜欢就支持一下吧
点赞7 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容