SLAM简介 同时定位和映射的简要概述

  • SLAM简介 同时定位和映射的简要概述已关闭评论
  • 1,993 views
  • A+
所属分类:工业4.0

什么是SLAM
SLAM代表同步定位和映射,是解决移动机器人中一个非常重要的问题的概念,由两部分组成:

映射,建立机器人所处环境的地图,以及
本地化,使用地图导航这个环境,同时跟踪机器人的相对位置和方向。

SLAM简介 同时定位和映射的简要概述

Dyson 360 Eye,一种使用SLAM技术的自主式机器人吸尘器


Dyson 360 Eye,一种使用SLAM技术的自主式机器人吸尘器。
有效地解决SLAM问题为自动(自控)移动机器人带来了许多可能性,其中应用了无人驾驶汽车和机器人吸尘器。虽然解决此问题的常见方法包括使用多个胶印相机,深度传感器等,但我们的网站专注于单眼SLAM,它只使用一台相机,然后分析观察的图像。

除移动机器人外,SLAM技术还可用于增强现实(AR),例如Snapchat的面部跟踪滤波器或索尼的AR效果。

视觉SLAM如何工作
SLAM的工作方式可以松散地分为正在进行的过程的四个主要部分。

实现视觉SLAM的第一步是识别许多重要且不同的地标,通常来自摄像机视频图像帧的每个图像的线条(例如桌子或墙壁的边缘)和角落。

接下来,假定环境在每个帧之间不改变,连续或关闭帧中的地标与相机环境中的3D对象相关联。

然后将地标匹配到一起以重新关联已经看到的对象,并且该数据用于生成关于相机的位置(定位)和环境地图(地图)的信息。

通过大量的视频帧和地标,SLAM算法使用这些数据来推断相机移动路径的估计值,以及相机所处环境中所有物体和特征在3D空间中的位置观察到的。它还估计摄像头相对于环境中其他特征的位置。

SLAM简介 同时定位和映射的简要概述

一款低成本无人机,带有显示其正在使用的地标数据的图像

在一些方法和算法的操作中,在移动机器人被释放以自由漫游并执行上述步骤之前,可以注入一些关于环境的初始数据来启动该过程。有一系列不同的算法可以解决这些单个视觉相机的问题,其中一些在本网站上有解释。

扩展卡尔曼滤波器(EKF)
由于移动机器人涉及许多现实因素,计算环境3D地图上的地标和物体的错误是不可避免的。这是由于数学错误积累,分析视频帧的质量,难以准确识别相机本身的地标和缺陷等原因造成的。在单眼SLAM中,特别重要的问题是深度估计。因此,使用了一种考虑这个方法的方法 - 一个EKF。

扩展卡尔曼滤波器算法会跟踪机器人位置的不确定性以及地图上地标的位置。它使用这个累积数据来执行计算,这些计算确定了机器人位置和机器人3D地图上物体位置的最新估计值。这意味着机器人的地图和真实环境之间的错误不会累积起来并“漂移”。

weinxin
微信公众号
agvba是一个分享AGV知识和agv案例视频的网站。