大尺度环境的多机器人视觉激光同步定位与制图研究

  • 大尺度环境的多机器人视觉激光同步定位与制图研究已关闭评论
  • 58 views
  • A+
所属分类:AGV设计资料
摘要

移动机器人的同步定位与制图(SLAM,Simultaneous Localization and Mapping)是移动机器人在未知环境下工作的核心技术。随着机器人的技术快速发展,研究人员提出了很多优秀的SLAM算法,但大都集中在单机器人上,当机器人工作在环境规模比较大或者环境比较复杂的条件下时,单机器人就无法稳定的实现SLAM。本文提出了基于激光和视觉的多机器人SLAM算法,来解决单机器人效率低、任务量小、系统鲁棒性弱的问题。虽然多机器人SLAM可以有效解决单机器人的问题,但是它也面临了单机器人所没有的挑战。首先机器人不知道各自初始相对位置关系,导致无法直接建立机器人之间的联系,进而无法预知合适的策略将多个机器人地图融合成一张完整性和连续性的地图。其次,每个机器人的定位都存在累积误差,这些累积误差在地图融合后会叠加,从而导致融合后的地图出错,如何消除这些误差的影响也是一个难点。针对以上问题,本文提出了一种基于激光和视觉融合的方法,来实现多机器人SLAM算法。激光SLAM具有实时性高和建图精确的优点,但是当机器人处于环境结构比较相似或者比较复杂的环境中,只依靠激光很容易做出错误的闭环检测,进而导致建图效果不理想。而视觉具有信息丰富的特点和快速场景识别能力,所以本文提出了采用视觉辅助激光的方法来帮助机器人进行闭环检测,从而消除单机器人累积误差对于地图创建和定位的影响。此外,多个机器人通过TCP/IP Socket交换各自的视觉信息,彼此之间利用视觉信息,建立与其他机器人之间的联系。当一个机器人走到另一个机器人的曾经走过的轨迹时,通过本文采用的视觉场景识别算法,就可以建立多机器人位姿图节点之间的位姿约束关系。以这些节点为桥梁,通过随机抽样一致性和最小二乘算法,我们就可以求出多个机器人坐标系之间的变换关系,通过这个变换关系将多个机器人的位姿图变换到一个坐标系下,从而完成位姿图的融合。融合后的位姿图用高斯牛顿迭代算法进行优化可以矫正累积误差的影响,最后结合每个节点的激光数据,就可以生成全局栅格地图。无论单机器人的闭环检测还是多机器人约束建立都用到视觉的场景识别算法,本文为了提高场景识别算法的效率,采用ORB特征和视觉词袋技术,使用视觉单词表示图像提取的ORB特征,并根据视觉单词建立查询表文件,由于匹配查询表文件非常迅速,从而提高了匹配效率,保证场景识别算法的实时性。为了验证本文所提算法的有效性,本文搭建了基于Turtlebot的多机器人实验平台,并在在不同的实验环境下进行了多组实验,多个机器人融合后地图与真实环境基本一致,从而验证了算法的有效性和可行性。本文所获得的成果可以广泛的应用于家庭服务机器人、物流机器人、无人机等领域,对于机器人的在我国应用推广有较大的意义。

论文目录
摘要
ABSTRACT

第1章 绪论

1.1 课题研究背景及意义
1.2 SLAM方法分类
1.3 国内外研究现状
1.3.1 国内研究现状
1.3.2 国外研究现状
1.4 本文主要研究内容

第2章 SLAM算法理论基础

2.1 图优化SLAM算法介绍
2.2 视觉词袋的建立
2.2.1 ORB特征提取
2.2.2 视觉词袋的建立
2.3 随机样本一致性算法
2.4 本章小结

第3章 多机器人约束求解算法

3.1 多机器人之间的通信
3.2 场景识别
3.3 位姿求解
3.3.1 姿态解算
3.3.2 视觉 3D点云获取
3.3.3 光束平差法
3.4 本章小结

第4章 分布式多机器人地图融合算法

4.1 单机器人SLAM
4.1.1 单机器人的图优化框架
4.1.2 帧间匹配
4.2 地图融合算法
4.3 位姿图求解与优化
4.4 本章小结

第5章 实验平台搭建及实验结果分析

5.1 实验平台的搭建
5.1.1 ROS操作系统
5.1.2 硬件平台的搭建
5.2 实验结果及分析
5.2.1 实验设计思路
5.2.2 不同环境中实验的结果及分析
5.3 本章小结
结论
参考文献
攻读硕士学位期间发表的论文及其它成果
致谢

抱歉,此资源仅限赞助会员下载,请先
注意:本站资源多为网络收集,如涉及版权问题请及时与站长联系QQ:2766242327,我们会在第一时间内与您协商解决。如非特殊说明,本站所有资源解压密码均为:agvba.com。
weinxin
微信公众号
agvba是一个分享AGV知识和agv案例视频的网站。