基于立体视觉的空间动态目标测量与跟踪算法设计

  • 基于立体视觉的空间动态目标测量与跟踪算法设计已关闭评论
  • 41 views
  • A+
所属分类:AGV设计资料
摘要

计算机视觉通过分析和理解图像来理解周围环境。深度感知是计算机视觉的重要组成部分,深度感知可以使机器人感知三维空间环境,并实现自主导航。在计算机视觉中,深度感知是通过立体匹配来实现的。立体匹配是指两个具有水平位移的相机获取的图像对中像素之间的对应关系,并通过计算对应像素之间的视差得到深度信息。提出的立体匹配方法,可以实时恢复高度准确的视差。该方法结合了使用输入图像的梯度和Census变换计算的像素相异性度量,采用边缘保持双边滤波器的高效近似的非迭代局部视差选择方案,视差细化技术通过不断迭代细化,并通过惩罚与使用局部视差梯度产生的视差估计不一致的视差来消除误匹配像素,提高了视差估计的准确性。使用了Middlebury立体性能基准进行评估,所提出的方法在训练图像集和测试图像集的测试中分别排名前五位,以立体匹配的总体准确性来衡量,在标准图像分辨率下视差的绝对误差大于2个像素。同时,该方法对于15个训练集图像对中的3个图像对以及15个测试集图像对中的3图像对有着最低的错误率。所提方法在照明条件变化或相机曝光不同引起的辐射畸变的情况下实现高精度、实时性的鲁棒匹配。所提出的方法适用于机器人导航和三维重建等应用。设计了一种基于该方法的的立体视觉跟踪系统来估计空间动态目标的位置、速度和运动方向的系统。该系统包括立体视觉测距,目标检测和跟踪,跟踪误差最小化。这些误差主要是由于立体像素匹配过程中的图像量化限制和像素误匹配。虽然更复杂的匹配算法可以得到更精确的三维重建结果,但是时间成本很高。该系统结合简单的立体匹配算法,以及基于扩展卡尔曼滤波器的预测校正方法,使用代表空间目标运动和立体测量的概率模型的合适选择,最小化与立体测量相关的跟踪误差,提高目标状态估计的准确度。模拟实验结果表明了该系统的有效性,在不同的运动条件下,可以得到目标状态的精确估计。

目 录
基于立体视觉的空间动态目标测量与跟踪算法设计
摘 要
Abstract
目 录
图目录
表目录

第 1 章 绪论

1.1 课题来源与研究意义
1.2 立体视觉的国内外研究现状
1.2.1 相机标定的国内外研究现状
1.2.2 立体匹配的国内外研究现状
1.3 论文主要研究内容
1.4 论文结构安排

第 2 章 改进 BFGS 算法的相机自标定法

2.1 简化的非线性相机模型
2.2 基本矩阵下相机的非线性内参数约束方程
2.3 求解非线性内参数的改进 BFGS 算法
2.4 仿真实验与分析
2.5 真实图像实验与分析
2.6 本章小结

第 3 章 基于迭代优化的立体匹配方法

3.1 立体匹配的基本方法
3.1.1 自适应权重匹配算法
3.1.2 成本聚合滤波
3.1.3 成本聚合滤波的改进
3.2 改进的迭代视差细化法
3.2.1 算法原理
3.2.2 算法实现
3.3 算法性能评估
3.3.1 参数调整
3.3.2 使用 Middlebury version 2 评估算法
3.3.3 使用 Middlebury version 3 评估算法
3.4 本章小结

第 4 章 基于立体视觉的跟踪系统设计

4.1 三自由度气浮平台结构设计
4.1.1 机械结构设计
4.1.2 气动回路设计
4.1.3 空间目标运动符号与坐标系
4.2 运动模型和测量模型建模
4.2.1 运动模型建模
4.2.2 测量模型建模
4.3 算法设计
4.3.1 双目相机的标定与精度
4.3.2 立体视觉处理
4.3.3 TLD 跟踪器
4.3.4 EKF 算法设计
4.3.5 系统总体算法
4.4 本章小结

第 5 章 仿真实验与分析

5.1 空间目标与跟踪系统均以直线运动
5.1.1 EKF 参数
5.1.2 位置与时间的关系
5.1.3 速度与时间的关系
5.1.4 运动方向与时间的关系
5.1.5 均方根误差
5.1.6 中速与快速测量结果
5.2 空间目标以正弦曲线运动跟踪系统以直线运动
5.2.1 EKF 参数
5.2.2 位置与时间的关系
5.2.3 速度与时间的关系
5.2.4 运动方向与时间的关系
5.2.5 均方根误差
5.2.6 中速与快速测量结果
5.3 空间目标与跟踪系统均以正弦曲线运动
5.3.1 EKF 参数
5.3.2 位置与时间的关系
5.3.3 速度与时间的关系
5.3.4 运动方向与时间的关系
5.3.5 均方根误差
5.4 本章小结

第 6 章 结论与展望

6.1 主要工作与创新点
6.2 研究展望
参考文献
致 谢
作者简历及攻读学位期间发表的学术论文与研究成果

图目录

图 2.1 标定仿真的收敛过程
图 2.2 标定仿真结果
图 2.3 用于自标定的景物图像
图 2.4 特征点的重投影误差
图 3.1 成本聚合的边缘保持滤波
图 3.2 自适应支持权重方法示意图
图 3.3 指数步长自适应权重(ESAW)
图 3.4 自适应支持权重及其近似值的比较
图 3.5 立体匹配算法流程
图 3.6 立体匹配误差率和各参数相对于迭代次数变化趋势
图 3.7 tsukuba 视差图在执行所提出算法的各阶段效果图
图 3.8 Middlebury 立体基准标准数据集对立体匹配方法进行测试的结果
图 3.9 2005 数据集生成的视差图
图 3.10 2006 数据集生成的视差图
图 3.11 各成本度量标准对图像进行立体匹配得到的一致性视差对比图
图 3.12 视差图与深度模型
图 3.13 Version 3 训练集视差图(1/2)
图 3.14 Version 3 训练集视差图(2/2)
图 3.15 Version 3 测试集视差图(1/2)
图 3.16 Version 3 测试集视差图(2/2)
图 4.1 三自由度气浮平台三维建模
图 4.2 三自由度气浮平台底座板三维建模
图 4.3 喷嘴安装位置及工作方式示意图
图 4.4 喷气气路
图 4.5 气足气路
图 4.6 喷气次数占空比设计
图 4.7 喷气时间占空比设计
图 4.8 空间目标相对于本体参考系和惯性坐标系的一般运动表示
图 4.9 跟踪问题的运动学表示
图 4.10 空间点 P 的投影误差
图 4.11 立体视觉跟踪系统的结构框图
图 4.13 TLD 跟踪器的数据流
图 5.1 有噪声情况下 TG 与 CH 校正前的相对位置
图 5.2 无噪声情况下 TG 与 CH 校正前的相对位置
图 5.3 绝对位置与时间的关系
图 5.4 TG 与 CH 的相对位置关系
图 5.5 速度与时间变化关系(EKF 测量结果)
图 5.6 速度与时间变化关系(原始测量结果)
图 5.7 运动方向与时间的关系
图 5.8 中速范围(左)和快速范围(右)下绝对位置与时间的关系
图 5.9 中速范围(左)和快速范围(右)下 TG 与 CH 相对位置关系
图 5.10 中速范围(左)和快速范围(右)下运动速度与时间的关系
图 5.11 中速范围(左)和快速范围(右)下运动方向与时间的关系
图 5.12 CH 与 TG 的运动轨迹
图 5.13 正弦曲线的坐标变换
图 5.14 绝对位置与时间的关系
图 5.15 TG 与 CH 的相对位置关系
图 5.16 速度与时间变化关系(EKF 测量结果)
图 5.17 速度与时间变化关系(原始测量结果)
图 5.18 运动方向与时间的关系
图 5.19 中速范围(左)和快速范围(右)下绝对位置与时间的关系
图 5.20 中速范围(左)和快速范围(右)下 TG 与 CH 相对位置关系
图 5.21 中速范围(左)和快速范围(右)下运动速度与时间的关系
图 5.22 中速范围(左)和快速范围(右)下运动方向与时间的关系
图 5.23 CH 与 TG 的运动轨迹
图 5.24 慢速范围(左)和快速范围(右)下绝对位置与时间的关系
图 5.25 慢速范围(左)和快速范围(右)下 TG 与 CH 相对位置关系
图 5.26 慢速范围(左)和快速范围(右)下运动速度与时间的关系
图 5.27 慢速范围(左)和快速范围(右)下运动方向与时间的关系

表目录

表 2.1 相机的外参数及重投影误差
表 3.1 垂直方向视差细化的单循环迭代
表 3.2 水平方向视差细化的单循环迭代
表 3.3 基于匹配成本惩罚的重新分配视差
表 3.4 立体匹配参数表
表 3.5 Middlebury 立体算法评估标准(Version 2)前 15 个最精确的立体算法 (2017 年 12 月 31 日)
表 3.6 Middlebury 立体算法评估标准(Version 2)给出的实时局部立体匹配算 法的精度
表 3.7 Version 2 数据集的立体匹配错误率
表 3.8 实时局部立体算法的速度和精度比较
表 3.9 Version 3 训练集在非遮挡区域的密集结果
表 3.10 Version 3 训练集使用 bad 0.5 度量在非遮挡区域的密集结果
表 3.11 Version 3 训练集使用 bad 1.0 度量在非遮挡区域的密集结果
表 3.12 Version 3 训练集使用 bad 2.0 度量在非遮挡区域的密集结果
表 3.13 Version 3 训练集使用 bad 4.0 度量在非遮挡区域的密集结果
表 3.14 Version 3 训练集使用 avgerr 度量在非遮挡区域的密集结果
表 3.15 Version 3 训练集使用 rms 度量在非遮挡区域的密集结果
表 3.16 Version 3 训练集对所有已知像素真实视差的密集结果
表 3.17 Version 3 测试集在非遮挡区域的密集结果
表 3.18 Version 3 测试集使用 bad 0.5 度量在非遮挡区域的密集结果
表 3.19 Version 3 测试集使用 bad 1.0 度量在非遮挡区域的密集结果
表 3.20 Version 3 测试集使用 bad 2.0 度量在非遮挡区域的密集结果
表 3.21 Version 3 测试集使用 bad 4.0 度量在非遮挡区域的密集结果
表 3.22 Version 3 测试集使用 avgerr 度量在非遮挡区域的密集结果
表 3.23 Version 3 测试集使用 rms 度量在非遮挡区域的密集结果
表 3.24 Version 3 测试集对所有已知像素真实视差的密集结果
表 3.25 Version 3 训练集匹配时间(s)
表 3.26 Version 3 测试集匹配时间(s)
表 4.1 空间目标运动描述符号
表 4.2 使用 EKF 输出的立体测距实验
图 4.12 深度精度曲线
表 4.3 立体处理算法
表 4.4 TLD 跟踪器算法
表 4.5 EKF 算法
表 4.6 系统总体算法
表 5.1 EKF 参数
表 5.2 各测量结果的均方根误差
表 5.3 均方根误差
表 5.4 EKF 参数
表 5.5 均方根误差

抱歉,此资源仅限赞助会员下载,请先
注意:本站资源多为网络收集,如涉及版权问题请及时与站长联系QQ:2766242327,我们会在第一时间内与您协商解决。如非特殊说明,本站所有资源解压密码均为:agvba.com。
weinxin
微信公众号
agvba是一个分享AGV知识和agv案例视频的网站。