论文部分内容阅读
近年来,随着人工智能的快速发展,自主移动机器人相关技术受到了广泛关注。研究移动机器人在未知环境中的定位方法,对提高其小型化、自主化、智能化具有重要意义。其中视觉传感器因其低廉的价格和丰富的信息,在移动机器人领域得到广泛的应用。但是以视觉为主的定位方法由于图像模糊、运动过快和视觉缺失等因素引起的误差,不能保证其准确度。针对上述问题,本文基于单目视觉与惯导信息融合,对移动机器人室内定位算法进行研究。论文的主要内容包括以下几个部分:首先,对视觉信息与惯导信息融合的研究背景和研究现状做了概述。并对视觉惯性融合基础理论做了介绍,包括常用的相机模型、坐标系转换和姿态描述以及基于优化的SLAM基本原理。其次,针对移动机器人的位姿估计问题,给出了一种单目视觉与惯导融合的方法。该算法包括前端和后端两部分,其中视觉前端采用Harris角点进行检测和跟踪,惯性单元的前端则采用预积分对陀螺仪和加速度数据进行处理。在算法的后端通过紧耦合的方式优化滑动窗口内的IMU测量残差、视觉测量残差以及先验信息,估计出移动机器人的位姿信息。通过实验验证了该算法的有效性,同时发现该算法对旋转误差较大的缺点。然后,为提高室内环境下该算法的鲁棒性和精确性,在视觉前端增加线特征的检测和跟踪,为了获得三维空间线的计算简便性和表示紧凑性,采用了普吕克坐标和该线的正交表示。在后端优化中将集成的IMU误差项与点和线的重新投影误差项组合在一起优化。在公共数据集上的评估实验验证了改进算法的有效性以及更高的精度。最后,为验证视觉惯性融合算法的有效性和可移植性,在室内环境下做视觉惯导融合实验。将单目视觉惯性相机、上位机和小车组成一套移动平台,在室内场地进行了视觉惯导定位实验,实验结果表明改进后的算法具有更高精度和鲁棒性,同时也证明了算法的通用性和可移植性。