论文部分内容阅读
室内移动机器人同时定位与建图(SLAM)是实现机器人自主导航的基础,也是实现机器人智能化的先决条件。近年来,随着视觉传感器的发展,基于深度相机的RGB-D SLAM成为视觉SLAM研究的主流。然而,传统RGB-D SLAM算法在位姿估计中,用于特征匹配的信息受限,使得位姿估计不准确,有时还会产生位姿丢失。另外,由于累计误差的存在,使得估计出的相机轨迹存在漂移,难以获得全局一致的相机运动轨迹。针对位姿估计存在的问题,本文提出了一种基于局部地图和RANSACPnP结合的位姿估计方法。针对传统RBG-D SLAM使用两两帧进行匹配时特征点受限的问题,本文使用局部地图,尽可能保存前续帧的特征点信息,使得可匹配的特征点增多。另外,使用RANSAC算法与PnP算法结合,有效排除外点对位姿估计的影响,得到更精确的位姿估计。针对算法运行过程中产生的累计误差,本文提出了基于局部BA和全局位姿图优化的位姿优化方法。在获取位姿估计后,通过局部BA将位姿优化问题转化为最小化重投影误差问题,对相机位姿进行微调,使其更接近真实位姿。另外,引入关键帧,并进行基于关键帧的回环检测,将关键帧位姿和回环检测结果加入位姿图进行位姿优化,得到全局一致的相机运动轨迹。在TUM数据集上的实验结果表明,该算法实时性好,精确性高,在一般的室内场景下均可以有效运行。