论文部分内容阅读
移动机器人的即时定位与建图(Simultaneous Location and Mapping,SLAM)已成为当前计算机视觉领域研究的热点之一。视觉里程计作为计算机视觉即时定位与建图中最重要的环节,在移动机器人的定位导航中发挥着关键性作用,也是移动机器人当前应用最广泛的定位方法。视觉里程计是通过已标定的相机采集图像帧,检测提取图像帧信息进行匹配优化,然后使用计算机视觉几何和相机参数模型等来估计移动机器人的6自由度位姿。本文系统地研究了双目视觉里程计各环节的基本算法理论,重新改进了视觉里程计的相关算法,提出了一种新的双目视觉里程计的实现方法,克服了传统视觉里程计精度低、误差较高的问题。视觉里程计的基本理论主要包括图像特征基元的提取、图像特征匹配、优化以及移动机器人位姿估计。本文首先基于脉冲耦合神经网络(Pulse-coupled Neural Network,PCNN)的神经元变阈值点火特性研究了特征光流的跟踪特性。这种变阈值点火特性优点在于,能够自适应的对输入小尺度连续图像帧的边缘特征进行点火标记,且标记的边缘特征具有旋转不变性、强度不变性、尺度不变性以及扭曲不变性,从而使跟踪后的特征点也具有这些特性。使用Middlebury数据集、KITTI数据集以及实拍数据集进行算法验证,实验结果表明变阈值点火后的特征能够计算得到更稠密的光流场,从而间接证明了光流具有跟踪特性。然后基于LK特征光流的跟踪特性与ORB(Oriented FAST and Rotated BRIEF)算法,提出了一种融合匹配算法LK-ORB。LK-ORB算法首先使用ORB提取的特征点进行局部特征窗口的金字塔特征光流跟踪,计算特征点位移矢量,然后提出由粗到精的匹配策略进行特征点匹配,使用Málaga数据集和New College数据集进行算法验证,实验结果显示本文融合匹配算法的特征匹配率可达到98%,由粗到精的匹配策略具有较高的精度。最后针对传统算法特征匹配精度低误差高,从而导致定位移动机器人定位精度下降的问题,提出一种鲁棒高效的移动机器人位姿估计算法。算法分别从初始位姿估计和优化两个线程出发构建双目视觉里程计系统,其中为了使特征跟踪后重投影误差结果最小,在初始位姿估计线程中引用了一种闭环匹配策略即对两对连续双目图像帧中的特征点进行循环匹配,通过计算匹配点重投影误差和BA优化完成位姿估计。算法性能验证使用KITTI数据集和EuRoC数据集,实验结果显示本文提出的算法在短时间的运动位姿估计中还是非常具有挑战性的,平均平移误差为0.98%,旋转误差为0.0028 deg/m。为了进一步检测算法的有效性,本文使用自搭建的无人车平台采集室外场景图像构建数据集进行实验测试并与车载GPS定位结果作对比。实验结果表明,本文算法能够估计得到与真实位姿基本一致的位姿。