论文部分内容阅读
移动机器人利用自身携带传感器对其周边环境快速建模,实现自主定位、行为规划、动态决策等关键任务是衡量移动机器人智能感知能力的核心技术问题。而未知环境下的移动机器人同时定位与地图创建(Simultaneous Localization and Map,SLAM)是机器人领域代表性研究热点之一。本研究针对基于视觉的移动机器人位姿估计与环境建模问题展开了研究。首先,针对视觉定位过程中鲁棒性模型估计问题,提出一种基于概率导向的改进随机抽样一致性(Improved Probability-guide Random Sample Consensus,IPGSAC)算法。其次,根据主动视觉传感器特点,分别提出了基于稀疏图像特征匹配和混合模型的移动机器人位姿估计与地图创建算法。在上述算法启发下,提出了基于地面特征的移动机器人单目视觉里程计算法。并进一步利用改进PTAM(Parallel Tracking and Mapping)算法,建立了环境的三维稀疏特征地图。最后,在上述稀疏特征地图基础上,提出了基于视觉反馈的变分深度估计模型,实现了环境的稠密三维建模。本论文具体研究内容如下:(1)针对现有改进的RANSAC(Random Sample Consensus)算法仅利用迭代过程中部分数据实现测试点评价,导致算法可靠性差等问题,提出一种基于概率导向的改进RANSAC算法。该算法利用混合概率分布建立测试样本初始概率估计。结合全概率公式与包含测试点的内点集合统计数据建立测试样本的多源评估策略。采用DS(Dempster-Shafer)证据理论实现上述评估值的融合,获取具有更高准确性的测试样本评价。同时,引入遗忘理论消除迭代过程中误判信息的干扰,提高了算法的可靠性。最后,在所建立概率评价的基础上,运用逆变映射原理,增加了对具有较大概率测试点的采样可能,有效提高了算法的收敛速度。实验结果表明,与标准RANSAC、MSAC、NAPSAC、MLESAC算法相比,所提IPGSAC算法在收敛速度和精度等方面均具有较大的优势。(2)根据主动视觉传感器可直接获取环境深度信息的优势,提出了基于深度相机的移动机器人同时定位与地图创建算法。首先,利用图像特征匹配获取地图创建过程中的数据关联,并推导建立移动机器人位姿估计模型,结合所提IPGSAC算法有效实现了移动机器人的精确定位。其次,针对位姿估计过程中由于缺少几何约束问题,提出一种基于混合位姿估计模型的移动机器人三维地图创建方法。该方法利用点云与纹理加权模型建立结合局部纹理约束的混合位姿估计方法,在确保定位精度的同时减少其失败率。最后,根据上述位姿估计算法构建关键帧选取机制,利用基于视觉的闭环检测与优化算法,实现了环境三维地图的全局一致性优化。在室内环境下的实验结果,验证了所提算法的有效性与可行性。(3)受启发于基于主动视觉的移动机器人位姿估计算法,选取地面特征作为先验信息,提出了基于单目相机的移动机器人视觉里程计估计方法。首先利用地面特征获取机器人运动过程中的数据关联,建立基于单应性关系的移动机器人位姿估计模型。在RANSAC算法框架下求解上述模型,实现非地面特征的粗排异与移动机器人的初始位姿估计。在此基础上,分别运用特征三角形化结构下的法向估计差异与特征点空间结构差异建立了非地面特征去除方法,有效提高了移动机器人定位精度。同时,结合稠密光流估计算法建立了稠密地面区域分割与移动机器人定位算法模型。最后,将所提视觉里程计算法应用于初始化改进PTAM算法,结合极线搜索过程中特征的单应性约束,实现了移动机器人周边环境的三维稀疏特征地图构建。实验结果表明所提视觉里程计算法具有较高的定位精度,同时改进PTAM算法能有效建立具有较高质量的三维特征地图。(4)针对传统变分深度估计模型中缺少几何约束问题,引入观测视角光流平滑性约束,结合三维场景流算法建立视觉反馈机制,提出了一种基于视觉反馈的变分深度估计模型。分别利用离散空间采样与特征三角形网格化的初值方法获取环境深度初始值,并运用原始对偶算法求解所提算法模型,实现了环境稠密深度图估计。最后,在已建立三维稀疏特征地图上,实现了基于变分模型的移动机器人单目视觉三维稠密地图构建。实验结果表明所提算法在一定程度上实现移动机器人周边环境的三维建模,验证了所提算法的有效性与可行性。