论文部分内容阅读
移动机器人是一类通过外部传感器感知环境和自身状态,对复杂环境进行自主分析与决策,从而实现指定功能的机器人系统。移动机器人在运动过程中最主要需解决的是自身导航与定位问题。在众多导航技术中,使用立体视觉进行移动机器人的导航、避障,是移动机器人导航的一个主要发展方向。为满足移动机器人导航中立体匹配算法的精确性与实时性的要求,本文研究了使用动态规划为优化方法的全局立体匹配算法。传统DP算法虽然执行速度快,但存在着匹配精度较低,匹配视差图表面易产生条纹瑕疵、物体边界方向处存在较多误匹配等问题。针对这些问题,本文首先在初始匹配代价求取阶段,实现了一种通过获取物体边界信息从而判定视差变化区域,并根据像素点所处的视差变化区域选用合适大小窗口的能量聚合方法。通过该聚合方法获取了较高精度的初始视差图,为后续视差获取阶段打下良好的基础。在视差求取阶段,本文建立了采用水平、垂直及物体边界多方向约束作为平滑性约束的新的全局函数。其中物体边界方向约束针对物体边界像素点,以前一行边界点的视差信息对当前边界点进行约束,强化物体边界像素点的视差不连续性,提升了边界区域像素点匹配准确率,大大减少了边界误匹配现象。在三状态DP的状态转换选择上,应用边界轮廓信息及该多方向平滑约束,避免了三状态状态转换与实际物理情况不符的局面,最后在算法前向寻径阶段及路径回溯阶段,采用多路径回溯的方法,更多地保留有效视差信息,减小因分散在扫描线上的畸变点造成的匹配误差。实验证明,本文方法解决了一般DP算法存在的条文瑕疵与边界误匹配问题,提升了匹配精度,满足了实际应用场合对立体匹配算法实时性的要求。最后,本文将提出的立体匹配算法应用于AS-R机器人平台中,通过搭载的双目摄像机获取场景图片,并制定相应的避障策略,实现了对机器人的行为控制。实验证明,应用本算法的移动机器人可以在室内环境下自如地完成发现避障物、测量距离及最终实现行进避障工作。