论文部分内容阅读
微电子、计算机技术、人工智能以及机器视觉等领域的迅猛发展,为智能移动机器人进入实用阶段创造了条件。未来的移动机器人必然向着多功能集成的方向发展,这就要求移动机器人具有灵活的自主移动能力。移动机器人要提高其自主程度,必需获取足够多的环境信息以及有效地识别障碍物。而机器人视觉系统是机器人感知环境的重要“器官”,视觉信息能否正确、实时地处理直接关系到移动机器人行驶速度、路径规划、导航以及对障碍物的避碰,对机器人本体控制的实时性和鲁棒性具有决定性的作用。本文的研究工作紧密围绕移动机器人中的两大关键技术:视觉技术和信息融合技术来展开的。立体视觉技术可以使机器人获得丰富的三维环境信息,但单纯的视觉信息还不能完全满足移动机器人实时定位与导航的需要。为了解决这一问题,采用多传感器信息融合技术可以增加机器人对环境变换的适应性,提高决策的正确性和导航控制的鲁棒性。
本文的主要研究工作如下:
1.研究了移动机器人的立体视觉信息处理方法。重点分析立体视觉测距的基本原理、摄像机的成像模型。建立了适用于移动机器人的一阶径向畸变的摄像机模型,提出基于共面点的摄像机线性分解标定方法,通过分步标定,线性求解出摄像机的全部内外参数,避免了非线性优化的烦琐和不稳定。然后在分析现有立体匹配方法的基础上,结合移动机器人的室内环境特点,提出了基于特征约束及区域相关的立体匹配方法,并利用盒滤波技术加快相关系数的计算速度,提高了机器人实时感知三维环境的能力。
2.研究了融合双目视觉和超声波信息的机器人障碍检测。为了抑制传感器测量数据的失真,本文使用基于Kalman原理的距离滤波模型分别对双目视觉和超声波测距信息进行滤波操作,在此基础上,提出了一种基于Kalman模型的优化融合算法,对分别来自双目视觉和超声波的距离数据进行融合估计。为了有效地检测障碍物,本文提出了基于Bayes理论以及模糊先验概率和代价函数的分布式障碍物检测融合算法,对分别来自视觉和超声波信息预处理的障碍物的局部目标检测结果进行决策级信息融合,得到障碍物检测的全局判决,该算法可以有效提高障碍物检测准确率。
3.运用上述理论算法,成功地研制了由传感器组件、图像处理子系统、超声波测距子系统和运动控制子系统组成保安巡逻机器人。为了提高机器人实时感知环境能力,本课题研制了基于FPGA+DSP的协处理器结构实时图像处理系统,FPGA完成大数据量的底层处理,DSP完成运算复杂的算法,采用流水线的方式并行运算,提高图像处理实时性;研制了基于CPLD的高精度多路超声波测距子系统,设计了回波精确捕捉、可变门槛控制、有效回波判断等模块,提高距离测量精度和抗干扰能力;采用开放式参数化设计思想,研制了基于LM629运动控制子系统,采用直流电机、位置反馈和速度反馈装置形成闭环伺服控制,实现了平滑控制和大力矩输出;基于嵌入式Linux操作系统,运用多线程技术编写了机器人控制系统的软件,实现了图像信息的实时处理及多传感器的信息融合。通过对障碍物与机器人之间相对距离信息的准确识别,保证了移动机器人的安全避障性能。目前,保安巡逻机人将应用到一些超市和医院等大型场所的保安巡逻工作中,可节省人力、提高效率。本课题创造性地将机器人技术与社会需求相结合,立足于解决保安巡逻自动化的迫切社会需求,巡逻机器人的制作成本控制在合理的价格范围,因此具有广阔的市场前景。