论文部分内容阅读
基于鱼眼镜头的全方位视觉成像系统在微小型机器人视觉导航和近距离大视场物体识别与定位中有着广泛的应用,鱼眼镜头视场角接近180°,可以实现近距离或超近距离大视场立体视觉感知,是近几年被广泛关注、热门研究的视觉感知技术。
本文采用光流场的方法来识别运动目标,光流法能够在不了解场景的任何信息的情况下,检测出运动的对象;目标跟踪算法则基于经典的粒子滤波理论,它适用于任何可用状态空间模型表示的非线性非高斯系统,精度逼进最优估计。
本文在国家863 计划项目“基于全方位视觉的移动机器人动态目标探测与导航”(项目编号:2007AA04Z229)的支持下,对基于全方位视觉的移动机器人机动目标识别跟踪进行研究,取得的主要成果和结论如下:
1.建立了基于鱼眼镜头的全方位视觉图像的畸变矫正系统。采用基于立方体投影模型来矫正畸变的鱼眼图像,并用基于立方体投影的鱼眼镜头图像畸变校正系统对鱼眼图像进行了畸变校正。
2.用改进的光流法在图像中寻找特征点进行匹配,检测出图像序列的运动目标,在运动目标识别的基础上,利用目标的有效特征,通过粒子滤波预测运动目标在后续帧中的参数,建立相邻帧间的匹配矩阵,分析匹配矩阵判断运动目标状态,从而有效地跟踪运动目标。在此基础上,建立了光流-粒子复合识别跟踪器。
3.本文以猎豹教学研究机器人Leobot-Edu为研究对象,在对光流法和粒子滤波分别进行仿真分析对比并得出结论后,建立了基于全方位视觉的移动机器人机动目标识别导航系统。