论文部分内容阅读
定位技术是智能机器人进行自主作业的基础和关键。机器人可以通过轮式编码器、激光雷达、摄像头、GPS、IMU等传感器获取自身运动信息或周围环境信息来完成自主定位。单一的传感器不可避免会存在测量误差,而多源信息融合能减少误差,更准确地估计出自身的运动状态,提高自主定位的稳定性。
早期传感器的信息融合定位算法主要通过滤波实现,主要的滤波方法有EKF,UKF,粒子滤波器等,其在单线激光等约束较少的情况下表现良好。融合视觉信息的定位算法存在多帧共视或者回环等多帧关联约束,但是由于滤波仅考虑相连上一帧的约束,会丢失多帧关联约束,导致定位精度较差。目前,基于视觉的的融合算法中滤波逐渐被非线性优化代替,通过建立多帧视觉和其他传感器之间的约束,得到局部轨迹的最优估计,优化精度比滤波高,但规模增大时效率低于滤波,实时性较差,而且缺乏全局位姿信息的校正,容易产生累积误差。在不考虑计算效率的情况下,优化的方法常常比滤波的方法在精度上有更好的表现,在实际进行信息融合时,应综合考虑计算能力、数学模型等因素选择合适的融合方法。
针对目前信息融合定位算法的不足,本文提出了一种多源信息融合定位算法以提升定位的精度和计算速度,主要分为以下三部分:
(1)提出了轮式编码器辅助的快速激光雷达匹配定位算法:用轮式编码器得到机器人的运动状态,作为粒子滤波中激光匹配迭代的初始值,加速迭代的计算,结合地图先验信息,得到机器人的全局位姿估计,为校正第二部分视觉IMU融合的局部位姿做准备。
(2)提出了基于滑动窗口的视觉IMU紧耦合优化定位算法:采用滑动窗口法控制非线性优化计算的规模,当采集到新的图像帧后,从优化窗口中剔除历史相机帧的位姿状态,制定不同的边缘化策略保留剔除帧的约束信息,在保证计算速度的同时不影响定位精度,得到局部轨迹的最优估计。
(3)提出了一种基于扩展卡尔曼滤波的激光和视觉IMU结果融合的定位算法:因为算法(2)得到的位姿估计已经是由视觉IMU的多帧关联约束优化得到,所以这里了采用更快速的滤波方法。通过扩展卡尔曼滤波融合在上述两种算法中得到的机器人位姿估计,以快速激光匹配得到的全局位姿估计消除局部视觉IMU紧耦合优化产生的累积误差,得到运动状态的最优估计。并将其应用到机器人仿真运动数据集上,对比分析融合前后的轨迹和误差,验证了本文算法的有效性和优越性。
最后基于ROS机器人操作系统和Youbot搭建了实验软硬件平台,应用本文的多源信息融合定位算法,完成了移动机器人的定位实验。实验环境包括大规模提取特征点困难的室外场景和小规模纹理丰富的室内场景,验证了本文算法的有效性和可靠性。最后在KITTI公共数据集上测试了本文的算法,并将定位结果与开源的ORB和VINS算法结果进行误差对比分析,验证了本文算法相比于VINS结果取得了一些提升,与ORB算法结果相近。
早期传感器的信息融合定位算法主要通过滤波实现,主要的滤波方法有EKF,UKF,粒子滤波器等,其在单线激光等约束较少的情况下表现良好。融合视觉信息的定位算法存在多帧共视或者回环等多帧关联约束,但是由于滤波仅考虑相连上一帧的约束,会丢失多帧关联约束,导致定位精度较差。目前,基于视觉的的融合算法中滤波逐渐被非线性优化代替,通过建立多帧视觉和其他传感器之间的约束,得到局部轨迹的最优估计,优化精度比滤波高,但规模增大时效率低于滤波,实时性较差,而且缺乏全局位姿信息的校正,容易产生累积误差。在不考虑计算效率的情况下,优化的方法常常比滤波的方法在精度上有更好的表现,在实际进行信息融合时,应综合考虑计算能力、数学模型等因素选择合适的融合方法。
针对目前信息融合定位算法的不足,本文提出了一种多源信息融合定位算法以提升定位的精度和计算速度,主要分为以下三部分:
(1)提出了轮式编码器辅助的快速激光雷达匹配定位算法:用轮式编码器得到机器人的运动状态,作为粒子滤波中激光匹配迭代的初始值,加速迭代的计算,结合地图先验信息,得到机器人的全局位姿估计,为校正第二部分视觉IMU融合的局部位姿做准备。
(2)提出了基于滑动窗口的视觉IMU紧耦合优化定位算法:采用滑动窗口法控制非线性优化计算的规模,当采集到新的图像帧后,从优化窗口中剔除历史相机帧的位姿状态,制定不同的边缘化策略保留剔除帧的约束信息,在保证计算速度的同时不影响定位精度,得到局部轨迹的最优估计。
(3)提出了一种基于扩展卡尔曼滤波的激光和视觉IMU结果融合的定位算法:因为算法(2)得到的位姿估计已经是由视觉IMU的多帧关联约束优化得到,所以这里了采用更快速的滤波方法。通过扩展卡尔曼滤波融合在上述两种算法中得到的机器人位姿估计,以快速激光匹配得到的全局位姿估计消除局部视觉IMU紧耦合优化产生的累积误差,得到运动状态的最优估计。并将其应用到机器人仿真运动数据集上,对比分析融合前后的轨迹和误差,验证了本文算法的有效性和优越性。
最后基于ROS机器人操作系统和Youbot搭建了实验软硬件平台,应用本文的多源信息融合定位算法,完成了移动机器人的定位实验。实验环境包括大规模提取特征点困难的室外场景和小规模纹理丰富的室内场景,验证了本文算法的有效性和可靠性。最后在KITTI公共数据集上测试了本文的算法,并将定位结果与开源的ORB和VINS算法结果进行误差对比分析,验证了本文算法相比于VINS结果取得了一些提升,与ORB算法结果相近。