论文部分内容阅读
本文研究结构化环境下基于信息融合的道路场景感知技术。集中研究在结构化环境下摄像机与激光雷达的标定技术、融合技术、以及若干基于融合的环境感知技术。本文的工作是国家自然科学基金重大研究计划重点项目“高速公路车辆智能驾驶中的关键科学问题研究”(90820302)中自主驾驶汽车环境感知系统的重要组成部分。取得的研究成果和创新点如下:1.提出一种车载摄像机外参数三线标定法。利用结构化环境下常见的三线结构,实现摄像机相对车体的外参数标定。在实际应用中,本方法比传统基于标定板的方法更为简便、稳定。2.提出一种车载摄像机外参数自动标定方法。基于本文提出的车载传感器标定三约束(相关约束、消失点约束、地平面约束)及对应的优化求解法,实现摄像机与车体间外参数的自动标定。首次实现了,在车辆仅有平面运动的情况下,车载摄像机所有外参数的精确求解。3.提出一种车载摄像机与三维激光雷达间外参数的自动标定方法。首次实现了,在无需参数初始化、无需传感器重叠视野条件下,两传感器间外参数的自动标定。实际应用表明本方法效率高、求解精确。4.提出一种动态场景深度图像恢复方法。利用稀疏的激光雷达数据和对应的高分辨率视觉图像,恢复得到图像每个像素位置对应的深度值。方法包含以下两个算法:基于滤波的算法,在传统算法的基础上,通过引入运动信息提升恢复精度,通过采样近似提升恢复效率,实现了更快、更好的动态场景深度图像恢复。基于优化的算法,将静态场景中常用的优化框架引入动态恢复问题,首次实现了动态场景下优化的深度图像恢复,进一步提升了恢复精度。5.提出一种基于信息融合的深度场模型,并应用于路边检测。本文提出的路边检测方法对阴影干扰、障碍物遮挡具有较强的鲁棒性,且能有效扩展路边检测的范围。对10厘米高度差的路边,本方法有效检测范围横向可达8米,纵向可达30米。以上成果,为我校红旗系列自主驾驶系统将要进行的2000公里长距离自主驾驶实验提供了技术支撑。