论文部分内容阅读
行车环境感知是高级驾驶辅助系统中最核心的内容,其行车环境信息的获取通常依赖于车载感知设备。而在车-路协同系统中,智能路侧设备作为另一种重要的环境信息感知方式,通过车-车/车-路通信技术,实现与智能车载设备的感知信息交互,从而使系统获取更全面丰富的行车环境信息。然而行车环境信息复杂多样,如何根据实际需求对行车信息进行采集、处理及融合,实现行车环境感知,是高级驾驶辅助系统中非常重要的研究课题。本文在提出一种基于车-路视觉协同的行车环境感知系统框架的基础上,针对系统的信息感知需求,对车道线和车辆信息感知方法和基于上述感知信息的行车环境表征方法进行研究。具体研究内容有:(1)基于车-路视觉协同的行车环境感知系统框架设计。在深入分析高级驾驶辅助系统的行车环境信息感知与交互需求的基础上,结合车路协同系统基本结构,提出了一种基于车路视觉协同的行车环境感知系统框架。该框架以路侧相机和车载相机作为主要传感装置,以车-路通信方式进行数据传输和交互,以智能路侧设备和智能车载终端作为行车环境感知与交互的核心载体,实现车辆自身状态感知和车道线、障碍车辆等环境信息的感知。(2)基于车载视频的结构化道路车道线识别方法研究。在传统基于模型匹配的车道线检测与跟踪方法的基础上,进一步考虑车道线类型对衡量车辆变道行为是否合法的重要性,实现了一种基于非均匀B样条(NUBS)曲线模型匹配的车道线检测、分类与跟踪方法。在根据车道线边缘信息确定NUBS曲线控制点的基础上,首先制定车道线分类策略,将车道线分为虚、实两类;然后利用NUBS曲线重构和曲线估计实现车道线检测与跟踪。实验结果表明该方法能够有效地实现车道线的检测、分类与跟踪,而且对车道线边缘信息小部分丢失的情况有较好的鲁棒性。(3)基于路侧视频的车辆检测与跟踪方法研究。针对车辆边缘特征提取易受噪声和背景干扰的问题,提出基于非采样高斯差分多尺度边缘融合的车辆检测方法。经过非采样高斯差分金字塔分解、边缘检测和边缘融合得到的车辆多尺度边缘图像,继承了大、小尺度图像边缘的优点,同时消除了金字塔分解过程中上/下采样对边缘检测结果的影响。对车辆多尺度边缘图像进行形态学处理和连通性分析即可实现车辆检测。实验结果表明该方法能够较好地实现不同天气条件下的车辆检测。针对传统方法中车辆检测与跟踪用不同方法实现,算法复杂度较高的问题,提出基于SIFT特征匹配的车辆检测与跟踪方法。相邻两帧图像经过SIFT特征匹配、几何对齐和差分后,在得到的差分图像上通过搜索绝对误差和较大区域实现车辆检测。建立车辆跟踪样本集,将车辆检测的结果作为跟踪样本,与当前帧进行SIFT特征匹配实现车辆跟踪。此外,制定样本集更新机制,识别和处理车辆驶入、驶出相机视野以及停驶三种情况下的车辆跟踪问题。(4)基于车-路视觉协同感知信息的行车环境表征方法研究。首先实现了基于Occupancy grid的行车环境表征方法。该方法改进了传统Occupancy grid模型点对点的数据映射关系,考虑车辆大小信息对行车环境表征结果的影响,将车辆位置坐标点通过高斯分布映射到模型中。采用贝叶斯概率理论融合车辆位置与车道线信息,计算模型中每个单元的“空闲”和“占用”概率。实验结果表明,改进后的方法能够实现更准确的行车环境表征。进一步地,考虑Occupancy grid计算量大且贝叶斯概率理论不能处理“不确定”问题的缺点,提出基于动态信任度网格的行车环境表征方法。根据车辆大小和车道线位置信息建立网格模型,采用Dempster-Shafer证据理论对GPS车辆位置信息、车辆检测与跟踪信息和车道线类型信息进行融合,计算网格中每个单元“空闲”、“占用”、“危险”状态的信任度。与前一种方法相比,该方法的行车环境表征结果更加精确。为了对上述行车环境表征结果的准确性和表征方法的实用性进行应用型验证,论文基于行车环境表征结果,进一步实现了基于贝叶斯网络的变道行为辅助决策和基于规则融合的变道行为辅助决策。前者通过贝叶斯网络输出“不变道”、“向左变道”、“向右变道”三种决策,将具有最大期望效用值的决策视为最优决策;后者通过对空间成本、碰撞时间以及需求加速度三种规则的数值计算,输出包含加速度信息的更精细的变道决策。实验结果表明,决策结果在保证了行车安全性的前提下较好地迎合驾驶员的变道意愿,也证明了本文行车环境感知方法的有效性。