论文部分内容阅读
智能驾驶辅助系统(Advanced Driving Assistance System,ADAS)可以减少交通事故、降低人员伤害并提高驾驶舒适性,因此,ADAS相关技术的研究具有非常重要的意义。由于机器视觉能够获取丰富的信息且成本较低,使得基于视觉的感知技术被广泛应用于ADAS。本论文将视觉感知技术中与外部道路环境检测以及内部驾驶员状态监测相关的关键技术作为研究对象,研究并提出了基于机器视觉技术的解决方法,为ADAS的设计和开发提供了理论依据和技术支持。基于视觉的外部道路环境检测是指依据图像中的信息判断前方道路是否为可行驶区域,并能够在可行驶区域内准确检测出结构化道路中的车道线。一方面,由于道路图像容易受到不利视觉条件的影响,导致图像中的目标变得模糊、不可见,因此,在进行道路和检测之前需要对图像进行增强。另一方面,由于道路的环境和种类较复杂,检测算法很难同时兼顾准确率和时效性。基于视觉的内部驾驶员状态监测是指利用图像中驾驶员特征检测驾驶员的疲劳等级。由于光照、背景、拍摄角度以及驾驶员的特征等是随机变化的,且驾驶员的疲劳程度还会受到时间因素的影响,进而使得疲劳检测算法的鲁棒性不理想。针对上述问题,本文对视觉感知技术中不利视觉条件下道路图像增强、可行驶道路区域检测、车道线识别以及驾驶员疲劳监测四个关键技术展开深入研究。论文主要研究内容以及创新点主要包括以下四点:(1)提出了一种新的不利视觉条件下动态道路图像增强方法。首先,利用待处理图像中灰度特征和清晰度特征对不同不利视觉条件下的道路图像进行分类;然后,依据分类结果为不同不利视觉条件下的道路图像选择合适的增强算法,并基于图像特征动态调整增强算法的参数,进而使得该方法在保证时效性的同时,对不同不利视觉条件下的图像增强问题具有很强的适应性。(2)提出了基于卷积神经网络(Convolutional Neural Networks,CNN)和Gibbs能量函数的实时非结构化道路可行驶区域检测方法。首先,为提高第一帧检测的鲁棒性,基于改进的随机一致性采样(Random Sample Consensus,RANSAC)算法估计图像中不同区域的单应矩阵H,并将H作为CNN的输入对其进行训练,进而实现可行驶道路区域检测;其次,为提高后续相似帧检测的速率,从第一帧图像的检测结果中提取道路的颜色以及纹理特征,并基于二元分裂算法构建相应的高斯混合模型,然后利用Gibbs能量函数实现后续帧的道路检测。该方法克服了由于道路表面特征、结构特征不确定而导致的鲁棒性差的问题以及由于模型复杂、计算复杂度高而造成的时效性差的问题。(3)提出了一种新的基于特征与模型相结合的车道线检测方法。首先利用不变性特征:灰度特征以及形态特征,从可行驶区域内快速检测出车道线待选区域,并通过改进的概率霍夫变换算法(Progressive Probabilistic Hough,PPHT)获取车道线参数,依据车道线参数从车道线待选区域筛选出车道线区域。该方法不仅解决了基于模型检测中要求车道线结构与预设模型一致性问题、基于特征检测中实际车道线特征不稳定问题,而且对不同环境下(不利视觉条件、树荫以及脏污等)的结构化道路具有较强的适应性,且检测的准确率较高。(4)提出了基于CNN和长短期记忆网络(Long Short-Term Memory,LSTM)的驾驶员疲劳状态实时检测方法。首先,利用简单线性聚类算法(Simple Linear Clustering algorithm,SLIC)将图像分割成大小均匀的超像素,并将超像素作为CNN的输入,然后利用训练好的CNN获取眼部以及嘴部区域的位置和面积。在此基础上,提取眼部特征参数Perclos、嘴部特征参数MClosed、头部朝向特征参数Phdown,并将连续时间序列上的上述特征参数以及方向盘转角特征参数SA作为LSTM的输入,疲劳度等级作为输出,实时检测驾驶员的疲劳状态。该方法能够克服光照、背景、角度以及个体差异的影响,准确、快速地检测出驾驶员的面部、眼部以及嘴部等区域,并综合考虑了时间累积效应对疲劳的影响,进而使得最终检测准确率得到大幅提升。