论文部分内容阅读
随着自动驾驶和先进的驾驶员辅助系统的飞速发展,人们在自然驾驶状态不明确的情况下,尤其是在交通事故的检测中,为提高驾驶安全性做出了越来越多的努力。一般情况下,人们对于交通异常的定义是:不符合普遍现象,且不符合预期行为的事情,例如不遵守交通指示灯随意穿越的车辆和行人、前方急停的车辆等。在真实的驾驶场景中,对于自动驾驶车辆而言能够检测出即将发生的交通事故非常重要,它可以及时得地做出应对举措从而避免事故发生。本文根据交通事故检测中存在的问题,首先提出了一种基于对抗式表观-行为预测的模型。该模型的新颖之处在于能够从当前帧对未来帧以及未来目标物的表观和行为特征进行预测,通过与真实帧的RGB像素级特征以及目标物的真实位置进行比较来检测交通事故。为了验证模型的有效性,使用A3D数据集进行测试,经过实验对比证明该模型能够明显的提升检测性能。由于动态摄像机运动和驾驶过程中的复杂场景,驾驶环境交通事故的检测不仅需要考虑全局和局部特征,同时需要将场景上下文关系纳入度量范围,预测动态道路参与者(行人、车辆、非机动车辆等)之间的视觉关系结构。在表观-行为预测模型的基础上,本文提出了一个基于视觉上下文对抗学习的驾驶环境事故检测模型,该模型主要采用了一个图结构的嵌入式生成对抗网络,通过视觉场景的上下文冲突来检测驾驶环境交通事故。该网络包含一个两分支的编码器-解码器模块,分别通过输入视频序列中的目标框和连续帧预测驾驶参与物的未来位置和未来帧,然后将预测结果与图卷积网络相结合,以学习对象的特征嵌入之间的关系。为了检测驾驶环境交通事故,本文采用了一个基于余弦距离的视觉场景上下文冲突度量方式。另外,本文提出的方法不需要进行任何标签注释和视频修剪工作,可以直接用于任何原始的视频序列。最后,通过在A3D数据集和DADA-2000数据集中进行的对比试验,其结果证明该模型可提高交通事故检测的准确性,优于目前提出的其他方法。