论文部分内容阅读
近些年来,在视频监控联网、高清化技术的推动下,交通行业视频监控业务的数据量快速增长。利用计算机视觉技术处理交通视频得到有效的信息已经逐渐被重视,并且根据监控视频内容自动计算车辆运行轨迹已经可行。本文针对摄像头网络中车辆检测和识别问题进行了研究。对于摄像头网络,既需要对单摄像头下视频处理,又需要建立多个摄像头间的联系,从而完成在摄像头网络中对车辆进行连续的追踪。本文主要完成了以下工作:使用 Faster Region with Convolutional Neural Network feature 网络,在原有检测模型的基础上,重新标记数据集,对网络进行调优,重新训练车辆检测模型。在单摄像头下,提出了基于重叠面积率的车辆追踪算法,该算法利用相邻两帧视频帧中目标车辆的重叠面积率判定是否属于同一轨迹,对于车辆被遮挡以及Faster R-CNN检测失败或漏检的情况,加入卡尔曼滤波算法。利用卡尔曼滤波的预测机制,在进行重叠面积率计算后,若有未匹配成功的追踪器或车辆,则使用预测值进行匹配,这样可以尽量避免因检测失败或车辆被遮挡而导致的追踪车辆失败的情况。除此之外,为更直观的表达追踪结果,使用单应矩阵对追踪结果进行了可视化。在多摄像头下,针对不同摄像头下光照、拍摄角度等不同使得车辆再识别难度加大这一问题,本文根据摄像头间的时空关系、车型属性以及车辆Convolutional Neural Network特征建立了车辆再识别模型。其中利用摄像头的地理位置可以得到摄像头的空间信息,对视频统计可以得到车辆在摄像头间的转移时间概率密度分布,通过GoogLeNet网络重新训练车型检测模型,并结合VggNet网络提取到的车辆CNN特征,从而在不同摄像头下的监控视频中对目标车辆进行了再识别。