论文部分内容阅读
视觉目标跟踪是计算机视觉领域中一个重要视频研究处理分支,由于科技发展与日常生活的需求,如无人机监控、自动驾驶、人机交互、智慧交通等,近年来得以大展身手。另外,深度学习的迅速崛起使得大数据分析成为可能,这一变革突破了传统算法的桎梏,从而可以有效应对实际场景中目标不可预知的变化,如背景遮挡,变形,旋转,光照变化等。在跟踪领域,通常使用精准性与鲁棒性衡量算法性能,相比于传统跟踪算法,基于深度学习的跟踪器凭借其出色的重构数据特征能力可以大幅提升算法的鲁棒性,但由于深层特征对平移和尺度具有不变性,空间分辨率低,无法精确定位目标。基于此,本文对传统算法和深度学习算法进行了比较分析,主要工作如下:(1)系统全面地阐述了传统算法与深度学习类算法在目标跟踪领域的研究现状,同时指出了各类方法的优劣。首先,传统的目标跟踪算法主要是基于手工特征对跟踪目标建模,这类跟踪器速度较快但模型鲁棒性不强。而基于深度学习类算法通过神经网络学习输入数据的内在关联,获得的深度特征具有旋转、平移不变性及强鲁棒性。其次,针对现有深度学习类算法,按照网络结构及算法发展进行阐释。(2)针对传统跟踪算法在复杂场景下抗遮挡能力和鲁棒性差的问题,提出一种基于深度特征自适应融合的运动目标跟踪算法。考虑到深层特征的强鲁棒性和浅层特征高精度的优点,本文首先利用稀疏自编码器构建深度稀疏特征提取目标特征,再根据相邻帧之间的关联信息和跟踪置信度对深度特征和纹理信息进行自适应融合以提高跟踪器的性能。为了提高跟踪算法鲁棒性的同时抑制跟踪漂移,当置信度低于设定阈值时,引入改进SURF(Speeded Up Robust Features)算法对目标再定位。实验结果表明:与主流跟踪算法相比,本文算法跟踪精度高于对比方法,在遮挡场景中有良好的鲁棒性,并且能有效抑制跟踪漂移。(3)针对深度学习类跟踪算法深层神经网络不能发挥其应有的性能问题,引入高分辨率网络,提出了一种用于互相关运算的多层特征融合结构,该结构有助于跟踪器从多分辨率学习的特征中预测相似度图。通过在前向传播期间保持高分辨率,同时执行重复的多尺度融合,以相同深度和相似级别的低分辨率表示来增强高分辨率表示,从而产生具有更多无损尺度信息的高分辨率表示。实验结果表明:本文提出的算法可以有效缓解深度网络结构在目标跟踪领域受限问题,且实现了较高的跟踪精度。