论文部分内容阅读
视觉目标跟踪是计算机视觉领域中的一个重要研究方向。由于跟踪过程中目标的外观可能发生变化,因此对目标模板的更新必不可少。然而当目标被背景遮挡时,如果跟踪算法不能准确地检测、判断出遮挡的发生,将会导致目标模板的错误更新,背景信息进入到目标模板中,降低目标模板的对目标和背景的区分力,可能导致算法在后续帧中丢失目标。为了增强目标跟踪算法对遮挡的鲁棒性,本文提出了一种基于上下文信息的遮挡检测方法(COD)。该方法将当前帧中目标周围的背景分块,并分别对每一个背景块进行跟踪,检测出下一帧中与目标发生重叠且跟踪可信度高的背景块,认为这些背景块遮挡了目标。遮挡了目标的背景块的个数表明了遮挡的严重程度。COD方法能够有效地检测出遮挡的发生。COD方法可以与现有的任意目标跟踪算法进行组合,因此,本文提出了基于遮挡检测的目标跟踪框架。在此框架中,目标跟踪算法和COD方法作为子模块,当COD方法检测到目标受遮挡较为严重时,目标的模板将停止进行更新。在OTB-2013、VOT-2015等数据集上的实验表明,COD方法能够显著提升目标跟踪算法的表现。基于COD方法,本文提出了基于上下文信息的自适应的遮挡检测方法(CAOD)。COD方法对目标的尺度不具有自适应能力,因此在CAOD中,背景块的个数将由目标的尺度决定。同时,CAOD提出,应当以目标被遮挡的面积比例作为进行遮挡程度判断的依据。为了促进目标跟踪领域的发展,本文建立了遮挡视频数据集,此数据集的视频经过特殊处理,专门用于评价跟踪算法在有遮挡的情况下的跟踪准确度和鲁棒性。本文在此数据集上进行了多组对比试验,充分证明了CAOD算法可以提升跟踪算法对遮挡的抵御能力。本文提出了一种基于深度孪生网络结构的跟踪方法。在大规模图片分类数据集上预训练的任意深度卷积神经网络的卷积层部分都可以用做此方法的特征提取部分。算法对目标可能出现的区域做特征提取后,利用交叉相关运算将目标模板和每一个候选者进行内积操作,得到响应分布图,图中峰值的位置即为目标的位置。一般的基于深度学习的目标跟踪算法需要在大规模的跟踪数据集上的训练,本文的方法避免了这一难处,仅需利用预训练的卷积神经网络即可,结构简单,效果良好,可扩展性强。