论文部分内容阅读
在视觉跟踪应用领域的实际场景中,待跟踪视频序列中可获取和用于训练的目标先验知识通常很少,这对于传统的基于预定义距离度量的视觉跟踪算法而言是很大的挑战。另外,预定义式的距离度量无法在跟踪过程中适应目标和环境的变化,易导致跟踪失败。因此,本文旨在研究基于距离度量学习的视觉跟踪算法,构造随跟踪任务的推进而不断学习更新的距离度量矩阵,从而提高算法的自适应性及跟踪的精度。本文首先提出了结合距离度量学习的鲁棒在线视觉跟踪算法。该算法将视觉跟踪任务视为前、背景的二分类问题,并随着视频推进不断通过信息论手段在线更新基于欧式距离的分类器,从而实现稳定的跟踪。为了减少跟踪漂移,设计了对目标变化具有适应能力的快速更新模板和用于降低模板污染的稳健更新模板的自适应更新方式。为了提高速度,提出基于随机主成分分析降维的密集尺度不变特征描述,以在尽量保证高维特征优良属性的前提下尽可能降低特征维度、减小运算负担。针对视觉跟踪中常见的目标严重遮挡甚至消失的情况,本文提出了以背景信息为辅助的视觉跟踪算法。算法将目标周围的背景分为若干与目标大小相同的图块,通过对比连续两帧之间背景与目标图块相似度判断遮挡情况并校正跟踪结果。算法基于随机蕨构造了目标检测器,以在严重遮挡情况下全局搜索目标。为了适应跟踪过程中目标的尺度变化,算法在相关滤波器框架下提出基于尺度金字塔的尺度估计方法。为了衡量本文所提视觉跟踪算法的表现,本文应用领域公认的OTB(Object Tracking Benchmark)库中的视频序列作为视频输入,分别从遮挡、形变、旋转、尺度变化、光照变化、运动模糊等多个方面考察算法,以中心偏差和重叠率等指标作为衡量的标准。实验结果证明,与当前部分流行算法相比,本文所提算法能够很好地完成相应应用场景下的视觉跟踪任务,具有一定竞争力。