论文部分内容阅读
视觉跟踪技术是计算机视觉领域重要的研究方向之一,具有深远的理论研究意义。同时作为一门具有极强工程实用价值的新兴技术,其在军用和民用领域也拥有广阔的应用前景。视觉跟踪虽历经了较长的发展时期,也取得了一定的成果,但其整体技术水平的发展仍不尽如人意,依然具有较大的提升空间。近年来,以微软Kinect为代表的深度获取设备的面世,大幅降低了深度图像的获取成本,加速了包含视觉跟踪在内的多项计算机视觉领域技术的研究进程。相比于传统基于RGB数据的跟踪算法,融合深度的视觉跟踪算法在跟踪计算精度上表现更为优异。传统基于RGB图像序列的对象跟踪方法易受光照、视点变化、相互遮挡等因素的影响,在对象特征表示、尺度更新等方面遇到较大困难。因此,本文提出了融合RGB-D信息的改进时空上下文的跟踪方法,通过空间信息与颜色信息的融合,在更高特征维度上提取光照、尺度鲁棒的对象上下文特征;同时,针对遮挡条件下对象跟踪精度明显降低的问题,本文提出了基于深度时域变化率估算的对象遮挡检测及处理机制;并在此基础上开发完成原型系统验证了本文工作的有效性。针对以上研究内容本文完成的创新性工作主要有下述几点:(1)提出了融合RGB-D信息的时空上下文算法。通过构建实时更新的自适应深度信息上下文模板,本文对传统的基于RGB图像的上下文跟踪算法进行改进,并基于模板融合提出了融合RGB-D信息改进上下文跟踪算法。该算法引入深度信息,增强了跟踪算法对复杂场景和局部遮挡的鲁棒性;并通过深度信息模板的尺度更新进一步提升了跟踪算法的尺度精准性。(2)提出了基于深度时域变化率估算的遮挡检测及处理机制。本文引入了目标遮挡率概念,通过计算深度信息相对时域的变化率,实现了对当前目标的遮挡情况的评估。对于被严重遮挡的目标,本文提出了相应的遮挡处理策略,从而增强了算法对严重遮挡和交叉遮挡的适应性,进一步提高了目标跟踪的精度。(3)实现了融合RGB-D信息的对象跟踪原型系统。通过以上两种方法的有效结合,本文形成了一套鲁棒、精度较高的视觉跟踪算法,即融合RGB-D信息的改进时空上下文的对象跟踪方法。我们将本文算法与近年来的优秀算法在公开数据集上做了大量对比实验。实验结果显示,本文算法在有效提升算法精度的同时,在当目标出现严重遮挡,交叉遮挡,甚至复杂背景变化的情况下,也能保持相对稳定的性能。相对经典的传统算法,本文算法模型对多类目标的适应性上还不够完善,将来希望可以对本文算法的适应性做出更大的改进。