论文部分内容阅读
近年来,随着计算机视觉技术的快速持续发展,目标跟踪方法在军事作战、医疗诊治等领域得到广泛的应用,被视为计算机视觉技术研究中不可或缺的一部分。由于深度神经网络不断地优化更新,具有更加强大的特征表达能力。如今很多学者应用深度神经网络获取的目标特征来代替传统方式获取的特征信息,有效促进了目标跟踪技术的发展。但在实际应用中的目标跟踪环境十分复杂多变,且被跟踪目标之间存在遮挡等情形。针对当前多目标跟踪方法跟踪准确度偏低的问题,提出一种基于改进的深度神经网络的目标跟踪方法,研究的具体内容如下:(1)针对原贯序式结构的YOLOv2网络对特征提取器获得的特征信息复用率较低,在很大程度上限制了目标跟踪可靠性的问题,提出一种改进的YOLOv2网络。改进的YOLOv2网络主要由卷积层、批量归一化层和池化层来搭建网络的特征提取器,再把特征提取器获取的特征数据进行复制分别送入分类器和判别器。分类器用于对跟踪目标的分类和关注,能够获取目标的大概位置;而判别器用于判断所提取的特征信息。最后将网络中判别器和分类器的结果展开融合得到更可靠的目标位置。(2)针对目标被遮挡时传统卡尔曼滤波跟踪可靠性偏低的问题,通过调整被遮挡目标运动状态变化率的加权系数实现遮挡期间的运动状态估计。在估算遮挡目标运动状态变化率的过程中,着重考虑遮挡近邻时刻的运动状态变化率对目标状态的影响,对近邻时刻赋予较大的比例系数,将选择时长N中的每个状态变化率与不同的加权系数相乘来实现被遮挡目标的运动状态修正。当被遮挡目标在视野中再次出现时,继续使用传统卡尔曼滤波来解决目标跟踪问题,有效提升了目标遮挡后再次出现时的跟踪性能。(3)针对Deep-SORT多目标跟踪方法使用深度特征评价被检测目标与跟踪轨迹间的匹配程度带来额外操作时长的缺陷,移植Mobile Net神经网络中的深度可分离卷积与逐点卷积重新搭建表观匹配中的特征提取器,用于获得特征匹配部分中的特征信息。Mobile Net神经网络将传统卷积分两步处理:第一步为深度可分离卷积,完成特征提取;第二步为逐点卷积,完成特征融合,有效减少计算量,提升目标跟踪方法的有效性。(4)基于改进的深度神经网络的目标跟踪方法通过数据关联技术确定目标的最优位置。当深度神经网络获取到目标的初始位置后,首先应用滤波速度较快的卡尔曼滤波来预测目标在下一帧的位置,采用改进的YOLOv2网络对每一帧图像进行目标检测。然后求出目标检测位置与预测位置之间的马氏距离,以及检测框与跟踪框对应特征向量间的最小余弦相似度,将两类计算结果加权融合成新的度量信息来衡量目标检测框与跟踪框两者间的匹配情况。最后将匹配成功的目标检测位置输出当作最优的目标位置。