论文部分内容阅读
随着计算机视觉和人工智能技术的快速发展,基于行人检测与再识别的行人搜索算法成为目前研究的热点。行人搜索可以视为行人再识别的延伸问题,它涉及到行人检测与行人再识别两个过程。目前,多数行人再识别算法只适用于经过人工裁剪后的图片,无法直接应用于真实场景;此外,在行人搜索过程中,行人检测网络得到结果的好坏,会对后续行人再识别造成较大影响;同时,错检、漏检、行人定位框不够精确等情况,都会大大降低后续行人再识别的精度。因此,如何将行人检测与再识别有机结合,实现端到端的行人搜索是一个具有挑战性的问题。本文从已有的行人搜索算法入手,针对已有算法中遇到的困难和存在的不足,从行人边框的选取、相似性距离函数的设计和中心损失函数的改进等角度,对行人检测与再识别有机结合进行了探讨。论文的主要工作和研究成果体现如下:1.针对现有的行人搜索算法在行人检测过程中,行人定位框不够精确,且在行人再识别时,采用余弦距离来进行相似度比较,无法全面衡量行人特征向量的相似性等不足。本文将行人检测与再识别两模块融为一体,提出了一种基于改进的Faster R-CNN的行人搜索算法。算法采用对边框进行迭代回归的方法,改进原Faster R-CNN中的候选行人边框精度;利用欧氏距离和余弦距离相结合的混合相似性距离函数,以增强网络对于行人相似度的辨识能力;利用中心损失函数对网络的损失函数进行改进,通过提高不同行人特征的可区分度,实现更加精准的目标行人搜索功能。基于CUHK-SYSU数据集的仿真实验结果表明,该算法的累积匹配特性(CMC top-1)、平均精度均值(m AP)分别为81.6%和78.9%;与相关行人搜索算法相比,CMC top-1提升约0.4%~18.9%,m AP提升约1.0%~23.2%。2.在行人搜索网络提取行人特征时,为了着重处理图片中与行人分类有关的特定区域(如衣着、背包、脸部等),以及在使用Softmax函数来进行行人类别区分时,最小化同类特征的类间距离及最大化不同类特征的类间距离,本文利用注意力机制及混合损失函数,对行人检测与再识别网络进行训练。利用注意力机制,提升原Faster R-CNN中输出的候选行人的特征质量;利用边缘损失函数与中心损失函数、采样型Softmax损失函数构成混合损失函数,以提高不同行人特征的可区分度,实现更加精准的目标行人搜索功能,提出了一种基于注意力机制的行人搜索算法。算法首先利用基于VGG16网络的Faster R-CNN得到候选行人框,然后利用结合了注意力机制的Res Net50得到候选行人特征,最后与待搜索行人的特征进行相似度比较。基于数据集CUHK-SYSU的实验仿真结果表明,本搜索算法的累积匹配特性(CMC top-1)和平均精度均值(m AP)分别为83.5%、80.4%,与相关搜索算法相比,累积匹配特性(CMC top-1)提升约2.3%~20.8%,平均精度均值(m AP)提升约2.5%~24.7%。