论文部分内容阅读
近年来,深度学习技术飞速发展,在丰富的计算机视觉任务上取得了巨大的成功。但是,基于深度学习的模型存在鲁棒性问题,普遍容易受到对抗样本的攻击。对抗样本攻击有助于人们认识深度学习方法的脆弱性、引导人们思考其中的安全隐患并对其完善。尽管越来越多的工作针对图像分类问题上的对抗样本展开研究,但目标检测问题结合了多目标分类和定位问题,其攻击难度更大;同时,图像目标检测是计算机视觉中最基本的任务之一,其安全性尤为重要。因此,本文专注于面向图像目标检测的对抗攻击。现有攻击方法存在攻击效果不足和攻击形式单一两方面的问题。一方面,现有攻击方法效果不足,有以下两个重要的原因:其一,针对目标检测的对抗攻击算法通常直接地干扰其优化目标(即分类损失和回归损失),忽略了模型提取上下文信息的能力;其二,目标检测训练过程的优化目标与检测结果评价标准存在不一致性问题。另一方面,在现有文献中,目标检测对抗样本的攻击形式较为单一,大多数工作都是针对无目标攻击,且一般不指定模型的出错类型,产生的错误结果以假阴性居多,有指向性的假阳性对抗样本还鲜有系统的研究。但这类对抗样本能够为深度学习目标检测的脆弱性提供另一角度的解释,对防御方法能提出更多的挑战,同时在实际场景中也存在应用需求,因此具有研究价值。针对上述不足,本文展开了两点研究:其一,提出了基于上下文信息的对抗攻击,显著提升了现有方法的攻击效果;其二,首次提出了指向性假阳性攻击问题,对其进行了系统分析,并提出了若干种解决方法。首先,本文提出了基于上下文信息的对抗攻击(Contextual Adversarial Attack,CAP)方法。该方法破坏目标物体周围的上下文区域信息,使目标检测模型的平均精确度(Mean Average Precision,mAP)和召回率相比于现有方法明显降低。此外,为了进一步加强对正样本的攻击,以获得极低的召回率,本文还设计了上下文背景损失,刻意提升背景类得分,更进一步地把mAP和召回率几乎降低至0.0%。特别地,本文的CAP算法生成对抗样本时不依赖于真实标签信息,因此具备较好的泛化能力,可推广到弱监督目标检测的攻击。本文在两个大规模公开数据集PASCAL VOC和MS COCO上进行了大量的实验,结果表明基于上下文信息的对抗攻击方法对攻击全监督目标检测模型和弱监督目标检测模型均取得了良好的效果。第二,本文提出了一个新的问题,即基于不可察觉物体隐藏的目标检测对抗攻击问题,或简称为物体隐藏(Object Concealment)问题。在该问题中,攻击者的目标是使检测器“无中生有”地在图像中的指定位置预测出指定类别的物体,而人眼难以觉察该物体。针对该问题,本文提出了一个基准方法,并定义了一种评价标准。本文提出了上下文信息增强方法(Context Enhancement,CE)和区域失真约束方法(Region Distortion Constraint,RDC),分别用于提升物体隐藏的效果和扰动的不可察觉性。在PASCAL VOC数据集上的大量实验不仅对本文提出的问题进行了系统地分析,还验证了本文提出的方法的有效性。