论文部分内容阅读
图像显著性检测是图像处理重要的预处理步骤,近年来,各种检测模型应运而生。传统检测模型,大多依赖于对比度和先验知识,其有限的计算能力会影响显著结果,尤其是对低对比度和环境复杂的图像,通常会检测失败。深度检测模型,由于其局部感知和参数共享的特性以及强大的特征提取和学习能力,可以取得更好的结果,但也存在检测结果粗糙和重要信息损失等问题。鉴于此,本文从像素级深度网络出发,分别采用区域级的传统算法以及区域级的损失和优化网络的方式来细化检测结果和弥补信息损失,从而提高检测精度。主要工作和贡献如下:(1)针对低对比度和复杂环境的图像,提出一种多层元胞自动机框架下,融合全局与局部信息的显著性检测模型。首先,采用基于卷积神经网络的编解码网络有监督地迭代训练,以提取图像全局特征,编解码结构采用VGG-16及其对称网络,用于特征的提取和重构;然后,用像素级全局特征指导超像素特征编码,针对全局显著图,通过自适应阈值产生前景和背景码本,采用局部约束线性编码算法分别对两种码本编码,融合产生具有局部细节信息的局部显著图;最后,通过多层元胞自动机框架,利用其贝叶斯理论稳定的后验概率,将提取到的全局与局部显著图融合,以产生既包含全局轮廓信息,又包含局部细节信息的最终显著图。实验结果表明,该模型在ECSSD、DUT-OMRON和PASCAL数据集上的平均F-measure值相比于全局显著结果分别提高1.8%、1.7%和0.8%,相应的平均绝对误差(Mean Absolute Error,MAE)值分别为0.129、0.129和0.171,具有较好的准确率和泛化性能。(2)由于深度网络的感受野结构和池化操作,会导致网络出现目标边界信息损失和高层信息损失的情况,而且这些损失是不可逆的,使得在网络反卷积过程中,不能很好地重构显著目标。为此,提出U-Net与ResNet相结合的U-Res-Net检测网络,并融入区域级的自适应亲和损失。首先,采用U-Net框架来搭建网络结构,在卷积和反卷积部分之间,加入跳过连接,以将网络高层信息直接传递到低层,丰富低层信息,实现多尺度特征融合,并减少高层信息损失;然后,网络的卷积和反卷积部分采用ResNet-50及其对称网络,在增加网络层数,提取更为全局抽象特征的同时,不损失精度且易于训练;最后,将像素级的损失扩展到区域级的损失,融入像素之间的空间结构关系,将目标边界和内部分开考虑,从而强化边界信息,使得目标边界更加清晰,内部更加聚合,且通过自适应核大小,应对不同目标大小的图像。实验结果表明,该网络在MSRA 10K、ECSSD、DUT-OMRON、HKU-IS、THUR 15K和XPIE数据集上,平均F-measure值分别达到93.4%、89.6%、77.9%、87.5%、72.2%和82.2%,MAE值分别为0.044、0.073、0.060、0.059、0.089和0.076,进一步提高了检测准确度。