论文部分内容阅读
在计算机视觉领域,从自然场景中检测并分割出显著物体是一个活跃的课题,也产生了很多有意义的应用。当前大多数的显著物体检测方法利用颜色信息以及多种先验信息来获得较好的结果。尽管场景深度在人类的视觉系统中扮演着非常重要的角色,它在显著物体检测中的作用还没有被深度挖掘。当前由于一系列深度相机的出现,使得获得场景深度信息更加便捷。因此,最近研究者提出了几种将深度信息考虑在内的显著物体检测方法。但是,这些方法的性能都是有限的。本文首先探索了深度信息在显著物体检测中的作用。四种经典的2D显著物体检测算法被用来生成基于颜色信息的显著图,然后检测结果将和一种深度显著度计算方法产生的结果融合。实验结果表明深度信息能有效提升这些算法的效果。但是,将颜色信息和深度信息分开考虑,忽略了这两种信息内在的相关性。为了有效利用这种相关性,本文提出了两种有效的基于RGB-D信息的显著物体检测算法。第一种算法是一种基于优化的算法。首先,提出一种融合深度信息的图像过分割算法,将RGB-D图像分割成规则的超像素。然后,提出了一种有效的方法进行背景度量,并对背景建模结果进行保持边缘的平滑。同时,通过一种多级前景建模方法获得前景度量。最后,通过设计优化算法求解得到显著图。第二种方法是一种基于学习的方法。本文提取了图像区域的多种特征,包括颜色,位置,深度,纹理等特征。采用随机森林回归器进行学习,对检测图片提取特征后能直接将特征向量映射成显著值。通过多尺度特征学习与融合,获得显著图。实验表明,这两种从不同角度提出的算法在实验结果上是互补的。本文通过贝叶斯融合的方法将二者的结果融合起来,获得最终的显著图。通过实验比较与分析,本文提出的两种方法相对于之前的方法在检测效果上有很大的提高,通过贝叶斯融合后,效果获得进一步的提升。