论文部分内容阅读
随着人们的追求不断提高,传统的二维成像技术已经不能满足需要。现在,越来越多基于三维图像的技术不断涌现,丰富了人们的生活,也促进了科技的发展。为了获取真实的三维图像,我们通常要对场景或物体进行深度感知。结构光技术是一种被广为使用的深度感知技术。本文基于结构光技术,针对如何快速进行高精度的深度感知这项研究提出了一些新的方法。首先,本文回顾了深度感知领域的基本知识,详细介绍了基于结构光的深度感知的基本概念,系统搭建方法以及模板设计的发展历史。接下来,本文着重介绍了三项研究工作,可伸缩深度感知系统,利用散斑解决相位展开问题实现快速高精度深度感知以及利用ToF深度相机解决相位展开问题实现快速高精度深度感知。可伸缩深度感知系统利用了时分(TM)和邻域(SN)这两种广泛使用的结构光深度感知技术。时分技术因其高精度而知名;而邻域技术因其低延时而获得青睐。本文提出的可伸缩深度感知框架成功地结合了两种技术的优势。我们的贡献有两点。第一,我们设计了一套混叠结构光模板。这一模板含有相位移动条纹和伪随机散斑两种成分。在混叠模板结构光的照射下,对于静态场景深度信息可由TM技术恢复出来;对于动态场景,深度信息可由SN技术重建得到。第二,本文提出了一个场景自适应的深度感知框架。基于这一框架,我们可以通过运动检测来生成一个全局的或是逐区域的最优深度图。为了验证本文提出的可伸缩深度感知系统,我们开发了一套实时(20fps)的深度感知系统。实验结果显示我们的方法可以在精度与速度之间达到一个良好的平衡。本文还提出了一种新颖的相位移动方法来满足快速、高精度且无含混的深度感知的需要。这种方法的基本思路是在三张相位移动条纹模板当中嵌入同样的散斑信号。加入的散斑信号并不会降低条纹的幅度和使用的频率,但却将帮助我们消除相位含混,即解决相位展开。通过一个鲁棒的依赖于散斑的逐区域投票策略,我们可以最终得到绝对深度。我们使用的是理论上最少的三张相位移动条纹模板,这有利于在延时要求较严格的情况下对场景进行深度感知。此外,本文提出的方法由于使用了高频的条纹,还可以抵抗全局光照的影响。我们基于提出的方法开发了一套实时、高精度的深度感知系统。我们认识到基于ToF技术的深度相机与结构光领域的相位移动技术(PS)有着互补的优缺点。ToF深度相机可以提供实时的深度信息,但是受限于分辨率并且易受噪声的影响。而PS深度相机可以生成精准且鲁棒的高分辨率深度信息,但它的多模板特性也使得延迟很高。本文提出了一种新的融合ToF深度相机与PS深度相机深度输出的方法。其基本思想是用ToF相机输出的粗糙的深度信息来帮助PS方法进行相位展开。在研究中,我们还解决了两个技术难题:跨模态的标定以及无干扰的同步。实验显示,我们提出的方法可以产生精确且鲁棒的高分辨率低延迟的深度信息。本文最后总结了全文的工作,并且对一些有意义的问题进行了探讨。