论文部分内容阅读
立体图像依据人眼的双目立体视觉原理,显示了图像的深度信息,给人更加真实生动的体验,可应用于3D电影和VR等相关内容中。光场相机内置了微透镜阵列,可以同时记录场景的多个视点信息,可直接生成立体图像。但由于光场相机硬件制造技术的限制,使得相机拍摄的视野范围有限,影响生成立体图像的使用效果,因此需要通过拼接算法生成大视野的图像。相较于传统相机的立体图像拼接算法的操作复杂且容易产生竖直方向视差,使用光场相机更为简单和准确。但光场相机问世时间短且与传统相机记录的信息不同,传统的图像拼接技术并不能够完全适用于光场图像,本文针对上述问题,对基于光场图像数据的拼接算法进行研究。许多立体图像在不同规格的屏幕上展示时,会因为不适的视差范围和左右视点间汇聚角度,造成视觉效果欠佳。本文利用一对光场图像进行立体图像的生成,生成的立体图像根据其左右视点间的汇聚角度,对立体图像的显示效果进行调整,有效解决上述问题。本文主要包括两个方面的工作:第一,现有光场图像的拼接算法主要是用基于求解图像间的全局投影变换矩阵的方法来实现,当目标场景的结构较为复杂或视点间位移较大时,通常无法得到准确的拼接结果。由于三维场景可以近似看作由多个空间平面或曲面构成,本文提出一种基于空间平面分割和投影变换的光场图像拼接算法。首先依据光场深度信息对目标场景进行平面拟合和分割,并根据颜色信息利用马尔科夫模型对分割结果进行优化。其次采用光流法计算不同视点光场图像之间对应光线的匹配关系,求解每个分割区域上的变换矩阵并进行区域投影。最后使用最小缝合线及泊松优化的方法对重叠区域进行融合处理,生成大视野的光场图像。实验结果表明,通过本文算法生成的光场拼接图像清晰无缝。第二,本文提出了一种用于从光场图像对进行立体图像生成的新方法,可以灵活地控制立体图像间的汇聚角度。将两个光轴平行的光场相机水平摆放,用来获取光场信息。计算光场图像视差图,并依据视差信息进行透视变换,调整立体图像间的汇聚角度。当使用本文算法设计的算法获得图像或视频时,摄像师可以专注于立体视觉效果的设计,而不用受困于频繁操控立体摄像机的参数(即立体相机间的汇聚角)所带来的干扰。本文算法估计了光场图像对的精确视差图,提出了新的光场图像视点合成算法,从而来满足所需的立体图像间汇聚角的需求。本文所提出的算法可用于3D电影和虚拟显示等相关内容的制作,提升观看体验,减少制作的成本和难度,具有广泛的市场前景和价值。