论文部分内容阅读
随着数字图像处理技术的不断发展,图像中包含拍摄场景中的信息越来越丰富与多样。但由于图像采集设备的工作原理及不同场景的应用特性,使得单幅二维图像中的像素值中包含的关于场景的信息始终有限。多聚焦图像融合处理同一场景拍摄的多幅聚焦于不同位置的源图像,提取出各图像中的清晰像素信息融合得到一幅全场景清晰的图像。应用多聚焦图像融合能够极大地提高图像信息的利用率,为后续的各种图像处理应用提供完备的场景数据。此外,多聚焦图像在聚焦平面变化过程中包含了场景的深度信息。根据深度与光照信息进行深度重建,可以获得包含场景更多细节的三维结构模型。本文研究了基于多聚焦图像的图像融合和深度重建问题,研究成果及创新点如下:首先,本文研究的应用背景为显微场景,文中提出的图像融合与深度重建算法以一种可变焦三维显微成像系统为应用基础。分析该系统的图像采集环境具有透光量变化和抖动等干扰因素,给出亮度均衡调整、图像缩放与配准等必要的预处理方法,并将人类视觉系统的对比度敏感度模型应用于图像的过滤,使原始图像具有较高的可用性。其次,综合两种从不同角度度量图像清晰程度但包含足够数据特征的方法的优势,提出一种混合对比度因子,以此生成对多聚焦图像各帧在各局部位置的决策结果。决策结果经过拉普拉斯能量和的分配权重过程,加权计算获得融合图像。实验通过比较多种图像融合方法在多组数据上的融合结果,再以多种客观质量评价方法定量分析各方法融合结果的质量。实验表明,本文提出的图像融合方法的质量较高,且计算时间成本适中。然后,提出一种基于结构相似性的深度重建方法,以多聚焦图像各帧与融合图像的相似性来度量聚焦程度,再由聚焦程度分配权重计算对应最佳深度值的帧序号的连续解。针对深度重建结果在噪声较高处失真较大的情况,给出一种基于各向异性扩散的深度值修复方法,方法中创新性的以聚焦程度的峰值信噪比确定待修复区域,再通过各向异性扩散理论计算修复区域的深度值,使三维重建结果的精度更高。实验比较基于多聚焦图像的多种深度重建方法,验证得出基于结构相似性的深度重建方法的准确性较高。最后,对本文研究内容进行了总结,并在可变焦三维显微成像系统的结构设计、图像融合与深度重建算法方面,指出了深入研究与改进的方向。