论文部分内容阅读
红外和可见光图像融合是将红外传感器和CCD传感器针对某一场景获得的两幅图像进行综合处理,从而得到一幅信息更全面的新图像的技术。与单一、孤立的红外图像或者可见光图像相比,融合后的图像更易识别,能够提供更多的目标信息。本论文主要研究了基于多尺度分解的红外和可见光图像融合算法。针对传统融合算法融合后图像模糊、信息不丰富的问题进行研究。其成果如下:1.针对小波变换在图像处理中的方向选择性有限、几何正则性缺失等缺陷以及Contourlet变换不具有时不变性,选择非下采样Contourlet变换进行融合的操作。非下采样Contourlet变换能够充分的挖掘图像的方向信息,对于高维图像信息能够实现更稀疏的表示,表现出多尺度、多方向性、平移不变性的优点。2.针对融合后图像模糊现象,采用非下采样Contourlet变换对图像进行分解,重点分析了低频信息对图像清晰度的影响,提出了自适应的红外和可见光图像融合算法。该方法兼顾图像低频的变化和均匀程度,在确保图像清晰的基础上保证图像边缘不失真,有效的解决了经典融合算法的对比度较差、失真度高的缺陷。通过实验验证,相比传统的非下采样Contourlet变换算法熵值平均提高6.8%。3.针对传统的红外与可见光融合算法忽略了红外与可见光图片背景的差异性和目标的互补性,造成融合后的图片清晰度不够,可识别性差的缺陷,本文分析了红外和可见光图像的特点,提出一种基于红外目标提取的图像融合算法。利用最大类间方差准则将目标从背景中提取出来,依据非下采样Contourlet变换将图像目标信息融合,而后结合可见光背景信息。该方法保证了图像的背景信息,同时较好的融合了目标信息,从而极大地改善了目标的视觉效果及信息含量。通过实验验证,相比传统的非下采样Contourlet变换算法熵值平均提高9.7%。上述研究工作,初步解决了图像融合中出现的清晰度不够,目标不突出等问题,为后续的目标识别、跟踪、检测等提供丰富、准确的信息。