论文部分内容阅读
鱼眼镜头具备超广角特性,与普通镜头相比可以摄取更多的信息,因此利用鱼眼镜头可以使用少量的图像即可覆盖整个三维空间,该设备在无人驾驶汽车、机器人导航定位、地理信息系统等领域广泛应用。其中,图像特征点匹配技术作为以上应用领域的核心技术之一。鱼眼图像在获得超大广角信息的同时也引入了非线性畸变,严重影响匹配数量与精度。针对此问题,本文分别提出基于曲线描述符和局部(Descriptor-Nets,D-Nets)的特征点匹配算法与基于三角网格和(Affine-SIFT,ASIFT)局部仿射的特征点匹配算法。其中主要研究工作如下:首先,从普通透视图像的特征点匹配入手,分析普通透视镜头与鱼眼镜头在成像模型上的差异,通过介绍特征点匹配的基本原理,对现有的特征点匹配算法性能进行分析,并提出这些算法在鱼眼图像上不适用的原因。其次,针对鱼眼图像非线性畸变对特征匹配描述符的影响,提出基于曲线描述符和局部D-Nets的匹配算法。D-Nets算法是一种鲁棒性极强的仿射图像匹配算法,由于D-Nets算法的直线描述符不适用于鱼眼图像,因此提出一种基于鱼眼图像半球模型的曲线描述符。与此同时,针对D-Nets算法计算复杂度高、匹配速度慢的问题,本文将传统的全局D-Nets匹配算法改进为局部D-Nets匹配算法。经过实验验证,提出方法与全局D-Nets算法相比都能获得更多准确的匹配点。然后,针对仿射图像匹配算法ASIFT进行改进,提出了基于三角网格和ASIFT局部仿射的匹配算法。该算法采用局部仿射模型将鱼眼图像匹配问题转化为多区域仿射图像匹配。通过构建三角网格将鱼眼图像划分为多个图像区域,并对每个区域采取局部仿射匹配,然后依托运动平滑统计的思想在三角网格的基础上,进行去除误匹配点的操作。该算法在鱼眼图像的匹配中可以获得大量的匹配点,并且可快速的区分出正确的匹配和错误的匹配,有效的提高鱼眼图像匹配的稳定性与准确性。最后,对不同场景下的缩放、平移、仿射变换图像进行特征点匹配实验。实验结果表明,在进行比较的各种算法中基于曲线描述符和局部D-Nets的匹配算法取得最低的错误匹配率,且匹配点分布均匀;基于三角网格和ASIFT局部仿射的匹配算法在所有算法中获得最多的匹配点数目。