论文部分内容阅读
集成激光雷达、组合导航、相机等多种传感器的移动测量系统广泛应用于测绘、智能驾驶等多种行业当中。传感器的多元化很大程度上推动了移动测量技术的快速发展,但也为移动测量系统数据一体化处理带来了严峻的挑战,如何实现系统各传感器获取的异构数据高精度和有效融合是移动测量技术发展的所需要解决的关键问题。针对移动测量系统异构数据(3D激光点云、2D影像)高精度融合,论文分别从移动测量系统检校与异构数据融合两个关键部分开展相关研究,以移动测量系统原理为基础、系统传感器高精度检校算法为核心,通过异构数据的高精度融合建立移动测量一体化数据模式,实现系统中不同传感器获取的异构数据信息有效整合与共享。论文主要研究内容和创新点如下:(1)构建了一种基于多特征约束的移动测量系统视准轴误差自检校模型,解决单一特征约束模型适应性差以及检校过程自动化程度低等问题,增强了检校模型的鲁棒性。根据视准轴误差影响规律,从单一特征约束的检校模型入手,提出了基于参考面约束的视准轴误差检校模型以及基于球特征的视准轴误差检校模型,实验结果表明,单一特征约束检校模型虽然能有效求解出视准轴误差并获得较高的检校精度,但存在对集成不同类型激光雷达传感器的移动测量视准轴误差检校的普适性较差的问题。为提高检校模型的普适性、稳定性,同时结合特征自动化提取算法,构建了一种基于多特征约束的视准轴误差自检校模型,在构建检校模型时采用多种特征作为约束,同时引入排列方法进行约束方程匹配用于确保观测量对检校结果影响的等效性。通过集成不同精度传感器的四种移动测量系统对该检校模型进行验证。实验结果表明,方法能够有效消除视准轴误差,具有较好的适应性和可靠性。最后根据协方差传播定律,从理论层面验证了多特征约束模型的可靠性要优于单一特征约束的检校模型,精度更高、适应性更强;(2)提出了一种基于整体最小二乘的稳健相机内参数检校方法,并设计出一种检校装置用于克服图像(2D)-激光点云(3D)两种异构数据同名特征精提取问题。针对相机内参数检校方法中因参数过多易陷入局部最优解、观测值和系数阵中存在误差的情况,通过将直接线性变换法与空间后方交会法相结合,用于解决相机内参数线性化解算过程中容易陷入局部最优解的问题;通过构建整体最小二乘并在解算过程中利用像点位移残差标准差为阈值进行粗差剔除从而获得相机内参数的可靠估值。在相机内参数精检校的基础上,为实现移动测量一体化数据模式,以三维点云数据为基准,棱台装置为桥梁,将点云自动化以及图像识别算法相结合,实现图像(2D)-激光点云(3D)两种异构数据同名特征精提取,有效提高了相机外参数高精度检校。最后,以面阵相机与全景相机为对象进行外参数检校实验验证,结果表明相机外参数检校中误差优于1个像素;(3)提出了一种基于时间的序列化影像数据融合方法,通过邻域影像修补技术解决相机视场角不匹配导致真彩点云缺失问题,实现激光点云与影像数据高精度融合。根据移动测量系统时间同步机制,以影像触发的GNSS时间为基准,结合激光点云采集连续性以及影像采集间隔性的特点,通过时域分割方法实现激光点云与序列化影像快速高精度融合。以搭载面阵相机的无人机移动测量系统和搭载全景相机的车载移动测量系统为对象进行实验分析,结果表明提出的融合方法可行、精度可靠。在此基础上,针对相机传感器与激光雷达视场角不匹配问题,依托高精度相机外参数检校技术,设计了邻域影像修补方法,解决了因传感器视场角不匹配而造成的真彩点云信息缺失问题,有效提升了真彩点云信息的完备性;(4)建立了基于球坐标系下共线关系的全景立体量测模型,同时结合深度相机原理,提出了一种基于距离影像的单全景量测模型。在移动测量系统检校、高精度融合的基础上,针对全景影像量测问题,结合传统摄影测量立体量测理论,构建出基于球坐标系下共线关系的全景立体量测模型。通过实验分析,全景立体量测模型在15m范围内量测中误差为2.3cm。在此基础上,考虑到全景立体量测交互复杂性以及交会角对量测精度影响问题,结合深度相机原理以点云反向融合为支撑,提出了一种基于距离影像的单全景量测模型。该方法利用三维激光点云反向融合为影像数据提供距离信息,实现全景影像数据由2D向3D维度的升华。通过实验评估,单全景量测模型理论可行、方法可靠,量测中误差为3.8cm,完全能够满足测绘中全景量测需求,有效实现移动测量系统异构数据高精度双向融合与应用。