论文部分内容阅读
模型拟合是人工智能领域的基础研究内容,其涉及到图像处理、模式识别等计算机视觉领域的知识,已经被广泛应用到机器人定位、无人驾驶、图像拼接等任务中。模型拟合的目的是从含有离群点信息的输入数据中估计出内点及其待测模型参数。如何去除离群点并正确的估计模型结构的内点一直是学者们的研究热点。目前,国内外研究者提出了许多模型拟合算法,但在处理包含高比例离群点的多结构模型数据时仍然存在一定问题,而且在算法运行时间以及拟合准确度方面也无法满足实际应用的需求。针对上述问题,本文提出了基于谱聚类去除离群点的鲁棒模型拟合算法,并结合模型拟合在相机定位参数估计方面的应用提出了基于深度学习参数估计的相机定位方法。基于谱聚类去除离群点的鲁棒模型拟合算法(Outliers Removed via Spectral Clustering for Robust Model Fitting,ORSC),是基于传统偏好分析方法进行的改进,大多数的传统方法是将去除离群点和模型结构数据分类分成两个步骤,这样就会造成离群点被当作内点进行错误估计或者内点被误当作离群点去除,影响了模型拟合的准确度。在本文提出的算法中,首先给多次采样得到的模型假设赋予权重,将无效假设去除,然后在有效的模型假设中建立相似矩阵的概念空间,在该空间中,离群点和内点的距离分布不同,内点距离空间原点比离群点更远,根据距离分布信息,运用可以自动确定子空间类别的谱聚类(Self-Tuning),同时去除离群点和生成多结构模型数据类,节省了计算时间。此外,在得到的多结构模型数据类的内点上,重复上述步骤,得到更加鲁棒的模型假设,从而提高了算法的准确率。通过在合成数据直线拟合、圆拟合以及真实图像中的实验结果,证明了所提出的方法相比于对比方法更具有鲁棒性。基于深度学习参数估计的相机定位方法(Parameter Estimation via Deep Learning for Camera Localization)是模型拟合在相机定位方面的重要应用,传统的几何方法通过提取SFIT等特征,对图像与图像之间进行特征匹配,去除离群点(错误匹配),对相机拍摄时的内点进行估计,从而恢复出相机位姿。但该类方法对图像纹理信息依赖性很强,而且在特征处理方面计算复杂度很高。本文提出基于深度学习参数估计的相机定位,输入RGB图像,通过卷积神经网络训练学习,对相机姿态进行回归,输出6自由度的7维相机位姿向量。该卷积神经网络根据已有的PoseNet网络模型进行的改进,通过正则化处理,缓解了梯度消失问题,使得训练收敛更快速。此外,对大卷积进行分解,减少了计算复杂度。通过在公开数据集上的测试,证明了该方法的有效性。