论文部分内容阅读
随着科技的进步,机器视觉在工业应用中发挥了越来越大的作用。在工业机器人分拣工件过程中,需要对目标进行精确定位。图像配准是目标精识别的一大主要解决手段,利用图像配准可以使图像识别精度达到亚像素级。在复杂的场景中,图像配准问题往往得不到封闭解,目标精识别的误匹配率往往很大。如何提高复杂场景下工件目标的配准正确率以及配准精度,是现阶段需要解决的重点难题之一。本文以复杂场景下工业零件作为识别和配准对象,首先利用基于二次阈值分割的方向倒角匹配法对工件目标进行粗略定位,然后改进三种传统的配准算法分别对工件目标进行精确配准,最后进行实验验证,并通过坐标转换,测定三种改进的配准算法在复杂场景下对工件目标精定位的性能,主要完成的研究工作如下:(1)研究了基于二次阈值分割的方向倒角模板匹配算法。首先利用大津法对复杂背景下的目标图像进行图像分割,得到目标和杂乱物的前景图像,然后利用迭代阈值法对前景图像进行进一步分割,分割之后得到目标物体。经测试,该算法的工件平均识别率达到72%以上,匹配率为99.25%。(2)重点研究了三种传统配准算法,对这三种算法进行改进,得到约束SIFT特征配准算法,信赖域阻尼高斯牛顿法图像配准算法和类SIFT去噪TICP算法。首先,根据复杂场景下工件目标的具体特征,对SIFT配准算法加入约束SIFT特征配准概念,利用鲁棒性高的Shape Match模板匹配对目标进行匹配,获得粗略几何变换信息,寻找模板图像和待配准图像的匹配特征点对,剔除误匹配点对,再利用随机抽样一致性法对匹配点对进行更加鲁棒的几何变换参数估计。仿真结果显示,该算法在x、y方向上的误差均值分别为0.030个像素和0.041个像素,旋转角度误差为0.11°,配准准确率为90.7%。其次,针对高斯牛顿法的不足之处:若初始迭代点距离目标点很远时,迭代步长过大无法找到极值;在复杂场景下,容易陷入局部解。本文提出信赖域阻尼高斯牛顿法,即每次配准迭代时设定置信区间,在信赖区间内进行阻尼高斯牛顿法搜索极值点。仿真结果显示,信赖域阻尼高斯牛顿法的x、y方向上的定位误差分别为0.0345个像素和0.0736个像素,旋转角度误差为0.0984°,配准准确率为86.7%。最后,针对传统迭代最近点法在复杂场景下配准目标时,容易陷入局部解的问题,提出了类SIFT去噪TICP算法,该算法利用类SIFT算子对目标区域进行鲁棒去噪,然后使用截断迭代最近点法(TICP)进行配准。仿真结果显示,该算法在x和y方向上的定位误差分别为0.043个像素和0.0542个像素,旋转角度平均误差为0.0998°,配准方面的准确率为90.0%。(3)设计了复杂场景下目标真实位置测定实验,测定了本文工件目标精定位算法的性能,结果显示:约束SIFT特征配准算法、信赖域阻尼高斯牛顿法、类SIFT去噪TICP算法在x方向上的误差均值分别小于0.6mm、0.4mm、0.5mm,在y方向上的误差均值分别小于0.7mm、0.55mm、0.5mm,运行时间分别为0.18s~0.22s、0.88s~0.94s、0.50s~0.57s。三种算法均适用于复杂场景下工件目标精确识别。