论文部分内容阅读
近年来,随着机器人技术、信息技术等多种技术的协同发展,弊端众多的手工焊接加工方式逐渐不再适用于现代制造场合,取而代之的是以焊接机器人为主体的自动化焊接加工系统,但受限于当前机器人的智能化水平,大多数机器人实施焊接作业时仍停留在“手动示教—记忆再现”这一固定模式。在非结构化焊接环境中,受热变形、振动移位、装夹误差等因素的影响,导致焊缝的实际轨迹与示教轨迹间不可避免地存在偏差,这种工作模式的机器人不能根据轨迹的变化作出相应的修正动作,从而影响最终的焊接质量与精度。为此,本文对机器人实现环境信息感知和自我认知功能所需要的焊缝跟踪技术进行了研究,采用“传感—决策—执行”的模式,在设计以激光为信息载体、视觉为感知手段的激光视觉传感器的基础上,通过开发激光视觉信息采集模块、焊缝图像信息处理模块及焊缝跟踪控制模块等功能单元,构建了一套基于深度分层特征的激光视觉焊缝检测与跟踪系统。本课题的研究获得国家科技重大专项“五千台具有完全自主知识产权的面向机床自动化生产的机器人开发及产业工程”(编号:2015ZX04005006)和广东省科技重大专项“面向数控机床与机器人集成一体化技术的研究”(编号:2014B090920001)资助。研究的内容主要包括:(1)在剖析焊缝自动跟踪系统总体框架、工作机制及设计要求的基础上,研制了实时获取焊缝位置信息的激光视觉传感器,根据视觉测量系统中激光视觉传感器与机器人的空间分布关系,结合透视投影成像模型,详细推导和建立了具有由二维图像信息重构三维位置信息功能的测量数学模型。基于Halcon软件研究了装载于传感器中的工业相机的标定算法,从而实现二维视觉坐标向相机坐标系下三维空间位置的映射。研究了激光平面的标定算法,使用平面靶标通过变位姿采样获取大量同源激光点,通过正交回归方法进行平面拟合得到平面方程的关键参数。针对以传感器为眼、机器人末端为手构成的Eye-in-Hand系统,提出了一种定点变位姿的手眼标定算法,以健壮求解相机与机器人间的手眼关系矩阵,最终实现像素坐标系下二维视觉坐标向机器人基坐标系下三维空间坐标的转换。(2)针对目前大多数焊缝跟踪系统中图像处理算法对飞溅、弧光等噪声极其敏感,难以从含有强烈噪声污染的时序图像中稳健、快速检测出焊缝并精确定位,导致跟踪精度降低的问题,从焊缝特征提取、焊缝检测定位两方面对焊缝检测和跟踪算法进行了研究。在研究与深度卷积神经网络相关的若干关键性基础理论的基础上,结合深度卷积神经网络强大的特征表达能力和自学习功能,提出了基于深度分层特征的焊缝检测和跟踪算法。提出的图像处理算法通过深度卷积神经网络结构提取目标高层次的深度抽象特征,克服了传统像素级特征分析以及单一几何特征识别或统计决策方法的局限,减小了特征的歧义性;考虑到相邻帧间焊缝特征点运动的连续性及激光条纹结构信息的相关性,提出了基于多相关滤波器协同检测机制的实时焊缝搜索定位策略,旨在解决大噪声下焊缝的智能检测和定位这一技术难题。(3)焊缝自动跟踪控制系统呈现出明显的大耦合、强非线性及时变性,为尽可能地避免焊枪依循计算轨迹运动所出现的周期性抖振问题,控制系统应具有一定的动态柔顺性及自适应性。在适应性广、控制精度高的传统PID控制方法的基础上,借鉴生物机体的免疫反馈响应过程,同时设计模糊控制器在控制过程中学习环境的非预知信息,提出了适用于复杂焊接环境的模糊免疫自适应智能控制算法。设计的智能跟踪控制器具有稳健性及全局自寻优能力,能够实时优化控制参数,可赋予系统论域自适应变伸缩且模糊规则自调整的特性,能够实现平滑的轨迹跟踪。(4)搭建了焊缝跟踪实验平台,在实际焊接环境中应用所提算法进行了焊缝自动跟踪实验。实验结果表明,在强烈弧光和飞溅的干扰下,传感器测量频率达到20 Hz,平均绝对跟踪误差均小于0.25 mm,而最大跟踪误差也未超过1 mm,焊接过程中焊枪末端运行平稳。从而证明该系统能实现焊缝的实时跟踪,可准确可靠地从不同程度噪声污染图像中检测到焊缝位置并实现平滑焊接,与目前大多数焊缝自动跟踪系统所能达到的最好精度范围0.3mm~0.5mm相比,具有更大的性能优势,能够满足高质量的焊接要求。