论文部分内容阅读
传统的基于图像的视觉伺服,一般采用特征点的图像坐标作为视觉特征,利用反馈比例控制器来实现对当前视觉特征与期望视觉特征之间误差的补偿。该方法对系统模型误差以及摄像机标定误差具有鲁棒性,因此通常可以得到满意的控制效果。然而,传统的伺服方法仍存在一些不足,如系统的局部渐近稳定性,摄像机后退现象以及图像雅可比矩阵的奇异等。尤其是约束处理,目前基于图像的视觉伺服方法研究多数都未明确考虑此问题。事实上,通常情况下,基于图像的视觉伺服需要考虑三种系统约束:(1)执行器速度约束,即根据机器人的机械结构,规划执行器的最大速度,避免执行器速度超出其物理约束;(2)目标可见性约束,即根据摄像机的有效视野范围,规划目标点的图像特征轨迹,避免特征点跑出摄像机的视野;(3)摄像机三维轨迹约束,即根据机器人的工作空间范围,规划摄像机的三维轨迹,避免产生不必要的运动。忽略上述约束问题,轻则可以造成伺服效果变差,重则可能导致伺服任务失败。本文以单目机器人手眼系统为研究对象,针对基于图像的视觉伺服方法,研究带有约束的机器人视觉伺服,并提出如下几种控制方法:首先,提出一种基于并行分布补偿原理的视觉伺服控制方法。若将视觉伺服凸多面体模型的权值函数视作T-S(Takagi-Sugeno)模糊模型的隶属度函数,则该模型的闭环传递函数与T-S模糊模型的闭环传递函数等价,因此可直接利用并行分布补偿原理为视觉伺服系统设计控制器。以特征点的图像坐标作为视觉特征,将机器人的执行器速度约束规划为系统的输入约束,目标可见性约束规划为系统的输出约束,则视觉伺服系统的控制任务可通过离线求解线性矩阵不等式(LMI)的凸优化问题实现,且线性矩阵不等式的可行解保证视觉伺服系统的闭环渐近稳定性。然后,提出一种基于准最小最大模型预测控制的视觉伺服控制方法。同样以特征点的图像坐标作为视觉特征,将机器人的执行器速度约束规划为系统的输入约束,目标可见性约束规划为系统的输出约束,在无限时域内执行预测控制,视觉伺服系统的控制任务通过在线求解线性矩阵不等式的凸优化问题实现,线性矩阵不等式的可行解保证视觉伺服系统的闭环渐近稳定性。与基于并行分布补偿原理的视觉伺服控制方法不同的是,该方法通过线性矩阵不等式的在线滚动优化动态求解视觉伺服最优控制信号,抗扰动能力较强。另外,将系统控制信号分为当前时刻控制信号与未来时刻控制信号两部分,并对于每个点特征构造线性矩阵不等式,其数量仅与单个特征点图像雅可比矩阵中的时变参数数量有关,适用于六自由度视觉伺服系统的控制,能够完成传统方法中难以解决的任务。最后,将特征点的深度信息与图像坐标同时作为视觉特征,推导针对该视觉特征的图像雅可比矩阵,提出一种改进的视觉伺服准最小最大模型预测控制方法。基于准最小最大模型预测控制的视觉伺服控制方法虽然能够有效约束摄像机的执行速度与视觉特征在图像平面的二维轨迹,然而,该方法并不能明确规划摄像机的三维轨迹,对于绕光轴转动的视觉伺服任务仍会出现摄像机后退现象,严重时甚至导致任务失败。该改进算法加入深度特征的约束,将机器人的执行器速度约束规划为系统的输入约束,而目标可见性约束与摄像机三维轨迹约束被同时规划为系统的输出约束,在不影响原算法性能的前提下,对于改进摄像机的三维轨迹具有显著效果,系统易于完成绕光轴π弧度的纯旋转任务。