论文部分内容阅读
在日常生活中,人们通过触觉和视觉来感知周围的环境,并对环境中的物体进行相应的处理。若要在无法到达的环境中完成复杂的作业任务,或者要实现“身临其境”的体验未知的环境,往往需要用到虚拟现实技术。借助虚拟现实技术实现的“触觉”和“视觉”,可以产生“身临其境”的感觉。在操纵远端机器人时,操作者如果同时能够看到并感受到远端环境,将能够更精确的实现对远端机器人的控制并完成作业任务。本论文主要利用虚拟现实技术实现带力觉的机器人抓取物体的虚拟操作。其中视觉的再现主要依靠对虚拟环境的仿真、运动学建模实现;触觉、力觉的再现主要通过碰撞检测、力反馈模型和PHANTOM力反馈器实现。带力反馈机器人虚拟操作系统由力反馈器,仿真模型,显示设备三部分组成,主要模块包括位姿信息采集模块,位姿信息处理模块,力反馈模块,碰撞检测模块,虚拟环境模块,显示模块。带力反馈机器人虚拟操作系统的硬件组成包括PHANTOM力反馈设备和计算机。PHANTOM力反馈设备具有力反馈和主操作手两种功能。在虚拟操作系统中,操作者通过操作力反馈器的操作杆来控制虚拟机器人执行相应的动作,完成任务。在机器人运动的过程中,机器人和环境中物体的碰撞以及虚拟物体之间的相互碰撞产生的作用力均通过PHANTOM的操作杆反馈给操作者。系统中计算机的作用为处理碰撞检测、位姿信息、反馈力信息等软件模块。位姿信息处理部分主要包括正向运动学与逆向运动学。由于PHANTOM与虚拟机器人属于异构系统,两者的结构和功能不尽相同,故PHANTOM的位姿信息需要通过一系列变换映射到虚拟机器人空间,从而得到虚拟机器人的位姿信息。即“关节-位姿-位姿-关节”的驱动方式。其中“关节-位姿”为PHANTOM端的正向运动学过程,“位姿-关节”为虚拟机器人端逆向运动学过程。碰撞检测用于检测运动过程中物体之间是否发生碰撞,若发生碰撞则进行反馈力的计算与输出,如反馈力的大小和方向;以及碰撞物体后续运动情况的处理,如碰撞后物体的运动情况等。在碰撞检测部分,本文采用基于图像空间的碰撞检测方法。该方法通过OpenGL的扩展功能--FBO(Frame Buffer Object)技术--将虚拟环境中物体的深度信息渲染至纹理,然后利用GPU的运算能力对纹理中的深度数据进行运算处理,根据运算结果判断出是否发生碰撞。针对反馈力的计算和实现。首先本论文分析了“质点-弹簧-阻尼器模型”和“Stick-snag”两种力反馈模型,并依照物理学原理给出了“顶点-面”“边-边”两种基础接触模式下非摩擦类反馈力的计算公式,以及动摩擦力、静摩擦力等摩擦类反馈力的计算公式。然后对于“面-面”接触等其他较为复杂的接触模式,分解为两种基础的接触模式计算反馈力。最后,在力反馈虚拟操作实验部分,本文分别设计了顶点-面、边-边碰撞实验,代理点滑动实验、斜面物体滑动实验,虚拟物体抓取实验,分别用于验证碰撞检测算法,反馈力算法的正确性,以及该带力反馈的机器人虚拟操作系统的可行性。