论文部分内容阅读
人机交互技术是当代计算机技术研究的热点之一,随着物质世界的多样化发展,人们对多渠道、多途径的人机交互方式的需求越发的迫切。视觉交互的双向性特点使得它在人机交互过程中比鼠标、键盘的操作方式更加直观自然,因此对视线跟踪技术进行研究具有重大意义。传统的桌面式视线跟踪系统不适用于用户大范围运动的场景,国内现有的头戴式视线跟踪技术则存在算法普适性差、复杂度大等问题。因此,本课题以国外先进的视线跟踪设备为参照,对基于头戴式眼动仪的视线跟踪算法做进一步的研究,降低算法复杂度和提高系统稳定性。本文针对头戴式视线跟踪设备,提出了一种瞳孔中心映射的方法对注视点进行估计。充分利用了头戴式的眼动跟踪设备在进行眼动特征跟踪时,眼部图像采集摄像机与人眼的位置相对固定的特点,选取眼部图像中的坐标系原点为静止参考点,避免了对角膜反射光斑和眼角位置的提取,简化了瞳孔角膜向量法和瞳孔眼角向量法的算法处理流程。在眼动跟踪算法部分,本文提出了一种瞳孔中心二次提取的处理手段,先通过中值滤波、自适应阈值二值化处理获得瞳孔区域分割图,然后经边缘检测和边界拟合法进行瞳孔中心点坐标提取,较大概率避免了将眉毛眼睑等错检为瞳孔,完成了眼动跟踪组合算法的研究设计。在视线跟踪模型建立过程中,本文针对头戴式视线跟踪系统必须满足用户高自由度的应用需求,假设了三种基于多项式拟合的注视点映射模型,并对注视点标定方法进行了探究。为了验证算法的眼动跟踪精度和注视点跟踪精度,本文还设计了一系列实验。结果证明本文提出的基于瞳孔中心二次提取的处理方法和Log边缘检测及基于RANSAC的边界拟合方法能准确的对瞳孔中心点进行提取,眼动跟踪精度基本和现有的研究水平接近。经实验测定,本文提出的视线跟踪组合算法的平均处理速度大于35帧/秒,满足人机交互中对视线跟踪系统实时性的要求。最终结果表明,视线跟踪精度与人眼到注视点平面有关,距离越近,误差越小,当人眼与注视平面距离720 mm时,注视点跟踪误差0.98°,对应真实空间中的12.35 mm,满足人机交互中对人机之间的距离和跟踪精度的基本要求。综上,本文提出的基于瞳孔中心映射的视线跟踪算法实现了对眼球运动状态和人眼注视点的准确跟踪,满足了基本的人机交互需求。