论文部分内容阅读
基于计算机视觉的手势交互技术,因其自然性、简洁性、丰富性和直接性的特点而成为人机交互技术的一个研究热点。本文主要从人机交互的角度出发,重点对手势交互技术中的手势跟踪算法进行研究。主要通过对手势的自动检测与分割和多算法融合的手势跟踪算法的研究,提出更加准确、快速的跟踪算法,为后续的手势交互技术奠定基础。论文的具体研究工作有以下两个方面:基于计算机视觉的手势交互系统,手势区域的检测和分割对于整个系统相当重要,其检测效果的好坏直接影响到后续算法的处理效果甚至整个系统的稳定。针对现有算法在复杂环境下分割效果不太准确的问题,通过采用多特征融合的方法对手势区域进行分割,提出一种基于多特征融合的目标手势区域检测与分割方法。该方法首先通过序列图像的运动信息提取出运动的区域,并对提取的区域进行基于高斯肤色模型的肤色检测,来提取运动的手势区域。然后再对仍旧存在的错检漏检的区域通过区域增长的方法精确地分割出手势区域。实验表明:该方法能够更加准确的检测和分割出运动的手势区域在人机交互的过程中,目标人手和计算机之间往往会因为随机的遮挡而导致跟踪的失败。另外,因人手形变、自遮挡以及跟踪算法实时性不能满足系统要求等问题,提出一种以实时性为目标的基于粒子滤波和均值漂移算法相融合的运动手势跟踪方法。该方法结合手势交互过程中手势局部性运动的规律,当人手在局部运动或运动缓慢时,利用均值漂移局部寻优提高有效粒子数,并将粒子的均值漂移作为粒子的传播来节省粒子的传播过程,进而提高了跟踪算法的实时性和有效性。实验表明:该方法在复杂场景下较传统单一算法具有较强的鲁棒性,并且能够满足跟踪算法的实时性要求。