论文部分内容阅读
基于计算机视觉的人机交互是计算机领域的重要课题,它利用视觉信息的分析直接理解人的动作,实现了自然、无障碍的用户体验,具备巨大的科研和市场价值。近年来,基于手势的视觉交互接口受到越来越多的重视,但尚缺乏通用计算平台上完备而实用化的实时系统。针对此问题,本文分别提出手势检测、跟踪和识别的算法以及系统级的解决方案。具体而言,本文的贡献如下:(一)手势检测方面。本文依据AdaBoost手势检测器、混合高斯模型肤色Blob检测器的检测结果,结合特定手势识别器和多帧的输出,依据Fisher准则通过置信度信息融合为高可靠性的交互手势检测器,提升了单一检测器在背景混杂和相似颜色条件下鲁棒性。(二)手势跟踪方面:针对的桌面交互,本文以核跟踪为基础,提出高置信度的鉴别性的子空间特征目标描述子;通过构造出结合空间信息和颜色信息的混合高斯核函数的相似度,结合目标的尺度相关的多核位置估计相似度曲面,校正mean-shift迭代以快速准确地适应复杂背景下外观改变且快速的手跟踪任务。针对的远距离交互,提出利用混合高斯核函数相似度的粒子重采样策略与基于运动状态自适应动态转移模型的粒子传播策略,使改进后的粒子滤波适应了小尺度目标在突发运动中的定位要求。(三)在手势识别方面。本文针对跟踪与识别模糊性问题,提出了梯度方向直方图静态手势描述子,设计了软判决式树形最近邻法分类器,实现基于实时跟踪位置上多种静态手势的快速识别。此外还论述了结合轨迹和静态手势的动态手势在用户友好的实时交互系统中的设计准则。(四)在系统设计方面,本文讨论手势视觉交互的硬件需求和信息流程。以一款车载中心为背景,将上述检测、跟踪和识别等模块进行集成,详细阐述了手势视觉交互系统的语义场设计并实现其软件原型。本文通过算法流程理论分析和实验,论述所提出的手势检测、跟踪和识别等方案的在效率和性能上的优势,并通过与相关文献的比较体现本文系统整体的完备性和独特性。