论文部分内容阅读
随着人与计算机的联系日益紧密,人机交互技术面临着新的挑战。从传统的鼠标、键盘的交互方式到现在的触屏、手势、语音等交互方式,人机交互技术的主题既是自然性、高效性。在计算机表现形式的多样化和用户与计算机交互方式的多样化的今天,将多种交互方式结合起来的多通道人机交互技术得到了广泛的发展。另一方面,交互水平的提高对交互界面提出了新的要求。不同用户在交互过程中展现出不同的兴趣偏好和习惯,因此研究一种能满足用户的个性化需求的交互界面就显得尤为重要。本文以认知心理学、行为决策科学、计算机科学为理论指导,构建基于手势、眼动等的多通道人机交互模型和实现机制,结合对自适应交互的理论与技术问题的研究,研究基于多通道的自适应交互界面。本文首先对多通道交互框架进行了分析,结合眼动识别和手势识别的相关理论和技术,采用基于任务的多通道信息融合方法,对多通道交互方式进行了设计,并以虚拟键盘界面为例,研究了眼动和手势交互的特点,实现了比较高效的多通道交互。同时,本文提出了一种结合眼动的自适应界面框架,介绍了自适应界面技术主要的研究内容,建立了界面模型、交互模型以及眼动模型,针对界面元素和交互过程,提出了基于眼动的自适应算法,并通过实验验证了该算法的有效性。