论文部分内容阅读
人脸动画技术是利用计算机图形学在建模、渲染和实时动画等方面的理论与方法,以实现实时的、真实感的人脸动画仿真,广泛应用于虚拟现实、影视制作、视频通信等领域。随着人脸动画技术应用的不断深入,研究和开发直接基于语音驱动的人脸动画技术,受到人们越来越多的关注。本文探讨和研究了基于语音驱动的人脸唇形同步动画技术,提出和实现了一种新的基于参数控制的语音驱动唇形同步人脸动画系统。
本文首先就该领域国内外研究成果进行了深入分析与总结,得出了声学语音和视觉语音之间的内在联系、人脸参数模型的构建,以及语音特征参数与人脸参数模型之间的映射关系是语音驱动人脸动画实现方法研究中首先要解决的3个关键问题。通过分析语音的产生过程及其声学特性,结合汉语语音的特点,确立了以共振峰来体现声学语音和视觉语音之间的内在联系,建立了分析提取输入语音信号与唇部运动相关的特征参数的方法。结合人脸唇部运动机理,构建了肌肉拉伸和下颌转动的人脸唇形物理参数模型。利用语音识别技术将语音序列识别为音素,建立了基于语义层的音素与视素之间的映射模型。提出和建立了一种控制灵活、可移植性强的唇形参数控制方法,实现了真人语音输入驱动唇形同步变形运动的人脸动画。
本文结合OpenGL和VC++6.0建立了语音驱动唇形同步动画的仿真实验平台,实现了语音驱动唇形同步动画的可视效果仿真。实验仿真结果表明,本文所建立的基于参数控制的语音驱动人脸唇形同步动画系统,以真人语音作为人脸动画驱动源,更具真实感,且有效地实现了语音与唇形的实时同步,大大简化了动画制作、游戏配音等领域烦琐的声像同步过程。同时,所建立的唇形参数模型独立于人脸几何模型,具有良好的普适性和可扩展性,可广泛应用于各类人脸唇形动画领域。