论文部分内容阅读
语音驱动人脸表情动画研究已有一定的研究成果,但合成的情绪化表情仍然不够生动和丰富,并且用户难以对合成的表情动画进行直观的控制或编辑。为此,本文提出了情绪可控的表情动画合成方法。首先。
从训练数据中定义出模特六大情绪——高兴、悲伤、愤怒、厌恶、害怕、惊讶的情绪表情基。采用优化方法从不同情绪的训练数据中计算得到对应情绪表情基的权重,从而完成情绪表情的参数化及情绪分离。然后。
将头部运动及情绪表情基权重整合成表情动画特征,建立描述其与语音韵律特征之间关系的隐马尔可夫模型(Hidden Marlkov Model,删)。最后,将由情绪分离方法得出的情绪表情参数作为用户情绪编辑的接口。构造了由情绪种类-强度一时间维度组成的情绪袁情编辑空间,从而实现了对情绪表情的交互控制。实验结果表明。
本文的情绪分离方法可以有效地将原始捕获数据分解为语音动画和表情动画:使用语音韵律特征作为依据合成的表情动画具有自然生动的强度变化:提供的编辑空间可以满足用户编辑情绪种类、调节情绪变化强度、编排表情动画等控制需求。
从训练数据中定义出模特六大情绪——高兴、悲伤、愤怒、厌恶、害怕、惊讶的情绪表情基。采用优化方法从不同情绪的训练数据中计算得到对应情绪表情基的权重,从而完成情绪表情的参数化及情绪分离。然后。
将头部运动及情绪表情基权重整合成表情动画特征,建立描述其与语音韵律特征之间关系的隐马尔可夫模型(Hidden Marlkov Model,删)。最后,将由情绪分离方法得出的情绪表情参数作为用户情绪编辑的接口。构造了由情绪种类-强度一时间维度组成的情绪袁情编辑空间,从而实现了对情绪表情的交互控制。实验结果表明。
本文的情绪分离方法可以有效地将原始捕获数据分解为语音动画和表情动画:使用语音韵律特征作为依据合成的表情动画具有自然生动的强度变化:提供的编辑空间可以满足用户编辑情绪种类、调节情绪变化强度、编排表情动画等控制需求。