论文部分内容阅读
在人机交互日益密切的人工智能时代,希望机器能识别人类情感的需求越来越迫切。现阶段的情感识别主要通过面部表情和语音信号实现。身体动作作为肢体语言的重要组成部分,同样蕴含了丰富的情感信息。本课题以基于身体动作的情感识别为研究内容,设计并采集处理了两个相关数据集,提出对应算法,在数据集上实现了有效识别。本文的主要贡献包括:第一,采集并处理了两个大型、多视角,识别难度由易到难的身体动作情感数据集。现阶段基于身体动作的情感识别公开数据集数量仅为个位数,单个数据集样本数量仅为千级。本课题的数据集极大丰富了该领域的研究数据,十万级别的样本总数为深度学习在该领域的运用创造了可能性。第二,针对识别较为容易的动作对照组情感数据集,虽然该数据集的数据模态仅有RGB视频,但是本课题开创性地使用人体姿态估计模型估计出骨架关节点,同时利用身体动作的RGB特征和骨架特征,实现情感识别。与该领域其他研究手工提取特征,使用传统分类器识别不同,本课题的算法特征提取和情感识别均通过深度学习网络实现,识别效果较好。第三,针对识别较为困难的标准动作情感数据集,本课题在之前研究的基础上,实验分析得出骨架特征识别效果更好,并引入注意力机制使得识别准确率进一步的提高。该算法思路继承并拓展了第二点中讨论的算法,仅使用数据量更小的骨架关节点就实现有效识别,算法效率大大提升。