论文部分内容阅读
假设机器能够自动感知人的情绪,那么人机交互就会变得更加友好和自然,将对人工智能领域的发展起到重大的推动作用。有研究提出,人的情绪常常可以通过身体上的物理变化反应出来,包括面部的表情,肌张力等。为了实现日常状态下无侵扰的情绪识别,本研究采用了新的研究视角,分别提出了利用可穿戴及体感技术实现用户情绪分类的有效方法。利用步态行为数据预测用户情绪。本文提出利用智能手环客观地记录用户的行为加速度数据,构建情绪分类模型的方法。实验共招募123名健康被试,在通过高兴、愤怒视频诱发用户情绪后,记录用户行走时手腕和脚踝的加速度数据。从时域、频域和时频域内分别提取步态行为特征共计114维。基于SVM、决策树、随机树和随机森林等经典机器学习算法建立三种情绪(中性、高兴和愤怒)识别模型。实验结果表明,SVM模型的分类效果较好,两类情绪"中性-愤怒"、"中性-高兴"、"高兴-愤怒"的分类准确率分别为91.3%、88.5%、88.5%;三类情绪"中性-高兴-愤怒"的分类准确率为81.2%,验证了基于步态行为特征识别用户情绪的可行性,为情绪识别提供了新思路。利用3D面部数据预测用户情绪。本文提出了一种利用Kinect体感设备预测用户情绪状态的方法。实验共招募了52名(34名女性,18名男性)被试,通过中性、高兴和悲伤情绪视频诱发被试情绪,同时利用Kinect记录被试在观看不同情绪视频时的三维面部数据。本文设计了特征点筛选方法,从1347个面部3D点中选取100个面部关键点,提取每个点坐标的相关系数、标准差、峰度、偏度、功率谱能量的均值和标准差以及快速傅里叶变换(FFT)后的系数等作为面部特征向量。利用多种机器学习方法对中性、高兴和悲伤三种情绪建立分类模型,三种情绪的预测准确率均达到了70%以上。同时,为了验证情绪识别模型应用在不同性别中的差异性,本文分别对男组和女组数据进行了研究。实验结果显示,在男组中,三类情绪识别准确率为76.6%,在女组中,三类情绪识别准确率为79.6%。