删除或更新信息,请邮件至freekaoyan#163.com(#换成@)

基于GMM的增量式情感映射

本站小编 哈尔滨工业大学/2019-10-24

基于GMM的增量式情感映射

韩晶1,解仑1,王志良1,任福继2

(1.北京科技大学 计算机与通信工程学院,北京100083; 2.情感计算与先进智能机器安徽省重点实验室(合肥工业大学),合肥230009)



摘要:

为有效地获得用户的真实情感状态,促进和谐的人机交互体验.结合AVS情感空间和大五人格理论,提出一种基于高斯混合模型的增量式情感映射模型.首先,在AVS情感空间的3种属性(A, V, S)坐标轴上,利用高斯混合模型对情感类型进行依次建模,计算情感概率值及其空间分布;其次,针对用户的个体差异性,采用层次分析法研究人格五因素与情感属性之间的关联,获得用户的个性化认知参数,实现具有个性化认知的情感映射结果;之后,采用增量式学习方法对情感类型的分布空间进行实时修正,保证情感分类的高准确率.最后,实验结果验证了该方法的情感映射结果与用户的真实情感状态具有高度一致性,并有较好的自适应性.

关键词:  情感映射  AVS情感空间  高斯混合模型  大五人格理论  增量式学习

DOI:10.11918/j.issn.0367-6234.201707059

分类号:TP751.1

文献标识码:A

基金项目:国家重点研发计划重点专项课题(2016YFB1001404); 国家自然科学基金面上资助项目(61672093); 国家自然科学基金重点资助项目(61432004)



Incrementally emotion mapping based on GMM

HAN Jing1,XIE Lun1,WANG Zhiliang1,REN Fuji2

(1. School of Computer and Communication Engineering, University of Science and Technology Beijing, Beijing 100083, China; 2. Affective Computing and Advanced Intelligent Machines Key Laboratory(Hefei University of Technology), Hefei 230009, China)

Abstract:

In order to obtain users' actual emotional status effectively and promote a harmonious human-computer interaction experience, combined with the AVS emotional space and big five personality theory, this paper proposes an incremental emotion mapping model based on Gauss mixture model. First of all, with three attributes in AVS emotional space (A, V, S) coordinate, the emotional probability value and space distribution is calculated with Gauss mixture model. Secondly, based on differences of individual users, analytic hierarchy method was used to study the relationship between big five personality and emotional attributes, personalized cognitive parameters of the user was obtained, and the realization of emotional mapping results with personalized knowledge were achieved. Then, incremental learning method was applied to get real-time correction of the spatial distribution of emotion type, thus ensuring the high accuracy of emotional classification. Finally, the experimental results show that this method has a high degree of consistency with the real emotional state of the user, and also has good adaptability.

Key words:  emotion mapping  AVS emotional space  Gaussian mixture model  five-factor model  incremental learning


韩晶, 解仑, 王志良, 任福继. 基于GMM的增量式情感映射[J]. 哈尔滨工业大学学报, 2018, 50(8): 168-173. DOI: 10.11918/j.issn.0367-6234.201707059.
HAN Jing, XIE Lun, WANG Zhiliang, REN Fuji. Incrementally emotion mapping based on GMM[J]. Journal of Harbin Institute of Technology, 2018, 50(8): 168-173. DOI: 10.11918/j.issn.0367-6234.201707059.
基金项目 国家重点研发计划重点专项课题(2016YFB1001404);国家自然科学基金面上资助项目(61672093);国家自然科学基金重点资助项目(61432004) 作者简介 韩晶(1990—),女,博士研究生;
解仑(1968—),男,教授,博士生导师;
王志良(1956—),男,教授,博士生导师;
任福继(1959—),男,教授,博士生导师 通信作者 解仑,xielun@ustb.edu.cn 文章历史 收稿日期: 2017-06-22



Contents            -->Abstract            Full text            Figures/Tables            PDF


基于GMM的增量式情感映射
韩晶1, 解仑1, 王志良1, 任福继2    
1. 北京科技大学 计算机与通信工程学院,北京 100083;
2. 情感计算与先进智能机器安徽省重点实验室(合肥工业大学),合肥 230009

收稿日期: 2017-06-22
基金项目: 国家重点研发计划重点专项课题(2016YFB1001404);国家自然科学基金面上资助项目(61672093);国家自然科学基金重点资助项目(61432004)
作者简介: 韩晶(1990—),女,博士研究生;
解仑(1968—),男,教授,博士生导师;
王志良(1956—),男,教授,博士生导师;
任福继(1959—),男,教授,博士生导师
通信作者: 解仑,xielun@ustb.edu.cn


摘要: 为有效地获得用户的真实情感状态,促进和谐的人机交互体验.结合AVS情感空间和大五人格理论,提出一种基于高斯混合模型的增量式情感映射模型.首先,在AVS情感空间的3种属性(A, V, S)坐标轴上,利用高斯混合模型对情感类型进行依次建模,计算情感概率值及其空间分布;其次,针对用户的个体差异性,采用层次分析法研究人格五因素与情感属性之间的关联,获得用户的个性化认知参数,实现具有个性化认知的情感映射结果;之后,采用增量式学习方法对情感类型的分布空间进行实时修正,保证情感分类的高准确率.最后,实验结果验证了该方法的情感映射结果与用户的真实情感状态具有高度一致性,并有较好的自适应性.
关键词: 情感映射    AVS情感空间    高斯混合模型    大五人格理论    增量式学习    
Incrementally emotion mapping based on GMM
HAN Jing1, XIE Lun1, WANG Zhiliang1, REN Fuji2    
1. School of Computer and Communication Engineering, University of Science and Technology Beijing, Beijing 100083, China;
2. Affective Computing and Advanced Intelligent Machines Key Laboratory(Hefei University of Technology), Hefei 230009, China


Abstract: In order to obtain users' actual emotional status effectively and promote a harmonious human-computer interaction experience, combined with the AVS emotional space and big five personality theory, this paper proposes an incremental emotion mapping model based on Gauss mixture model. First of all, with three attributes in AVS emotional space (A, V, S) coordinate, the emotional probability value and space distribution is calculated with Gauss mixture model. Secondly, based on differences of individual users, analytic hierarchy method was used to study the relationship between big five personality and emotional attributes, personalized cognitive parameters of the user was obtained, and the realization of emotional mapping results with personalized knowledge were achieved. Then, incremental learning method was applied to get real-time correction of the spatial distribution of emotion type, thus ensuring the high accuracy of emotional classification. Finally, the experimental results show that this method has a high degree of consistency with the real emotional state of the user, and also has good adaptability.
Key words: emotion mapping    AVS emotional space    Gaussian mixture model    five-factor model    incremental learning    
在人机交互的过程中,面向个体情感的分类与识别技术受到了广泛关注,并获得了较为显著的成果.众所周知,对用户的情感类型进行准确判断是提升交互体验的关键[1].然而,按照情感认知的相关理论,情感产生过程会受到个体认知因素的影响,对于同一外界刺激而言,不同的个体有不同的理解.用户之间存在的这种个体差异性,导致机器往往无法有效识别出其真实情感.Ju-Chiang Wang等以个体差异性为依据,采用高斯混合模型(Gaussian mixture model,GMM)描述了底层特征与高层情感状态之间的映射规则,能够进一步获得情感感知的主观性[2].Hemandez等提出了一种基于OCC认知的情感映射机制,并将其合理地应用于移动机器人智能辅导系统中,结果表明该情感映射机制对和谐的人机交互具有促进作用[3].可见,通过结合个性化认知进行情感分析将有助于突破性地提升情感识别结果,成为了许多研究者关注的焦点.

目前,大多数现有的方法侧重于围绕离散情感状态展开分析,即仅识别特定种类的情感状态(例如:高兴、厌恶和惊讶等)[4].然而在自然交互中,人类的情感状态是连续发生且多变的,离散情感模型无法准确地表达人类的情感变化,对实现个体情感分类映射有很大的局限性[5].基于维度论的情感空间模型考虑到了人类情感的连续性和多维度分布特点,能够更好地表达和模拟情感状态[6].情感的维度论认为几个维度组成的空间包括了人类所有的情绪,按照情绪所固有的某些特性,如动力性、激动性、强度和紧张度等,情绪可以被形式化描述和度量.Barakova利用情感的认知重评策略对交互过程中经验表情进行认知评价,并结合当前情感状态与来自面部表情的情感刺激在唤醒度-效价(Arousal-Valence)情感空间中建立情感状态转移模型,实现在特定的场景中的交互体验[7].Hupont等利用概率统计的方法将离散情感分类器与情感状态空间进行有机的结合,得到用户情感在唤醒度-效价(Arousal-Valence)维度情感空间中的分布,有助于分析情感状态间的相互转移关系[8].该方法依赖多种离散的情感分类器获得训练样本所在的情感空间位置,并且以计算量为代价换取面部特征到多维情感空间投影的准确率.

迄今为止,情感的维度划分方法仍没有统一的定论,比较典型的有二维空间模型(Activation-Evaluation),三维情感模型(pleasure-arousal-dominance, Arousal-Valence-Stance)等[9-11].其中,AVS模型(Arousal-Valence-Stance)结合了外界环境、刺激事件和行为表现,被较好地应用到Kismet机器人中[11].唤醒度A代表情感状态的唤醒程度;效价V代表该情感状态属于哪种类型, 效价值为正说明是积极情感刺激, 反之则为消极情感刺激;姿态S代表某种agent下该刺激的可接受程度.围绕AVS三维情感空间,提出了一种基于个性化认知的情感映射模型,该模型通过结合用户的性格特征,基于GMM构建情感特征与情感维度(情感属性)之间的动态相关性,获得不同情感特征所属的三维情感空间分布,从而实现维度空间中情感的准确映射.该方法的实现并实施,利用已有的底层面部表情特征提取的研究基础[12],采用增量式的GMM模型构建.值得一提的是,随着交互数据的增加,本文所提模型依据个性化交互认知,具有动态地调整GMM模型参数的能力.

1 基于GMM模型的多维情感分析围绕A、V、S三维情感属性,通过基于高斯混合模型使用特征向量的聚类算法构建面部表情情感映射模型.在每一个维度上面部表情特征被分配到聚类,一个聚类对应一个特定的情感,对每种情感聚类分别构建GMM模型N(x|μk, σk), k=1, 2, …, l,AVS三维情感属性的情感分类可由GMM模型表示为Z~(Na, Nv, Ns).从而生成的聚类对应的空间分布划分为l种情感类型Z.={Zi~(Na, Nv, Ns)i}l.

假定视频中获取的一组面部表情特征向量为{X1, X2, …, Xn},对于单一维度m=a, v, s而言,特征向量Xi在第k个高斯分布的后验概率计算如下:

${{p}_{mk}}\left( j=k\left| {{X}_{i}} \right. \right)=\text{ }\frac{{{\pi }_{k}}{{N}_{j}}\left( {{X}_{i}}\left| {{\mu }_{k}}, {{\sigma }_{k}} \right. \right)\text{ }}{\sum\limits_{h=1}^{l}{{{\pi }_{h}}{{N}_{j}}\left( {{X}_{i}}\left| {{\mu }_{h}}, {{\sigma }_{h}} \right. \right)}}.~$ (1)

其中,模型参数πkμkσk的大小与微表情的情感空间分布强相关,最大值max(pmk)所指向的情感类型为机器识别出的个体情感状态(显性).为便于计算,令${{\pi }_{k}}\text{=}\frac{1}{k}$μkσk为某一确定情感类型下的表情所属唤醒度均值和协方差矩阵,依据经验数据采用期望最大化算法对其进行评估[13],从而拟合出高斯函数.

采用类似的方式拟合出某一情感类型在3种情感属性中的高斯分布.依据高斯分布的“3σ”原则,选取(μ-3σμ+3σ)区间作为某类情感状态在坐标轴上的有效分布区间,从而确定情感类型在AVS三维坐标轴上的取值范围.

2 基于增量式的个性化情感映射 2.1 情感的个性化认知由于个体心理认知因素的影响,由情感的复杂性可知个体呈现出的外在情感(显性)往往隐含着多种其他类型的情感状态(隐性).并且在心理认知因素的影响下,各类情感状态之间将会相互制约和转移,最终可能会导致个体真实情感强度甚至情感类型产生变化,如图 1所示.在情感的映射过程中加入个性化认知分析,通过调节个体情感在AVS情感空间中的GMM概率分布,实现对表情情感空间映射结果的实时修正,为获取到具有个性化认知的表情情感分类提供有力支撑.

Figure 1
图 1 个体的认知情感转移过程 Figure 1 Transfer process of individual cognitive emotion


McCraee等运用统计分析方法提出了大五人格理论(Five Factor Model, FFM),是分析个体性格特征的常用心理学量表,包括:外向性(E)、宜人性(A)、尽责性(C)、情绪稳定性(N)、开放性(O).目前, 该理论在机器人情感状态的研究中得到了广泛关注[15].为了研究不同性格特征对个体情感的影响,依据NEO-FFI (Neuroticism Extraversion Openness Five-Factor Inventory)量表评估个体的人格五因素,获得性格特征矢量P =[p1, p2, p3, p4, p5],建立层次分析结构(如图 2所示),包括方案层——性格特征、准则层——人格特征关联和目标层——情感属性.

Figure 2
图 2 认知情感的层次分析 Figure 2 Hierarchical analysis of cognitive emotion


依据实验样本(具体见图 6)的人格五因素数据,采用多元线性回归分析法分别计算个体情感属性与性格特征之间的相关系数,建立相关性矩阵,从而获得个性化认知参数.具体如下:因变量情感属性A, V, S与自变量性格特征P =[p1, p2, p3, p4, p5]之间的线性关系,可表示为

$\begin{array}{l}m = \mathit{\boldsymbol{P}}\cdot\mathit{\boldsymbol{\omega }}{_{\rm{m}}} + \varepsilon = \left[{{\rm{ }}{p_1}, {p_2}, \ldots, {p_5}} \right]\cdot\left[\begin{array}{l}{\mathit{\boldsymbol{\omega }}_a}\\{\mathit{\boldsymbol{\omega }}_v}\\{\mathit{\boldsymbol{\omega }}_s}\end{array} \right] + \left[\begin{array}{l}{\varepsilon _a}\\{\varepsilon _v}\\{\varepsilon _s}\end{array} \right], \\m = \left[{a, v, s} \right].\end{array}$ (2)

式中:ε为误差,m为个体情感属性值, ωa=[ωai]1×5T, ωv=[ωvi]1×5T, ωs=[ωsi]1×5T为相关性系数矩阵,由最小二乘法对实验样本进行估计获得,使其满足误差的平方和最小,即

${\rm{min}}{\varepsilon ^2} = {\rm{min}}\sum\limits_{j = 1}^n {\left[{m\left( j \right)-\sum\limits_{i = 1}^5 {{p_i}\left( j \right)} \cdot{\omega _{mi}}\left( j \right)} \right].} $ (3)

其中n为样本量.依据文献[13]可知,个体性格特征越强,其对情感的认知能力越强;反之,认知能力越弱.由此,规定个体的个性化认知参数为

${\rho _m} = {k_m}\sum\limits_{i = 1}^5 {{p_i}\cdot{\omega _m}}, m = a, v, s.$ (4)

其中km为认知强度系数.AVS情感空间中考虑个性化认知后,个体在第k类情感的GMM概率分布为

$\begin{array}{l}p{'_k} = {\rm{ }}\left( {p{'_{ak}}, p{'_{vk}}, p{'_{sk}}} \right) = {p_k} + \\\;\;\;\;\;\;\;\;\;\;\;\left( {{\rho _a}\cdot\Delta {p_{ak}}, {\rho _v}\cdot\Delta {p_{vk}}, {\rho _s}\cdot\Delta {p_{sk}}} \right).\end{array}$ (5)

其中,Δpak, Δpvk, Δpsk为个体的情感转移概率值,分别采用有限状态机建立状态转移概率矩阵获得,具体见文献[15].依据式(5),概率越大,表明个体的情感空间位置与该类情感分布越接近.

为了在AVS三维情感空间中实现情感的准确映射,规定高斯概率分布的均值μk=(μak, μvk, μsk)为第k类情感的空间坐标值:ck=μk.以唤醒度(A)情感属性为例,依据式(5)计算个体情感在K个情感类型中的概率值[p'a1, p'a2, …, p'ak],并选取其中概率值较大的两类情感坐标μaiμaj.计算个体在唤醒度坐标轴上的值为

$A = {\mu _{ai}} \pm \frac{{{\rm{ }}{p_{aj}}\cdot\left( {{\mu _{aj}}-{\mu _{ai}}} \right)}}{{{p_{ai}} + {p_{aj}}}}.$ (6)

类似地,个体情感在效价(V)和姿态(S)坐标轴上的映射值可以被计算出.基于此,依据个体情感与基本情感类型之间的空间相对位置从而判定其所属情感类型.

2.2 基于高斯过程回归的增量式学习通过模型的优化计算能够更好地呈现出数据的聚类分布结果.在传统GMM模型算法中通常针对稳定分类器展开的参数计算,常采用EM算法和最小二乘法等优化方法.然而,面部表情所属的情感空间分布依赖于个性化认知的影响,它随着个体用户认知的变化而改变,并且直接影响情感识别的准确度.个性化认知主导下的模型会发生覆盖过多的错分样本,此时这个模型对某类情感映射将会存在较大误差.因此,随着交互历史数据的增加,本文利用增量式学习机制,将情感空间中每个椭球区域作为一个局部域Si,计算历史样本数据在局部域中的权值判断是否需要优化模型参数或重新学习新的模型,从而实现情感映射模型的修正.优化过程如图 3所示.

Figure 3
图 3 基于增量式学习的模型优化过程 Figure 3 Model optimization process based on incremental learning


对于每个历史数据点z=(x:(a, v, s)), 计算局部域Si中各维度(a, v, s)情感分布的高斯核函数为

${w_{ik}} = {\rm{exp}}(-\frac{1}{{2{\sigma _{ik}}^2}}{\left\| {{x_k}-{c_{ik}}} \right\|^2}).$ (7)

其中,wik, σik, cik分别为局部域Si中第K维情感分布的权值、方差和中心点.则样本数据在局部域中的权值计算如下:

${w_i} = \frac{{\sum\limits_{k = 1}^3 {{w_{ik}}} }}{{\sum\limits_{i = 1}^l {\sum\limits_{k = 1}^3 {{w_{ik}}} } }}.$ (8)

选取最大权值wimax作为判断模型优化学习的依据.设定阈值η,分别对优化模型中可能出现的情况展开分析:1)若样本数据在所属局部域Si内,直接将其作为有效样本存入训练集;2)若样本数据不在所属局部域Si内,权值wimax大于阈值η,则将该样本归为局部域Si并存入训练集,优化模型的参数:中心点、期望和方差;3)样本数据不在所属局部域Si内,权值wimax小于阈值η,则样本存入训练集,并重新学习新模型.

3 实验仿真为了研究个性化认知对情感交互过程产生的影响,展开了针对人格五因素与情感属性两者之间的关联性实验分析.依据Breazeal提出的9类情感状态在AVS空间中的分布情况(如图 4所示)[11],将其进行两种预处理以提升实验的精确性.其一,将每种情感形容词按强度再细分为高、中、低3个等级,共27个情感形容词用于测试者情感的描述;其二,依据情感的空间位置合理量化27种不同情感的三维坐标值,规定各坐标轴的有效区间为[-10, 10].

Figure 4
图 4 AVS空间中的情感分布 Figure 4 Emotional distribution in AVS space


邀请500位参与者,并利用NEO-FFI量表统计他们的人格五因素(如图 5(a)所示),并将测量后每类人格因素的分数规定在区间[0, 10]之内.实验实施过程中,参与者将观看一个20 min短视频(如图 5(b)所示),并利用27个情感形容词描述观影前后的情感状态.选取其中416份有效数据,参照情感的量化坐标进行统计分析,得到参与者情感属性(A、V、S)变化与其人格五因素之间的对应结果如图 6所示.按照观影前后实验者的情感属性波动绝对值进行划分,统计每个情感属性波动区间内所有受试者的人格五因素均值,其中一种色彩条形图代表一类人格因素.例如:唤醒度(A)波动绝对值为[0, 2]的受试者有62人,他们的人格五因素均值分别由5种颜色条状图表示,条状图越长,则其代表的人格均值越大.

Figure 5
图 5 用户人格测试与情感跟踪实验 Figure 5 User's personality test and emotion tracking experiment


Figure 6
图 6 情感属性与人格五因素之间的数据统计 Figure 6 Data statistics between emotional attributes and personality five factors


通过多元线性回归方法对实验数据进行分析,计算出个性化认知参数.由于每种情感属性与人格五因素之间的相关性各不相同,为了保证结果有效性的同时尽可能地简化计算,只保留每种情感属性中相关性较强的3类人格因素.依据实验数据分析结果,人格五因素对情感属性影响的个性化认知参数为

$\begin{array}{l}{\rho _a} = 0.22E + 0.35A + 0.19N, {\rm{ }}\\{\rho _v} = 0.21O + 0.41A + 0.49N, {\rm{ }}\\{\rho _s} = 0.23O + 0.18N + 0.11C.\end{array}$ (9)

为了直观地评价本文所提算法的有效性和优越性,规定初始情感状态已知,将实验结果与用户的真实情感状态进行比较.一方面邀请用户观看视频片段,持续时间为45 min,并通过27种情感形容词记录该时间段内的各类情感变化;另一方面,以式(9)所述的认知参数作为个性化认知依据,分别使机器人采用传统GMM、具有个性化认知的GMM模型(C-GMM)和本文所提模型(CI-GMM),计算用户在不同时间段的情感状态,并与其真实情感相比较.为了便于观察,通过A-V二维情感空间来呈现实验结果.图 7为在A-V平面中传统GMM模型和用户真实情感状态之间的变化对比,图 8为C-GMM模型和用户真实情感状态之间的变化对比,图 9为CI- GMM模型和用户真实情感状态之间的变化对比.其中采用NEO-FFI量表评估用户的人格五因素,之后依据式(9)获得个性化认知参数为(ρa, ρv, ρs)=(5.76, 8.42, 3.57).

Figure 7
图 7 传统GMM情感映射与用户情感对比 Figure 7 Comparison between traditional GMM emotion mapping and user emotion


Figure 8
图 8 C-GMM情感映射与用户真实情感对比 Figure 8 Comparison between C-GMM emotion mapping and user emotion


Figure 9
图 9 CI-GMM情感映射与用户真实情感对比 Figure 9 Comparison between CI-GMM emotion mapping and user emotion


由图 7~9可知,传统GMM算法的情感变化曲线与用户真实情感曲线存在较大的偏差,拟合度偏低;C-GMM算法的曲线拟合度优于传统GMM算法,但由于个体认知的影响,使得情感均倾向于平静状态(中心位置),导致频频出现偏离用户真实情感的现象.而本文所提算法在个性化认知评价的前题下,采用增量式方式对情感分类进行实时调整,使得情感曲线与用户真实情感保持着较高的拟合度.特别地,在t=25 min和t=35 min处,本文算法的效价值和唤醒度值均与真实状态完全一致,保持着较高的准确率.对于传统GMM算法和C-GMM算法:在t=25 min处其与真实状态的唤醒度相近,但效价存在明显差距;在t=35 min处,C-GMM算法的映射结果与用户真实状态相差较小,传统GMM算法与真实状态的效价一致,但唤醒度存在明显的不同步.可见,增量式认知情感映射模型具有较高的情感识别准确率.

参照上述实验,分别计算传统GMM、C-GMM模型和本文所提方法(CI-GMM)对6种基本情感的识别率,经过30组实验后的映射结果如表 1所示.可以看出,本文方法的映射准确率相比其他两种方法都有不同程度的提高.

表 1
表 1 情感映射结果对比 Table 1 Comparison of emotional mapping results %

方法 高兴 惊讶 生气 厌恶 悲伤 害怕

GMM 84.30 80.23 79.53 77.89 76.90 79.90

C-GMM 90.23 88.20 80.47 82.12 80.95 88.40

CI-GMM 96.37 94.54 92.31 90.59 90.70 93.83



表 1 情感映射结果对比 Table 1 Comparison of emotional mapping results


4 结语提出了一种基于个性化认知的增量式GMM情感映射模型.围绕AVS情感空间的3种属性(A, V, S),采用GMM对空间中的情感类型进行建模,获得情感类型的空间分布.由于个体认知差异性的存在,在情感交互过程中同样的外界输入刺激通常会产生不同的反馈结果.考虑到个性化认知对用户情感理解的影响,本文引入个性化认知参数,分析个体的人格五因素与情感三维属性之间的相关性,并将其结果加入到高斯混合模型,实现具有个性化认知的情感映射模型.为了保证在认知作用下情感映射的准确率,采用基于高斯核函数的增量式学习方法实现了情感映射模型的实时修正.通过与传统GMM模型的实验对比,说明本文所提模型具有较高准确率和有效性.


参考文献
[1] PENG X L, XIA Z Q, LI L, et al. Towards facial expression recognition in the wild: A new database and deep recognition system[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition Workshops. 2016: 93-99.


[2] WANG J C, YANG Y H, WANG H M, et al. Modeling the affective content of music with a gaussian mixture model[J]. IEEE Transactions on Affective Computing, 2015, 6(1): 56-68. DOI:10.1109/TAFFC.2015.2397457


[3] HERNANDEZ Y, GUSTAVO A F, LUIS E S. A model of affect and learning for intelligent tutors[J]. Journal of Universal Computer Science, 2015, 21(7): 912-934.


[4] HOSSAIN M S, MUHAMMAD G. Audio-visual emotion recognition using multi-directional regression and ridgelet transform[J]. Journal on Multimodal User Interfaces, 2016, 10(4): 325-333. DOI:10.1007/s12193-015-0207-2


[5] MENG H Y, NADIA B B, DENG Y D, et al. Time-delay neural network for continuous emotional dimension prediction from facial expression sequences[J]. IEEE Transactions on Cybernetics, 2016, 46(4): 916-929. DOI:10.1109/TCYB.2015.2418092


[6] NICOLAOU M, ZAFEIRIOU S, PANTIC M. Correlated-spaces regression for learning continuous emotion dimensions[C]//21st ACM International Conference on Multimedia, Barcelona, Spain, 2013: 773-776.


[7] BARAKOVA E I, GORBUNOV R, RAUTERBERG M. Automatic interpretation of affective facial expressions in the context of interpersonal interaction[J]. IEEE Transactions on Human-Machine Systems, 2015, 45(4): 409-418. DOI:10.1109/THMS.2015.2419259


[8] BALDASSARRI S, HUPONT I, ABADIA D, et al. Affective-aware tutoring platform for interactive digital television[J]. Multimedia Tools and Applications, 2015, 74(9): 3183-3206. DOI:10.1007/s11042-013-1779-z


[9] KAMAROL S K A, JAWARD M H, KALVIAINEN H, et al. Joint facial expression recognition and intensity estimation based on weighted votes of image sequences[J]. Pattern Recognition Letters, 2017, 92(6): 25-32.


[10] CLARET J A, VENTURE G, BASANEZ L. Exploiting the robot kinematic redundancy for emotion conveyance to humans as a lower priority task[J]. International Journal of Social Robotics, 2017, 9(2): 277-292. DOI:10.1007/s12369-016-0387-2


[11] BREAZEAL C. Function meets style: Insights from emotion theory applied to HRI[J]. IEEE Transactions on Systems Man and Cybernetics Part C-Applications and Reviews, 2004, 34(2): 187-194. DOI:10.1109/TSMCC.2004.826270


[12] 姜波, 解仑, 刘欣, 等. 光流模值估计的微表情捕捉[J]. 浙江大学学报(工学版), 2017, 51(3): 577-583.
JIANG B, XIE L, LIU X, et al. Micro-expression spotting using optical flow magnitude estimation[J]. Journal of Zhejiang University (Engineering Science), 2017, 51(3): 577-583.


[13] SVENSSON C M, BONDOC K G, POHNERT G, et al. Segmentation of clusters by template rotation expectation maximization[J]. Computer Vision and Image Understanding, 2017, 154(1): 64-72.


[14] HAN M J, LIN C H, SONG K T. Robotic emotional expression generation based on mood transition and personality model[J]. IEEE Transactions on Cybernetics, 2013, 43(4): 1290-1303. DOI:10.1109/TSMCB.2012.2228851


[15] MCCRAE RR, COSTA P T. Validation of the five-factor model of personality across instruments and observers[J]. Journal of Personality and Social Psychology, 1987, 51(1): 81-90.



相关话题/空间 计算 文献 智能 实验

  • 领限时大额优惠券,享本站正版考研考试资料!
    大额优惠券
    优惠券领取后72小时内有效,10万种最新考研考试考证类电子打印资料任你选。涵盖全国500余所院校考研专业课、200多种职业资格考试、1100多种经典教材,产品类型包含电子书、题库、全套资料以及视频,无论您是考研复习、考证刷题,还是考前冲刺等,不同类型的产品可满足您学习上的不同需求。 ...
    本站小编 Free壹佰分学习网 2022-09-19
  • 工业纯钛金属织构标准极图的计算及分析
    工业纯钛金属织构标准极图的计算及分析陈亮维,刘状,虞澜,胡劲,易健宏(昆明理工大学材料科学与工程学院,昆明650093)摘要:工业纯钛中的金属织构会引起各向异性,获得织构信息及分析其演变规律对钛材加工与应用非常重要.本文利用单晶钛的晶体结构数据、乌氏网、极图与织构的定义,建立了纯钛的织构与特定晶面极 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 抗癌药物作用预测计算方法的研究现状与展望
    抗癌药物作用预测计算方法的研究现状与展望顾兆伟1,张立忠2,刘晓峰3,谭先4(1.长春中医药大学附属第三临床医院脑病康复科,长春130000;2.长春市朝阳区清和社区卫生服务中心,长春130000;3.空军杭州特勤疗养中心康复理疗科,杭州310000;4.东北师范大学信息科学与技术学院,长春1300 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 基于问题导向的生物信息学综合实验教学设计
    基于问题导向的生物信息学综合实验教学设计霍颖异1,2,徐程2,吴敏1,2,陈铭2(1.浙江大学国家级生物实验教学示范中心,杭州310058;2.浙江大学生命科学学院,杭州310058)摘要:针对生物信息学相关课程的实验教学需求,结合前沿科研问题和成果,设计了基于问题导向的生物信息学综合实验。实验以宏 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 空间薄壁弹性伸杆力学特性分析
    空间薄壁弹性伸杆力学特性分析郭一竹1,杨皓宇2,郭宏伟3,刘荣强3,罗阿妮2(1.中国空间技术研究院总体部,北京,100094;2.哈尔滨工程大学机电学院,哈尔滨,150001;3.哈尔滨工业大学机器人与系统国家重点实验室,哈尔滨,150000)摘要:为研究弹性伸杆的力学性能,对其压平、拉平过程中的 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 电极丝前置式射流电解加工仿真及初步实验研究
    电极丝前置式射流电解加工仿真及初步实验研究李飘庭1,2,荆奇1,3,张勇斌1,李建1,傅波2(1.中国工程物理研究院机械制造工艺研究所,四川绵阳621900;2.四川大学机械工程学院,成都610065;3.复旦大学光科学与工程系,上海200438)摘要:射流电解加工技术在航天、仪器、电子和医疗设备等 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 桥梁颤振临界风速的概率密度演化计算
    桥梁颤振临界风速的概率密度演化计算姜保宋,周志勇,唐峰(土木工程防灾国家重点实验室(同济大学),上海200092)摘要:针对桥梁结构自身特性以及外部环境的随机性(如刚度、质量、阻尼比、气动导数等因素)所造成的桥梁的颤振临界风速不确定,难以衡量桥梁颤振稳定性问题.将概率密度演化方法与桥梁颤振多模态耦合 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 桥梁伸缩缝跳车冲击荷载计算方法与模型实验
    桥梁伸缩缝跳车冲击荷载计算方法与模型实验丁勇1,2,王佩1,游玖昂1,诸葛萍1(1.宁波大学土木工程系,浙江宁波315211;2.桥梁工程结构动力学国家重点实验室(重庆交通科研设计院),重庆400067)摘要:为实测移动车辆对桥梁伸缩缝的冲击荷载,防止桥梁伸缩缝在这种冲击荷载作用下发生早期损坏,制作 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 面向空间机械臂操作任务的模仿学习策略
    面向空间机械臂操作任务的模仿学习策略李重阳,蒋再男,刘宏,蔡鹤皋(机器人技术与系统国家重点实验室(哈尔滨工业大学),哈尔滨150001)摘要:为提高空间机械臂克服空间扰动的能力,降低关节力矩波动和能量消耗,提出了一种基于动力学约束的空间机械臂模仿学习策略.该策略分为两个阶段:第一阶段为基于高斯过程的 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 大气感应耦合等离子体炬管的设计与仿真实验
    大气感应耦合等离子体炬管的设计与仿真实验余德平1,吴杰1,2,涂军1,张仕杨2,辛强2,万勇建2(1.四川大学机械工程学院,成都610065;2.中国科学院光电技术研究所,成都610209)摘要:为提高大气感应耦合等离子体射流加工装置的工作稳定性,设计一种依靠单一零件定位各层介质管的分体式炬管,并研 ...
    本站小编 哈尔滨工业大学 2020-12-05
  • 小跨高比RC开口梁弹性扭转性能计算方法
    小跨高比RC开口梁弹性扭转性能计算方法陈圣刚1,谢群1,郭全全2,刁波2,叶英华2(1.济南大学土木建筑学院,济南250022;2.北京航空航天大学交通科学与工程学院,北京100191)[HJ1.5mm]摘要:为改善经典Vlasov弹性扭转理论应用于开口深梁计算时引起的极大计算误差,在Vlasov理 ...
    本站小编 哈尔滨工业大学 2020-12-05