【CN110147822A】一种基于人脸动作单元检测的情绪指数计算方法【专利】
一种基于面部表情识别情绪的方法及系统[发明专利]
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 202010761382.5(22)申请日 2020.07.31(71)申请人 广州景瑞智能科技有限公司地址 510030 广东省广州市越秀区解放南路123号10D、10C房自编1005-1009房(72)发明人 王韬 秦瀚 (74)专利代理机构 广东有知猫知识产权代理有限公司 44681代理人 包晓晨(51)Int.Cl.G06K 9/00(2006.01)(54)发明名称一种基于面部表情识别情绪的方法及系统(57)摘要本发明涉及情绪识别技术领域,具体公开了一种基于面部表情识别情绪的方法及系统。
所述的基于面部表情识别情绪的方法,包含如下步骤:获取某一员工的面部照片;根据面部照片提取该员工的人脸特征,得该员工的人脸特征图谱;将得到的该员工的人脸特征图谱与该员工正常工作状态下的标准人脸特征图谱进行对比;判定员工的情绪是否适合正在进行的工作。
本发明所述的方法和系统可以识别每个岗位的员工的情绪是否适合其正在进行的工作,且具有识别快速准确的识别效果。
权利要求书2页 说明书6页 附图1页CN 111985354 A 2020.11.24C N 111985354A1.一种基于面部表情识别情绪的方法,其特征在于,包含如下步骤:获取某一员工的面部照片;根据面部照片提取该员工的人脸特征,得该员工的人脸特征图谱;将得到的该员工的人脸特征图谱与该员工正常工作状态下的标准人脸特征图谱进行对比;判定员工的情绪是否适合正在进行的工作。
2.根据权利要求1所述的基于面部表情识别情绪的方法,其特征在于,获取某一员工的面部照片具体为:获取某一员工工作过程中的面部照片。
3.根据权利要求1所述的基于面部表情识别情绪的方法,其特征在于,所述的人脸特征图谱为人脸特征指纹图谱。
4.根据权利要求3所述的基于面部表情识别情绪的方法,其特征在于,所述的人脸特征指纹图谱通过如下方法获得:从第一方向扫描面部照片提取该员工的人脸特征,得该员工的人脸第一特征图谱;从第二方向扫描面部照片提取该员工的人脸特征,得该员工的人脸第二特征图谱;从第N方向扫描面部照片提取该员工的人脸特征,得该员工的人脸第N特征图谱;将人脸第一特征图谱、人脸第二特征图谱以及人脸第N特征图谱进行叠加处理,得到人脸特征指纹图谱;其中,N≥3。
一种基于人体皮肤电阻变化的情绪检测方法及系统[发明专利]
(10)申请公布号 (43)申请公布日 2014.07.02C N 103892830A (21)申请号 201410128494.1(22)申请日 2014.04.01A61B 5/053(2006.01)A61B 5/16(2006.01)(71)申请人新加坡情桥私人有限公司地址新加坡裕廊西61街大牌644门牌号#11-120(72)发明人姚健欣 张昊(74)专利代理机构长沙市融智专利事务所43114代理人黄美成(54)发明名称一种基于人体皮肤电阻变化的情绪检测方法及系统(57)摘要本发明公开了一种基于人体皮肤电阻变化的情绪检测方法及系统,本发明方法包括以下步骤:参数初始化、采集人体电阻数据、数据分析、将情绪状态值反馈给用户;所述数据分析包括预处理及阈值分析,斜率分析,斜率和持续时间配合分析,斜率、持续时间和阈值配合分析。
本发明的系统包括依次连接的医疗极片、桥式电阻/电导测量电路、放大电路、A/D 转换电路、CPU 和人机交互界面。
本发明采用自适应的算法,利用电阻的大小、斜率以及状态持续时间变化来反映情绪,能克服个体差异问题,更加精细反应测试者兴奋程度。
(51)Int.Cl.权利要求书2页 说明书6页 附图7页(19)中华人民共和国国家知识产权局(12)发明专利申请权利要求书2页 说明书6页 附图7页(10)申请公布号CN 103892830 A1.一种基于人体皮肤电阻变化的情绪检测方法,其特征在于,包括以下步骤:步骤一:参数初始化;步骤二:采集人体电阻数据;步骤三:数据分析;步骤四:将情绪状态值反馈给用户;所述参数初始化包括:设置情绪状态值初始值、情绪状态的最小值和最大值;设置第一电阻阈值lowThresh和第二电阻阈值highThresh,当所采集的人体皮肤电阻值小于lowThresh时,人体处于兴奋状态;当所采集的人体皮肤电阻值大于highThresh时,人体处于平静状态;所述数据分析包括数据预处理及阈值分析、斜率分析、斜率和持续时间配合分析、斜率、持续时间和阈值配合分析。
一种基于面部微表情动态识别的抑郁倾向检测方法[发明专利]
专利名称:一种基于面部微表情动态识别的抑郁倾向检测方法专利类型:发明专利
发明人:周智恒,许施婷,李波,宋雨庭,胥静
申请号:CN202011153913.9
申请日:20201026
公开号:CN112380924A
公开日:
20210219
专利内容由知识产权出版社提供
摘要:本发明公开了一种基于面部微表情动态识别的抑郁倾向检测方法,包括:S1,采集人脸的面部微表情视频,并提取每个面部微表情视频的动态图像;S2,将动态图像输入到已经训练好的微表情识别模型中,微表情识别模型输出动态图像所属的类别;S3,根据动态图像所属的类别判断是否含有消极情绪;若有,则所属表情类别为消极的,记为有抑郁倾向。
本发明能够是能够识别出高压环境工作者的消极情绪,从而能够更准确的判断是否有抑郁倾向。
申请人:华南理工大学
地址:510640 广东省广州市天河区五山路381号
国籍:CN
代理机构:广州市华学知识产权代理有限公司
代理人:雷芬芬
更多信息请下载全文后查看。
基于图像识别的情绪识别判定方法[发明专利]
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201711152904.6(22)申请日 2017.11.19(71)申请人 济源维恩科技开发有限公司地址 459000 河南省济源市宣化街愚公名居2-806(72)发明人 赵亚斌 焦亚楠 初杰 程曼尼 (51)Int.Cl.G06K 9/00(2006.01)(54)发明名称基于图像识别的情绪识别判定方法(57)摘要本发明涉及基于图像识别的情绪识别判定方法,所述的情绪识别判定方法包括以下步骤:步骤1):获取人脸表情图像,使用摄像头采集对象面部表情图像;步骤2):表情图像预处理,对步骤1获得的表情图像进行剪切处理,去除头发、背景、轮廓区域,而后对表情图像进行尺度归一化和灰度归一化处理,获得纯人脸图像;步骤3):表情特征提取,提取面部关键特征点的位置作为特征区域,关键特征点包括眉毛、眼睑、嘴唇、下巴,并对关键特征点进行强度分级,生成表情特征图像;步骤4):情绪识别判定,用步骤3中提取的表情特征图像与数据库中的标准表情图像进行对比分析,并识别判定;本发明具有使用方便、适用范围广、识别准确率高的优点。
权利要求书1页 说明书4页 附图1页CN 107729882 A 2018.02.23C N 107729882A1.基于图像识别的情绪识别判定方法,其特征在于:所述的情绪识别判定方法包括以下步骤:步骤1):获取人脸表情图像,使用摄像头采集对象面部表情图像;步骤2):表情图像预处理,对步骤1获得的表情图像进行剪切处理,去除头发、背景、轮廓区域,而后对表情图像进行尺度归一化和灰度归一化处理,获得纯人脸图像;步骤3):表情特征提取,提取面部关键特征点的位置作为特征区域,关键特征点包括眉毛、眼睑、嘴唇、下巴,并对关键特征点进行强度分级,生成表情特征图像;步骤4):情绪识别判定,用步骤3中提取的表情特征图像与数据库中的标准表情图像进行对比分析,并识别判定。
一种基于人脸情绪识别的智慧教室交互分析方法[发明专利]
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 202010628581.9(22)申请日 2020.07.01(71)申请人 北京邮电大学地址 100876 北京市海淀区西土城路10号(72)发明人 闫强 易兰丽 张笑妍 夏宇 周思敏 (74)专利代理机构 北京中政联科专利代理事务所(普通合伙) 11489代理人 陈超(51)Int.Cl.G09B 5/14(2006.01)G06Q 50/20(2012.01)G06K 9/00(2006.01)(54)发明名称一种基于人脸情绪识别的智慧教室交互分析方法(57)摘要一种基于人脸情绪识别的智慧教室交互分析方法,包括:在教学视频中以相同时间间隔截取多张图片,组成图片数据集;记录图片数据集中出现的交互行为、交互设备和交互技术,并匹配对应的编码,形成编码表;基于编码表建立数据矩阵,得到每一个交互行为、交互设备和交互技术所占比重;基于图片数据集进行人脸情绪识别,生成人脸情绪识别结果;通过统计检验方法分析学生情绪与每一个交互行为、交互设备和交互技术的关系。
本发明结合实际分析智慧教室中教师与学生的交互行为,提供了更科学更有效的评价现阶段智慧教室教学交互的效果的方式,丰富了智慧教室中交互行为的评价方法。
权利要求书2页 说明书8页 附图4页CN 111640341 A 2020.09.08C N 111640341A1.一种基于人脸情绪识别的智慧教室交互分析方法,其特征在于,包括:在教学视频中以相同时间间隔截取多张图片,组成图片数据集;记录所述图片数据集中出现的交互行为、交互设备和交互技术,并匹配对应的编码,每出现一次记录一次编码,形成交互编码表;基于所述编码表建立数据矩阵,得到每一个所述交互行为、所述交互设备和所述交互技术所占的比重;基于所述图片数据集进行人脸情绪识别,生成人脸情绪识别结果;通过统计检验方法分析学生情绪与每一个所述交互行为、所述交互设备和所述交互技术的关系,包括:结合每一个交互行为、交互设备和交互技术所占的比重和人脸情绪识别结果确定统计检验变量,输入统计检验变量并进行分析。
一种基于人工智能的情绪行为可视化分析方法[发明专利]
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201810947643.5(22)申请日 2018.08.21(71)申请人 重庆乐教科技有限公司地址 401120 重庆市渝北区龙塔街道黄龙路28号朗俊中心3幢11-6号(72)发明人 张可 (74)专利代理机构 北京超凡志成知识产权代理事务所(普通合伙) 11371代理人 吴迪(51)Int.Cl.G06K 9/00(2006.01)G10L 25/30(2013.01)G10L 25/63(2013.01)(54)发明名称一种基于人工智能的情绪行为可视化分析方法(57)摘要本发明实施例涉及人工智能技术领域,具体而言,涉及一种基于人工智能的情绪行为可视化分析方法。
该方法应用于一与设置于教室内的拍摄设备通信连接的电子设备,该方法包括:获得拍摄设备实时采集的图像数据和语音数据并存储,获取教学模型,将教学模型输入卷积神经网络,采用卷积神经网络对图像数据和语音数据进行挖掘和分析,以获得师生情绪分析结果和师生行为分析结果并存储,根据师生情绪分析结果和师生行为分析结果生成可视化报告并存储,采用卷积神经网络对可视化报告进行数据解读以获得数据解读结果并存储,根据数据解读结果进行教学诊断和预警。
采用该方法能够提高多模态情感分析技术的延展性,进而提高卷积神经网络的延展性。
权利要求书2页 说明书7页 附图3页CN 109101933 A 2018.12.28C N 109101933A1.一种基于人工智能的情绪行为可视化分析方法,其特征在于,应用于一电子设备,所述电子设备与设置于教室内的拍摄设备通信连接,所述方法包括:获得所述拍摄设备实时采集的图像数据和语音数据并存储;获取教学模型,将所述教学模型输入卷积神经网络,采用所述卷积神经网络对所述图像数据和所述语音数据进行挖掘和分析,以获得师生情绪分析结果和师生行为分析结果并存储;根据所述师生情绪分析结果和所述师生行为分析结果生成可视化报告并存储;采用所述卷积神经网络对所述可视化报告进行数据解读以获得数据解读结果并存储,根据所述数据解读结果进行教学诊断和预警。
一种基于视频中个体面部分析的情绪感知模型的建立方法[发明专利]
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 202011522175.0(22)申请日 2020.12.21(71)申请人 中国科学院心理研究所地址 100083 北京市大兴区林萃路16号院(72)发明人 朱廷劭 刘晓倩 王亚猛 赵楠 (74)专利代理机构 北京东方芊悦知识产权代理事务所(普通合伙) 11591代理人 彭秀丽(51)Int.Cl.G06K 9/00(2006.01)G06K 9/40(2006.01)G06K 9/62(2006.01)(54)发明名称一种基于视频中个体面部分析的情绪感知模型的建立方法(57)摘要本发明提供了基于视频中个体面部分析的情绪感知模型的建立方法,通过正性负性情绪量表测评多位被试的个体情绪状态,分别得到与被试个体情绪状态相对应的积极情绪与消极情绪得分;采集被试的面部视频数据,且与被试所测情绪状态得分相对应;在二维空间中对所采集到的视频数据中的面部关键点进行数据去噪预处理;通过计算相邻帧之间差异度量方差选取代表情绪感知的面部特征点;对面部特征点进行特征提取、特征降维和特征选择,采用序列后向选择(SBS)算法通过分类器优化特征集;采用机器学习中的回归算法,将得到的个体积极情绪与消极情绪得分作为标注数据进行模型训练和验证,得到并保存针对个体积极情绪与消极情绪的预测模型。
本发明无需用户自我报告,时效性高,模型预测得分与量表测评得分的相关系数可达到中到强相关水平。
权利要求书2页 说明书7页 附图2页CN 112507959 A 2021.03.16C N 112507959A1.一种基于视频中个体面部分析的情绪感知模型的建立方法,其特征在于,所述方法包括如下步骤:步骤1,通过正性负性情绪量表(PANAS)测评多位被试的个体情绪状态,分别得到与被试个体情绪状态相对应的积极情绪和消极情绪得分;步骤2,采集被试的面部视频数据,且与被试所测积极情绪与消极情绪得分相对应;步骤3.1,在二维空间中对所采集到的视频数据中的面部关键点进行数据去噪预处理;步骤4,将相邻两帧中同一面部关键点的欧几里得距离作为差异度量,得到视频时间轴上各帧间面部关键点的差异度量di,j;步骤5,结合步骤4所得差异度量di,j,计算被试每个面部关键点在整个视频时间轴上的方差σj,得到全部面部关键点对应的方差σ;步骤6,将步骤5中所得每位被试所有面部关键点的方差σ进行排序,选择每位被试所得方差中数值较大的前X个方差值对应的X个面部关键点;步骤7,集合步骤6得到的每位被试的X个面部关键点进行分析,选择出现频次最多的Y (Y<X)个面部关键点作为最终分析的面部特征点;步骤8,对选取的Y个面部特征点进行特征提取、特征降维和特征选择,采用序列后向选择(SBS)算法通过分类器优化特征集;步骤9,采用机器学习中的回归算法,将步骤1中得到的个体积极情绪与消极情绪得分作为标注数据进行模型训练和验证,得到并保存针对个体积极情绪与消极情绪的预测模型。
一种基于非接触式情绪识别的人机交互方法[发明专利]
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201710122967.0(22)申请日 2017.03.03(71)申请人 杭州市第一人民医院地址 310000 浙江省杭州市浣纱路261号(72)发明人 王清波 陈丽娜 虞成 徐月花 (74)专利代理机构 杭州君度专利代理事务所(特殊普通合伙) 33240代理人 解明铠 刘静静(51)Int.Cl.G06F 3/01(2006.01)G06K 9/00(2006.01)A61B 5/16(2006.01)(54)发明名称一种基于非接触式情绪识别的人机交互方法(57)摘要本发明公开了一种基于非接触式情绪识别的人机交互方法,包括:步骤1,利用非接触式检测装置获取用户的生理信号特征和非生理信号特征,并依据生理信号特征和非生理信号特征识别用户的情绪状态;步骤2,在单个虚拟场景进行时,虚拟环境构建系统依据用户的情绪状态调整力反馈器的反馈力大小;在单个虚拟场景完成时,依据肢体实时运动轨迹与参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。
本发明以用户的情绪状态作为单个虚拟场景中力反馈大小调整的依据,促进虚拟场景构建系统进行学习以适应用户的需求,单个虚拟场景完成后,依据实时运动参考轨迹和参考运动轨迹的差异,定量评价康复训练的效果。
权利要求书2页 说明书8页 附图4页CN 107422841 A 2017.12.01C N 107422841A1.一种基于非接触式情绪识别的人机交互方法,其特征在于,所述人机交互方法实施在用户与虚拟环境构建系统之间,所述虚拟环境构建系统配置有力反馈器、非接触式检测装置以及运动检测装置,所述虚拟环境构建系统中预设有若干虚拟场景,针对各虚拟场景,预设对应的参考运动轨迹,用户接触力反馈器,并在各虚拟场景中依据参考运动轨迹进行肢体运动,所述人机交互方法包括:步骤1,利用非接触式检测装置获取用户的生理信号特征和非生理信号特征,并依据生理信号特征和非生理信号特征识别用户的情绪状态;步骤2,在单个虚拟场景进行时,虚拟环境构建系统依据用户的情绪状态调整力反馈器的反馈力大小;在单个虚拟场景完成时,依据肢体实时运动轨迹与参考运动轨迹的差异,调整下一次交互时该虚拟场景的参考运动轨迹。
一种基于物理特性和分布特性的人脸运动单元检测方法[发明专利]
专利名称:一种基于物理特性和分布特性的人脸运动单元检测方法
专利类型:发明专利
发明人:胡巧平,申瑞民,姜飞
申请号:CN201910620049.X
申请日:20190710
公开号:CN110458021A
公开日:
20191115
专利内容由知识产权出版社提供
摘要:本发明涉及一种基于物理特性和分布特性的人脸运动单元检测方法,其特征在于,该方法基于预训练的人脸运动单元检测模型对一组图片序列进行处理,获取人脸运动单元检测结果,所述人脸运动单元检测模型包括依次连接的交叉拼接网络和长短期记忆网络。
与现有技术相比,本发明首次考虑并解决了不同人脸运动单元之间数据分布不均衡问题,进一步提升了人脸运动单元检测效果。
申请人:上海交通大学
地址:200030上海市徐汇区华山路1954号
国籍:CN
代理机构:上海科盛知识产权代理有限公司
代理人:翁惠瑜
更多信息请下载全文后查看。
一种基于视觉的面部情绪监测分析系统及其分析方法[发明专利]
专利名称:一种基于视觉的面部情绪监测分析系统及其分析方法
专利类型:发明专利
发明人:季利鹏,吴世龙,孙志远,顾小清
申请号:CN202111564257.6
申请日:20211220
公开号:CN114419692A
公开日:
20220429
专利内容由知识产权出版社提供
摘要:本发明公开了一种基于视觉的面部情绪监测分析系统及其分析方法,属于人工智能应用领域。
所述方法包括如下步骤:相机采集图像数据预处理步骤、数据训练步骤,面部区域提取模块,面部情绪分类识别模块,损失函数改进步骤,以及图像数据测试步骤。
所述方法基于深度学习、计算机视觉、目标识别检测等领域的基本算法。
所述方法对复杂背景环境下对拍摄采集的图像进行识别,图像预处理模块将在相机拍摄得到的图片进行增强处理,提高图像整体检测识别效果,因此,该处理技术在较差背景环境中仍能保持一定的检测能力。
在整个识别检测过程中,对网络模型进行合理改进以适应对人体、面部的特征提取、检测效果。
申请人:上海理工大学
地址:200093 上海市杨浦区军工路516号
国籍:CN
代理机构:南京泰普专利代理事务所(普通合伙)
代理人:姜露露
更多信息请下载全文后查看。
一种基于情绪状态及情绪变化的人格评估方法及系统[发明专利]
(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201910506596.5(22)申请日 2019.06.12(71)申请人 汕头大学地址 515000 广东省汕头市大学路243号(72)发明人 包能胜 方海涛 (74)专利代理机构 广州三环专利商标代理有限公司 44202代理人 张泽思(51)Int.Cl.G06F 16/41(2019.01)G06F 16/48(2019.01)G06F 16/483(2019.01)G06F 17/27(2006.01)G06K 9/00(2006.01)G10L 25/63(2013.01)(54)发明名称一种基于情绪状态及情绪变化的人格评估方法及系统(57)摘要本发明公开了一种基于情绪状态及情绪变化的人格评估方法及系统,其中,该方法包括:采集受测者当前演讲或汇报时的视频;对所述视频进行预处理,获得预处理后的视频数据、语音数据和语义数据;调用训练好的情绪识别模型E -R -Model测试所述预处理后的视频数据、语音数据和语义数据,获得受测者的情绪类型及沿时间的分布结果;调用人格识别模型P -R -Model对所述受测者的情绪类型及沿时间的分布结果进行分析,获得受测者的人格结果。
在本发明实施例中,根据受测者在演讲或者汇报过程中情绪状态和情绪变化评估受测者的人格类型,可以节省受测时间,提高测试的客观性。
权利要求书2页 说明书7页 附图3页CN 110321440 A 2019.10.11C N 110321440A1.一种基于情绪状态及情绪变化的人格评估方法,其特征在于,所述方法包括:采集受测者当前演讲或汇报时的视频;对所述视频进行预处理,获得预处理后的视频数据、语音数据和语义数据;调用训练好的情绪识别模型E-R-Model测试所述预处理后的视频数据、语音数据和语义数据,获得受测者的情绪类型及沿时间的分布结果;调用人格识别模型P-R-Model对所述受测者的情绪类型及沿时间的分布结果进行分析,获得受测者的人格结果。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
(19)中华人民共和国国家知识产权局
(12)发明专利申请
(10)申请公布号 (43)申请公布日 (21)申请号 201910303586.1
(22)申请日 2019.04.16
(71)申请人 北京师范大学
地址 北京市海淀区新街口外大街19号
(72)发明人 樊亚春 税午阳 程厚森
(74)专利代理机构 北京中海智圣知识产权代理
有限公司 11282
代理人 胡静
(51)Int.Cl.
G06K 9/62(2006.01)
G06K 9/00(2006.01)
(54)发明名称
一种基于人脸动作单元检测的情绪指数计
算方法
(57)摘要
本发明属于人脸识别以及情感计算技术领
域技术领域,具体涉及一种基于人脸动作单元检
测的情绪指数计算方法,具体步骤包括:建立待
训练数据集,形成人脸动作单元数据库;人脸动
作单元动作强度检测;计算情绪指数;本发明实
现了通过面部表情所表达的情绪过程,能够更加
准确客观的传达细节信息,更能弥补语言所不能
描述和传达的深邃信息,尤其对语言表达障碍及
无法正常获取语言信息的情景应用提供了一种
非常可行的方案。
权利要求书3页 说明书9页 附图1页CN 110147822 A 2019.08.20
C N 110147822
A
权 利 要 求 书1/3页CN 110147822 A
1.一种基于人脸动作单元检测的情绪指数计算方法,其特征在于,包括如下具体步骤:
步骤1,建立待训练数据集,形成人脸动作单元数据库:
通过对抗生成网络生成数据库中人脸表情图像,标注人脸特征点,标注过程按照有监督的下降方法(Supervised Descent Method)完成。
通过人脸特征点信息标注人脸位置区域及人脸动作单元,形成待训练数据集;
按照Ekman定义描述方法将每个人脸动作单元的动作强度分为{1,2,3,4,5}五个等级;
步骤2:人脸动作单元动作强度检测:
步骤2.1:基于谱聚类及无位置交叠的预定义检测形状框:
在步骤1的基础上,根据人脸的AU得到其AU变化的位置区域,将这些位置区域称为训练框数据,对所有的训练框数据利用谱聚类方法并根据人脸及人脸动作单元形状特点自动分为6类,取每类的中心的长宽值作为预定义框位置信息;
步骤2.2,检测并优化人脸动作单元动作强度:
将不同强度的同一个人脸动作单元分别作为不同的待检测分类,基于深度网络学习算法检测后对一张表情人脸图片,输出不同人脸动作单元强度分类概率;按照所有同一人脸动作单元中概率值最高的动作强度作为该人脸中此动作单元的动作强度分类值,具体动作强度分类值计算公式为:此AU所确定的强度t,最终的概率计算式为:其中,t为动作强度分类值,p i为强度为i时的识别概率值;
步骤3,计算情绪指数:
步骤3.1:建立人脸动作单元到人脸离散表情的关系映射,根据表情中包含的人脸动作单元的发生概率建立表情相关度矩阵W;
步骤3.2:定义表情权值向量C:
定义表情权值向量来表示不同情绪对情绪指数影响的具体程度,向量C19×1为表情权值矩阵;
步骤3.3:根据人脸动作单元识别结果,构建动作单元矩阵:
采用步骤2中的深度学习网络对当前人脸进行人脸动作单元的检测,得到当前存在的人脸动作单元概率向量P、人脸动作单元强度向量T,转置合并后形成人脸动作单元矩阵A;
步骤3.4,构建情绪相关度矩阵F:
通过表情相关度矩阵W和表情权值向量C的联合计算,建立情绪值和人脸动作单元之间的映射关系,通过下式建立情绪向量R17×1:
R=W′·C
其中,W′是表情相关度矩阵W的转置;
情绪相关度矩阵F17×3用以进行情绪指数的计算:
F=[A R]
它由情绪向量和动作单元矩阵联合组成,矩阵的三个列向量均表示了人脸动作单元和情绪的关系,表达了统计意义以及当前人脸上的人脸动作单元的分布情况;
步骤3.5,进行情绪相关度矩阵F标准化:
2。