面部表情识别与面孔身份识别的独立加工与交互作用机制_汪亚珉
认知神经高级知觉
所以上面这些病例可能并不是选择性面孔知觉缺陷导致的,而仅仅是两种任务差异导 致的一个一般知觉问题,面孔知觉任务更多需要细节分辨能力,而物体知觉不需要这 样的细节分辨。
对两种任务差异是否导致选择性面孔知觉缺陷的实验研究
研究者(McNeil and Warrington,1993)做了这样的实验,一位由于脑损伤而导致面孔 失认症的病人后来成为牧羊人。实验目的是证实这位患者是否缺乏细节辨别能力。 实验中有两个任务(1)让被试做面孔知觉任务,从几张面孔图片中找出他熟悉的图片。 (2)让被试做羊的知觉任务,从几张羊的图片中挑出属于自己牧场羊的图片。
这些研究结果是和前面脑损伤患者的观察数据记过是一致 的。说明梭状回 梭状回(fusiform gyrus)尤其是右半球,在面 梭状回 孔识别种具有重要作用。
更准确的讲,这项FMRI的研究数据中显示,面孔识别精细 单元只存在于右半球,因为左半球的梭状回是即对面孔刺 激又反应同时也对无生命的物体有同样反应。
结果:被试在面孔知觉任务上处于随机水平,相反他能够很好的完成对羊的 知觉任务,他能够挑出属于他牧场羊的图片。 第二个实验再认记忆测试,old-new范式,先给分别被试呈现以系列的面孔图 片或羊的图片,然后将学过的图片和新图片混合,让被试挑出学过的图片。 结果:在知觉记忆再认任务上失认症患者仍处于随机水平,控制组几乎全部 正确。 这两个实验证明面孔失认症并不是两种任务差异导致的,因为面孔失认症患 者的细节分辨能力并没有受到损伤。
面孔识别FMRI的一些研究
FMRI技术的出现和发展比对脑损伤患者的研究为面孔识别提供更精确的空间 脑区定位。同时FMRI的无创伤性让对正常让人的研究成为可能。 我们通过比较被试看不同类型的刺激物的脑成像能回答两个问题。 (1)当被试看面孔刺激和非面孔刺激时哪些神经区域表现出不同的激活模式。 (2)这些面孔特殊区域是否也可以由其它非面孔刺激可以激活?
自闭症谱系障碍者面孔识别加工的研究进展
自闭症谱系障碍者面孔识别加工的研究进展陶衡恒【摘要】自闭症谱系障碍个体在对面孔表情进行识别的过程中,会表现出情绪感知障碍问题,很难从他人的面孔中正确读取信息,这严重影响了他们正常的社交活动.为此对ASD个体面孔识别加工特点进行梳理,分析前人在ASD个体对面孔表情类型、静态面孔的识别加工特点,以及对面孔识别的注视特点方面研究的成果与不足,提出应该深入进行发展性设计,将生理药物与心理干预方法相结合、眼动与脑电等技术相结合,进一步揭示ASD个体面孔识别障碍的内在机制,为其提供更加合理的治疗手段.【期刊名称】《辽宁师专学报(自然科学版)》【年(卷),期】2019(021)002【总页数】4页(P1-3,36)【关键词】ASD;情绪障碍;面孔加工【作者】陶衡恒【作者单位】重庆师范大学重庆师范大学应用心理学重点实验室 ,重庆 401331【正文语种】中文【中图分类】R749.940 前言自闭症谱系障碍 (Autism Spectrum Disorders,ASD)个体显示出社会沟通和社会交往的缺陷,并伴有某些重复的行为、兴趣[1].当前许多研究表明,ASD个体存在着面孔识别加工问题,这引起了广大相关学者的高度关注,很多研究者认为面孔识别加工障碍可以被看作是ASD个体社交缺陷的主要特征.近年的研究表明ASD个体出现社交障碍是由于其社会认知缺陷导致,而面孔认知是社会认知的表现之一,研究面孔认知是探寻社会认知问题的着眼点.到目前为止,国内外学者对ASD个体面孔识别加工相关问题的研究还未形成统一的定论.随着科学技术的快速发展,许多研究者对ASD个体进行了深入的调查研究,力求在这个领域取得较大的突破,进一步为ASD个体提供合适的诊断与干预措施.1 ASD个体面孔识别加工的特点人类的面孔表情传递着社交信息,正确读取他人的面部表情是一种能力.在情绪面孔识别任务中,ASD个体或轻微或严重地会出现情绪识别加工问题.影响ASD个体面部表情加工的因素非常多,如个体自身的特征、情绪面孔类型、实验方法等等[2].社交障碍至少与面部表情的识别与理解有关.现有的许多研究显示,ASD 个体面孔识别障碍是受到多个脑区异常影响的,主要是与N170、N300、P400、Nc等ERPs成分和梭状回面孔区与杏仁核激活有关系[3].1.1 ASD个体对面孔表情类型的识别加工特点研究表明,ASD个体在加工复杂的情绪时表现得很困难[4].在Evers等人的情绪面孔标签任务研究中发现,ASD组比正常被试组更频繁地选择“恐惧”这一标签,这也许在某些程度上解释了ASD个体在面对恐惧时表现得更差的原因.ASD个体在识别开心、悲伤、惊讶、厌恶、愤怒面孔表情时并无明显差异,与恐惧识别介于显著性临界[5].研究表明,ASD个体在识别积极情绪的反应时间与正确率都高于消极情绪[6].Harms等人认为,ASD个体存在情绪特异性,大多数是悲伤、厌恶、惊讶等情绪会受到一定的影响,而这些情绪需要心智化.Eack等人的研究表明,ASD个体具有情绪识别障碍,但是没有充分的证据来表明ASD个体是否存在情绪特异性[7].这些研究说明了ASD个体是否存在特异性问题,还需要进一步探索.ASD个体在识别惊讶和生气而且是高强度的表情强度水平上表现正常,而在低水平的表情强度上则出现面孔识别与加工障碍[8].在对面孔表情强度的研究上,高强度的面孔表情识别比低强度的面孔表情识别更准确[4].Evers等人的研究表明,强度与情绪相互作用,总体上,高强度的情绪面孔比中强度的情绪面孔更容易识别.1.2 ASD个体对动静态面孔的识别加工特点目前,国内有关研究ASD个体情绪面孔识别的实验设计集中于使用静态的面孔图片作为实验刺激材料,很少有相关实验设计采用动态的面孔图片.有研究表明,ASD个体在识别动态的面孔时反应时间更长,在动、静态面孔身份的匹配实验中,准确率比正常个体更低,在动态面孔识别中,ASD个体存在普遍的情绪识别障碍问题[8].在现实生活中,人与人之间的自发的表情传达往往都是快速的、微妙的,而ASD个体对这些重要的社交线索往往会忽略.在实验设计中,使用静态面孔图片,ASD个体在识别面孔情绪时,会出现与正常个体相似的表现,而当使用动态面孔图片进行刺激时,ASD个体往往表现得更差,动态的面孔图片比静态的面孔图片在情绪水平上会产生更大的激活.有研究将动态的面孔图片与静态的面孔图片这两种呈现方式做了对比,发现ASD 儿童对静态情绪面孔图片的识别能力高于动态的情绪面孔图片,进一步提出ASD 个体对情绪性线索的提取出现困难.这一定程度上说明了ASD个体在面对面孔表情时,大脑激活异常.1.3 ASD个体对面孔识别的注视特点许多研究表明,ASD个体在进行面孔识别时,注视的时间和区域与正常人相比存在显著的差异.根据眼动技术的研究表明,ASD个体更倾向于关注面部的嘴巴部分,更少去关注眼部的区域.眼部注视不足是一项ASD个体评估诊断标准.许多研究者认为,在负性情绪面孔中,ASD个体更多地表现出眼部注视不足,这可能是由于负性效价情绪过度引发了情绪唤醒,从而回避了眼部的注视.结合眼动技术对ASD儿童进行研究,发现ASD儿童对面孔的总注视时间比正常发育的儿童少,对眼部、嘴部的注视时间比及注视点数均比正常儿童低,对高兴表情和悲伤表情的注意较多,而对恐惧则较少[9].这表明ASD个体对面孔的识别加工与常人不同,对情绪面孔的注意方式异常.尽管对ASD个体面孔识别障碍缺乏统一的定论,但是许多研究表明他们在识别面孔时确实表现与正常人不同.近年来,有研究证实,当表情面孔呈现在真实复杂的自然社会场景中时,ASD个体较少注视眼部.因此有研究者提出,可能是社会互动会直接影响ASD个体对眼部区域的注视不足.正常个体的眼部注视比率与N170成分的潜伏时间呈显著负相关,而ASD个体没有出现此特征[10].ASD个体对眼部区域的注视不足可能是与他们在面孔加工时大脑神经的异常激活有关.一项将ASD个体、杏仁核损伤的病人、正常个体进行对比的实验研究表明,被试者在观看真实自然社会场景时,ASD个体比正常个体更少注视眼部区域,与杏仁核受损的病人相似[11].由此,ASD个体对眼部区域的注视不够或是对眼部的回避,这可能与杏仁核的异常有关.ASD个体的情绪启动效应与正常人有明显的差异,他们的情绪启动功能受到一定程度的损坏,但目前为止,对ASD个体情绪面孔识别与加工的原因还未形成统一的定论.2 现有研究的不足与未来展望通过总结前人的研究成果,无论是在生理层面或是行为层面,ASD个体都表现出明显的面孔识别障碍.针对目前研究ASD面孔识别加工的主要方面,对ASD个体面部识别加工的主要特点进行梳理,为下一步更好研究这个特殊群体提供建议.目前为止,国内对ASD个体面孔识别加工纵向研究太少,使得我们无法判断是生理上的原因,还是后天环境与实践产生的原因,接下来应该多去深入进行发展性的研究设计.提高被试者的同质性,特别是要充分考虑到ASD个体的年龄、智力、教育背景等因素,更好地与控制组匹配.针对ASD儿童的早期干预治疗方法还应该将生理药物与心理干预方法相结合,在有生活意义的情境中对ASD个体进行有效的联合注意与共情训练.在实验材料方面,大多都是采取加工化的标准静态图片,对于是否能推论到真实场景中还需要进一步验证,少数使用动态面孔图片去探测ASD个体面孔识别的效果研究.研究证明动态图片更可靠地揭示ASD个体面孔感知的特点.在未来的研究中,还利用眼动与脑电等技术相结合的更加生态化的研究方法,深入探索ASD个体对面孔身份识别与面孔表情识别之间的异同,进一步揭示ASD个体面孔识别障碍的内在机制,为ASD个体提供更加合理的干预措施和治疗手段.参考文献:【相关文献】[1]孟景,沈林.自闭症谱系障碍个体的共情及其理论与神经机制[J].心理科学进展,2017,5(1):59-66.[2]王丽娟,罗红格,姚雪.自闭症谱系障碍者面孔识别的神经机制[J].心理科学进展,2009,17(6):1177-1184.[3]王磊,冯建新.面孔呈现特征对自闭谱系障碍面孔识别的影响[J].中国特殊教育,2017,(3):32-37.[4] Kris Evers,Jean Steyaert,IlseNoens,et al.Reduced Recognition of Dynamic Facial Emotional Expressions and E-motion-Specific Response Bias in Children with an Autism Spectrum Disorder[J].Journal of Autism and Developmental Disorders,2015,45(6):1774 -1784.[5] Lambrecht L,Kreifelts B,Wildgruber D.Gender differences in emotionrecognition:Ipact of sensory modality and emotion category[J].cognition and Emotion,2014,28(3):452-469.[6] Harms M B,Martin A,Wallace G L.Facial Emotion Recognition in Autism SpectrumDisorders:A Review of Behavioral and Neuroimaging Studies [J].Neuropsychology Review,2010,20(3):290-322。
基于深度学习的人脸识别与表情识别技术研究
基于深度学习的人脸识别与表情识别技术研究人脸识别与表情识别技术是目前计算机视觉领域的重要研究内容之一。
随着深度学习技术的发展,基于深度学习的人脸识别与表情识别技术也取得了显著的进展。
本文将重点探讨深度学习在人脸识别和表情识别方面的应用和研究现状。
一、深度学习在人脸识别方面的应用人脸识别是一种通过对人脸图像进行处理和分析,识别出其中的个体身份信息的技术。
深度学习在人脸识别方面的应用主要包括人脸检测、人脸特征提取和人脸识别三个方面。
1. 人脸检测人脸检测是人脸识别的第一步,其主要目标是在图像中准确地找到人脸的位置。
传统的人脸检测方法通常是基于图像特征和机器学习算法,但其准确率和鲁棒性都有一定的局限性。
而基于深度学习的人脸检测技术通过使用卷积神经网络(Convolutional Neural Network, CNN)进行特征学习和分类,能够显著提高人脸检测的准确率和鲁棒性。
2. 人脸特征提取人脸特征提取是指从检测到的人脸图像中提取出能够表征个体身份信息的特征向量。
在过去的几年中,基于深度学习的方法逐渐取代了传统的特征提取算法,如局部二值模式(Local Binary Pattern, LBP)和主成分分析(Principal Component Analysis, PCA)。
深度学习方法如卷积神经网络(CNN)和人脸识别网络(FaceNet)能够提取出更加鲁棒和具有判别性的人脸特征。
3. 人脸识别人脸识别是将得到的人脸特征向量与已知的人脸数据库进行比对,以实现个体身份的识别。
深度学习在人脸识别方面的最大贡献之一就是利用深度神经网络(Deep Neural Network, DNN)进行人脸识别。
例如,著名的深度学习模型Siamese网络通过将两张人脸图像通过卷积神经网络进行编码,然后通过判断两个编码向量之间的距离来判断是否为同一个人。
二、深度学习在表情识别方面的应用表情识别是一种通过对人脸图像中的表情信息进行分析和识别,推测出人物的情感状态的技术。
面部表情与面孔身份识别交互中的作用
所揭示的功能层面与神经层面上的分离有力地支持 了面孔身份与面部表情识别之间的独立加工关系。 ! ! 然而, 另外一些研究却发现, 面孔身份与面部表 情识别之间并非一种独立加工关系, 两者之间存在 交互影响, 这一观点被称为非独立加工观。支持这 种非独立加工观的实验证据也同样来自于行为学、 认知神经科学以及神经心理学三方面的研究。行为 学研究发现, 表情识别与身份识别之间并非彼此独 立而是相互影响的, 这表明表情身份识别之间不可
[ % ’ (] 表情两者相互独立, 互不干扰 。但是, 面孔身份
经心理学的研究发现, 失认症 ( 8CD9D81E>D921 ) 病人 与杏仁核受损伤病人表现出面孔身份识别与面部表
[ ? ’ %- ] 情识别的分离受损 ; 认知神经科学的研究则发
现, 面孔身份识别激活梭状回面孔区 ( F5924DC0 F1;A GCA1,FFG) , 而面部表情识别则激活颞上沟 ( 958AC2/
图 "! 实验中所使用变形系列材料示例
!" #" $% 实验设计 ! 实验包括两个相对独立的实验 任务, 即表情识别与身份识别, 采用被试间设计。每 个实验任务都采用单因素被试内设计, 操纵的自变 量均为与识别任务无关的特征的变化, 包括 “ 变” 与 “ 不变” 两个水平。在表情识别任务条件下, 表情是 有关特征, 身份是无关特征, “ 变” 是指图片系列表 情变化 ( 例如, 由愤怒变到快乐) 的同时, 身份也在 变化 ( 例如, 由模特 * 变到模特 + ) ; “ 不变” 是指图 片系列表情变化时, 万方数据 身份保持不变。而在身份识别
面孔知觉中特征、结构和整体加工策略的眼动研究
面孔知觉中特征、结构和整体加工策略的眼动研究一、本文概述本文旨在探讨面孔知觉中的特征、结构和整体加工策略,并通过眼动研究的方法深入解析这些策略在面孔识别过程中的作用。
面孔知觉是人类社交互动中至关重要的能力,它涉及到对面孔特征的提取、面孔结构的解析以及对面孔整体形象的认知。
本文将从眼动研究的角度出发,分析这些加工策略在面孔知觉中的运作机制,以期揭示面孔识别的心理过程和神经机制。
在面孔知觉的研究中,特征加工策略指的是对面孔各个局部特征的关注和处理,如眼睛、鼻子、嘴巴等;结构加工策略则侧重于对面孔内部各特征之间关系的理解和分析;而整体加工策略则强调对面孔整体形象的感知和识别。
本文将通过眼动追踪技术,记录被试在观察面孔时的眼球运动轨迹,分析他们在不同加工策略下的视觉注意分配和加工方式。
通过本文的研究,我们期望能够更深入地理解面孔知觉的加工机制,揭示不同加工策略在面孔识别中的作用和相互影响。
本文的研究结果也将为面孔识别技术的改进和应用提供理论支持和实践指导。
二、研究方法本研究旨在深入探究面孔知觉过程中特征、结构和整体加工策略的眼动特征。
为此,我们设计了一系列实验,结合眼动追踪技术和先进的图像处理技术,以揭示面孔识别过程中的视觉注意分配和加工策略。
我们采用了三种不同的面孔处理任务:特征识别、结构识别和整体识别。
在每种任务中,都向参与者展示了经过特殊处理的面孔图片,以突出或隐藏面孔的特定信息。
例如,在特征识别任务中,我们使用了经过模糊处理的面孔图片,仅保留眼睛、鼻子和嘴巴等特征信息;在结构识别任务中,我们改变了面孔特征间的相对位置,以考察参与者是否能根据结构信息识别面孔;在整体识别任务中,我们展示完整的面孔图片,要求参与者进行整体识别。
眼动追踪技术在本研究中扮演了关键角色。
我们使用先进的眼动追踪设备,实时记录参与者在完成各项任务时的眼动数据,包括注视点位置、注视时间、眼跳轨迹等。
这些数据能够直观地反映参与者在面孔识别过程中的视觉注意分配情况。
我国ASD者面孔识别研究热点知识图谱
我国ASD者面孔识别研究热点知识图谱摘要为比较准确地了解国内ASD者面孔识别研究的热点和前沿,为今后研究提供行之有效的建议,采用关键词共词分析法,利用Bicomb软件及SPSS软件绘制了从中国知网中查询到的55篇文献的热点知识图谱。
研究结果发现:ASD 者面孔识别研究热点主要围绕在5大领域:社会能力研究、面孔加工和情绪面孔加工研究、认知和情绪加工的功能性磁共振成像(fMRI)研究、面孔加工的神经机制和生理指标研究、情绪认知干预研究。
为避免已有研究热点存在的5方面不足,后继研究者应该从5个方面人手以期获得更多的创新性研究成果。
关键词ASD,面孔识别,研究热点,知识图谱。
1.引言面孔不仅承载能够反映个体性别、年龄、民族等固有特征方面的信息,而且还可以传递美丑、喜好、厌恶等社会方面信息。
在传统面对面的人际交往中,人际交往后果往往由个体的面部构成、体态、面部表情、注视方向、亲密和信任感等综合因素所影响(Barkhi,Jacob,Pirkul,1999)。
已有研究发现,自闭症谱系障碍者产生社交障碍的重要原因在于其面孔认知技能的缺失,导致其难以与他人建立良好的人际关系(郭嘉,静进,邹小兵,唐春,2011;樊越波,揭晓锋,邹小兵,2011;杨利芹,汪凯,朱春燕,2011)。
Langdell于1978年最早对自闭症谱系障碍(autismspectrum disorders,ASD)者面孔认知障碍进行研究,他发现自闭症儿童对面孔的识别异于正常儿童以情绪为主的归类,他们更倾向于以无关的外在维度(如是否戴帽子)作为面孔识别的归类标准。
Lang-dell(1978)的研究结果,引起了更多的后继研究者对ASD者面孔识别障碍的关注。
20世纪90年代,逐渐兴起的认知神经科学以及眼动仪和脑成像技术的普及,促进了对ASD 者面孔识别研究由传统的行为学实验研究,向使用现代技术的神经机制的研究方法转变。
国内研究者敏锐的抓住了这一时机,采用眼动议、ERP和fMRI等技术对ASD者的面孔识别障碍这一研究热点问题展开了研究,取得了一定的研究成果。
人脸表情识别研究共3篇
人脸表情识别研究共3篇人脸表情识别研究1随着科学技术的不断进步,人脸表情识别技术也得到了广泛的应用。
人脸表情识别技术可以从面部表情中识别出人类的情感状态,并在情感识别、人机交互、心理疾病诊断、虚拟现实等方面得到广泛的应用。
本文将从人脸表情识别技术的基本原理、应用领域、研究进展等方面进行分析和探讨。
基本原理人脸表情识别是一种计算机视觉技术,其基本原理是通过对面部表情进行分析和处理,从而识别出人类的情感状态。
人脸表情识别技术通常包括两个基本步骤:特征提取和分类判断。
特征提取是指将人脸图像中的特定区域(如眼睛、嘴巴、眉毛等)的特征进行提取,并将其转化为计算机可处理的数据。
目前,人脸表情识别技术主要采用的特征提取方法有灰度共生矩阵(Gray-level co-occurrence matrix, GLCM)和主成分分析(Principle Component Analysis, PCA),其中GLCM方法可以提取出面部纹理细节,PCA方法则可以将原始的面部数据进行降维处理,提高计算效率。
分类判断是指对提取的特征进行分类和判断,将它们归类为特定的情感状态。
目前,主流的分类方法有支持向量机(Support Vector Machine, SVM)、朴素贝叶斯分类器(Naive Bayes Classifier)和人工神经网络(Artificial Neural Network, ANN)。
应用领域人脸表情识别技术具有广泛的应用领域,涉及情感识别、人机交互、心理疾病诊断、虚拟现实等方面。
以下是其中一些典型应用场景:情感识别:人脸表情识别技术可以将人类的情感状态(如喜、怒、哀、乐、惊、恐等)进行识别和分类,可以在多个领域得到应用。
比如,在市场调研领域,可以通过对消费者面部表情的识别,对产品的市场反应进行分析和预测。
人机交互:人脸表情识别技术可以在智能终端、游戏等场景中,实现人机之间更加自然的交互方式。
比如,在智能家居领域,可以通过人脸表情识别技术让家居设备更好地理解人类的情感状态,从而提供更加人性化的服务。
融合独立分量分析与支持向量聚类的人脸表情识别方法
融合独立分量分析与支持向量聚类的人脸表情识别方法周书仁;梁昔明【摘要】针对人脸表情特征提取及自动聚类问题,提出了融合独立分量分析(ICA)与支持向量聚类(SVC)的人脸表情识别方法.采用ICA方法进行人脸表情的特征提取,然后采用混合因子分析(MFA)的交互参数调整方法得到局部约束支持向量聚类(LCSVC)的半径,有效降低了表情类别聚类边缘的部分干扰,这比单独采用支持向量聚类(SVC)方法效果要好.测试样本时通过比较新旧半径的值进行判决,实验结果表明该方法是有效的.%A new method of facial expression recognition is proposed, which is based on Independent Component Analysis (ICA) and Support Vector Clustering (SVC), which aims at solving the problem of features extraction of facial expression and auto-clustering. First, the facial expression features were extracted by ICA, and then the radius of Locally Constrained Support Vector Clustering (LCSVC) could be acquired according to the adjustment of inter-parameter Mixture of Factor Analysis (MFA) method. This clustering method effectively restrained the disturber of the clustering boundary region and also was better than the one that only uses SVC. The test sample is classified by a comparison with the difference between new and old radius, and the experimental results show that the proposed method is effective and successful.【期刊名称】《计算机应用》【年(卷),期】2011(031)006【总页数】4页(P1605-1608)【关键词】表情识别;独立分量分析;局部约束支持向量聚类;混合因子分析【作者】周书仁;梁昔明【作者单位】长沙理工大学计算机与通信工程学院,长沙410114;中南大学信息科学与工程学院,长沙410083【正文语种】中文【中图分类】TP391.41聚类作为一种数据自然分组或无监督数据分类的有效途径,已经被越来越多的研究人员所重视[1-3]。
面部特征提取及身份识别的研究的开题报告
面部特征提取及身份识别的研究的开题报告一、研究背景随着计算机视觉技术的不断发展,面部特征提取及身份识别技术在安保、生物识别、智能监控等领域得到广泛应用。
面部特征提取是将人脸中的各种特征信息提取出来,如眼睛、鼻子、嘴巴等部位的位置、大小和形状等,用于身份识别。
身份识别是指在已有的人脸数据库中,通过对比、匹配等操作,从中识别出输入的人脸信息,判断其身份。
目前,面部特征提取及身份识别技术存在一些问题,如在不同光照、角度、表情等情况下的识别准确率下降,需要进行更加精细的特征提取和相应的算法优化。
因此,本研究旨在基于深度学习算法,探究面部特征提取及身份识别的相关技术,提高其在实际应用中的准确度和稳定性。
二、研究内容(1)面部特征提取技术的研究和分析。
通过分析不同的面部特征信息,探究其在不同应用场景下的作用及其提取的方法,理论研究不同特征的可靠性和稳定性。
(2)身份识别算法的研究和分析。
综合考虑准确率、效率等因素,设计一种基于深度学习的身份识别算法,包括特征提取、特征匹配、身份确认等模块,提高身份识别的准确性和鲁棒性。
(3)实验验证与优化。
利用数据集进行实验验证,分析算法的优劣,针对优化空间进行进一步研究,如增加训练数据、优化模型结构等方法,提高算法性能。
三、研究意义和预期效果本研究的意义在于:基于深度学习算法,进一步提高面部特征提取及身份识别技术的准确性、稳定性和鲁棒性,满足安保、生物识别、智能监控等领域对于身份识别技术的应用需求。
预期效果是:提出一种基于深度学习的身份识别算法,准确率达到90%以上;优化算法结构,提升计算效率,实现快速的身份识别。
面孔的认知与识别
面孔的认知与识别认知心理生理学(Cognitive psychophysiology)创造了许多实验方法研究正常人面孔认知的规律。
在左构脸和右构睑的研究中,发现了左侧脸负载着较多的信息;在正位脸和倒立脸的研究中,发现了面孔认知的翻脸效应;在面孔旋转的研究中,发现了心理旋转效应;在正常脸与重组脸的研究中,发现了面孔认知的拓扑编码规律;在熟悉脸与陌生脸的研究中,发现了不同的编码过程和脑网络。
这些研究表明,面孔认知过程至少包含7种编码:图形码、结构码、身份码、姓名码、表情码、面部言语码和视觉语义码;熟悉性判断、身份判断和姓名判断的反应时依次增长的事实,提示三者是顺序进行的信息加工过程;对熟悉人确认至少包括3种编码,即结构码、身份语义码和姓名码;对陌生人识别,则以图形码和视觉语义码为主的两种编码过程;在面孔识别中最普遍而共同的加工过程是并行处理,随加工深度要求不同,则有顺序的串行加工过程;各种编码过程中,均可并行同时提取许多特征,实现底-顶的加工策略,也存在着顶一底的语义指导加工策略。
总之,认知心理学发现的这些规律,对于深入研究人类信息加工的自动过程和控制过程的关系,提供了良好的前提。
心理生理学以脑事件相关电位为基础,吸收了认知心理学对面孔认知研究的理论与方法,形成了认知心理生理学的新研究领域。
文献中积累的事实表明,从简单描述的面孔图到真实面孔照片,随复杂性增加和要求记忆功能的参与,面孔刺激引出的ERPs中较长潜伏期成分增多,面孔与非面孔刺激的ERPs差异主要反映在潜伏期为250毫秒以前的成分,大体在140-240毫秒之间。
在熟悉人照片匹配实验中,不匹配时引起160毫秒以前的负波,以右半球为主;在照片的身份、职业匹配实验中,不匹配时则引起两半球广泛性不匹配负波;潜伏期约450毫秒。
我们实验室自1988年以来,研究了正常被试在面孔识别时的ERPs,发现以双关图为认知材料时,将其认知为面孔时比认知为非面孔时P2波的潜伏期加长,说明面孔认知比非面孔认知的加工过程复杂。
面孔识别中的构形加工与特征加工
心理科学进展 2011, Vol. 19, No. 8, 1126–1137 Advances in Psychological ScienceDOI: 10.3724/SP.J.1042.2011.011261126·研究前沿(Regular Articles)·面孔识别中的构形加工与特征加工*汪亚珉 黄雅梅(首都师范大学心理学系, 学习与认知重点实验室, 北京 100048)摘 要 面孔信息的分类方法一直复杂多样, 相关研究数据丰富, 但所用概念混杂。
构形加工与特征加工作为使用最频繁的分类方法, 其可靠性越来越受研究者们关注。
从近40年来的相关文献中选择引用率高的文献做参考, 遵循不同研究方法相互印证的原则分析数据, 提出构形加工与特征加工的区分是面孔识别中重要并且可靠的加工类型划分, 但确认两者在知觉加工上的先后关系以及在个体发展上的先后顺序尚缺乏稳定一致性的实验依据。
关键词 面孔识别; 构形加工; 特征加工 分类号B842与物体识别不同, 面孔识别经常要区分一些结构与形状上的差异。
这种差异多不是明确的“特征”, 而是轮廓结构上的区分。
比如说这张面孔比那张面孔要“圆些”, 或是“眉开眼笑”, 更妙的是所谓“威而不猛”, “鼻子是鼻子, 眼睛是眼睛”等描述。
这些描述揭示的信息加工可能很复杂, 但就所描述的信息类型而言都与面孔识别中的构形信息(configural information)有关。
“构形信息”一词的翻译主要是要表达出“结构”与“形状”的综合含义, 与之相对应的是特征信息(featural information)。
“面孔构形”一词一直没有确切的定义, 从现有研究文献的描述分析, 主要指的是面孔的结构及形状, 这也是我们这里把它翻译为“构形”的依据。
在面孔识别研究中构形与特征信息的划分由来已久, 然而不同研究者使用的概念却有所不同。
目前见诸文献的相关概念有“总体(whole)与部分(part)”, “全部(global)与局部(local)”, “构形(configural)与成分(componential)”, “整体(holistic/wholistic)与特征(featural/local)”等几种收稿日期:2011-02-06* 国家自然科学基金项目(30970891)、北京市教委项目(KM201110028022)及教育部博士学科点基金(20091108110001)支持。
面部表情识别技术的原理与实践
面部表情识别技术的原理与实践近年来,随着人工智能技术的不断发展,面部表情识别技术逐渐成为了研究的热点之一。
这项技术的应用范围广泛,涵盖了情感分析、人机交互、心理研究等多个领域。
本文将从技术的原理和实践两个方面,探讨面部表情识别技术的发展现状和应用前景。
一、技术原理面部表情识别技术主要基于计算机视觉和模式识别的原理,通过分析人脸图像中的特征点和肌肉运动,来判断人的表情状态。
这项技术的基础是人脸检测和人脸特征提取。
在人脸检测方面,常用的方法有基于特征的方法和基于深度学习的方法。
前者主要是通过提取人脸图像中的特征点,如眼睛、鼻子、嘴巴等,来判断是否存在人脸。
而后者则是利用深度神经网络对人脸进行分类,通过训练大量的样本数据来提高检测的准确性。
在人脸特征提取方面,常用的方法有几何模型法和纹理分析法。
几何模型法主要是通过测量人脸图像中的特征点之间的距离和角度,来提取人脸的几何特征。
而纹理分析法则是通过分析人脸图像中的纹理信息,如皱纹、斑点等,来提取人脸的纹理特征。
通过对人脸图像进行检测和特征提取,面部表情识别技术可以将人脸分为不同的区域,并提取每个区域的特征。
然后,通过对这些特征进行分析和比对,来判断人的表情状态。
例如,通过分析眼睛周围的肌肉运动,可以判断人是否在笑;通过分析眉毛的位置和形状,可以判断人是否生气或惊讶等。
二、技术实践面部表情识别技术在实践中有着广泛的应用。
其中,情感分析是最常见的应用之一。
通过识别人的面部表情,可以判断出他们的情感状态,如快乐、悲伤、愤怒等。
这项技术在电影、广告、市场调研等领域都有着重要的应用。
例如,在电影中,可以通过观众的面部表情来评估电影的情感效果,从而进行后续的改进和优化。
此外,面部表情识别技术还可以应用于人机交互领域。
通过识别用户的面部表情,可以实现更加智能化和自然化的交互方式。
例如,智能手机可以根据用户的面部表情调整音量、亮度等参数;智能机器人可以根据用户的面部表情来判断他们的需求和情感状态,从而提供更加个性化的服务。
基于多模态融合的人脸识别与表情分析研究
基于多模态融合的人脸识别与表情分析研究概述:多模态融合的人脸识别和表情分析是一项重要的研究领域,它综合利用人脸图像、声音、文字和姿态等多种信息来识别人脸和分析表情,并在人脸识别和情感智能等领域有广泛的应用。
本文将探讨多模态融合在人脸识别和表情分析中的研究进展以及相关技术和方法。
1. 多模态融合在人脸识别中的研究进展人脸识别是一项基于人脸图像特征来判断身份的技术,而多模态融合技术可以进一步提高人脸识别系统的准确性和鲁棒性。
多模态融合的人脸识别研究主要包括图像-声音融合和图像-姿态融合等两个方向。
在图像-声音融合方向,研究人员将人脸图像和声音信号进行关联分析。
通过声音中的说话方式、语调和语言内容等特征与人脸特征进行融合,可以提高人脸识别系统对于伪装和欺骗的识别能力。
同时,声音的特征也可以用于解决传统人脸识别系统在嘈杂环境下的问题。
在图像-姿态融合方向,研究人员通过结合人脸图像和身体姿态信息来提高人脸识别的准确性。
由于人体的姿态与人脸图像存在一定的关联性,通过融合这两个信息源可以提高人脸识别算法对于姿态变化的鲁棒性,进而增加识别的准确性。
2. 多模态融合在表情分析中的研究进展表情分析是利用人脸表情特征来识别和理解人的情感状态的技术。
多模态融合在表情分析中的研究主要包括图像-声音融合和图像-文字融合等两个方向。
在图像-声音融合方向,研究人员利用声音信号中的呼吸、说话方式和语音频率等特征与人脸表情特征相结合,可以更准确地分析人的情感状态。
例如,当人的表情与声音信号不一致时,通过融合两种信息源可以得出更可靠的情感分析结果。
在图像-文字融合方向,研究人员通过将人脸图像与文本信息进行融合,可以进一步提高表情分析的准确性。
文本信息可以包括人的表情描述、社交媒体发帖和评论等,结合人脸图像可以更全面地理解人的情感状态和情绪变化。
3. 多模态融合的相关技术和方法多模态融合的人脸识别和表情分析涉及多个领域的技术和方法,其中包括计算机视觉、模式识别、机器学习和信号处理等方面。
基于局部参数运动模型的人脸表情特征提取
基于局部参数运动模型的人脸表情特征提取
丁锡节;黄文清;汪亚明;曹丽;帅师
【期刊名称】《测试技术学报》
【年(卷),期】2007(021)002
【摘要】提出了一种基于局部参数运动模型提取人脸表情运动参数的方法.对图像序列进行预处理,提取出能够体现表情的五官特征;用块匹配法跟踪了特征区域的关键点;基于特征点匹配结果和局部参数运动模型,建立特征区域的运动方程;通过非线性约束优化方法估计局部运动参数.实验结果表明,该方法可行有效.
【总页数】6页(P183-188)
【作者】丁锡节;黄文清;汪亚明;曹丽;帅师
【作者单位】浙江理工大学,计算机视觉与模式识别研究中心,浙江,杭州,310018;浙江理工大学,计算机视觉与模式识别研究中心,浙江,杭州,310018;浙江理工大学,计算机视觉与模式识别研究中心,浙江,杭州,310018;浙江理工大学,计算机视觉与模式识别研究中心,浙江,杭州,310018;浙江理工大学,计算机视觉与模式识别研究中心,浙江,杭州,310018
【正文语种】中文
【中图分类】TP391.41
【相关文献】
1.基于特征提取的实时交互式三维人脸表情动画研究 [J], 王昱东
2.基于Gabor特征融合与LBP直方图的人脸表情特征提取方法 [J], 牛连强;赵子
天;张胜男
3.基于Gabor小波与FastICA的人脸表情特征提取方法研究 [J], 李烈熊
4.基于IMF解析信号能量熵的人脸表情特征提取方法磁 [J], 李茹;张建伟
5.基于ENM-Gabor差分权重的人脸表情特征提取方法 [J], 周华平; 张道义; 孙克雷; 秦黄利; 桂海霞
因版权原因,仅展示原文概要,查看原文内容请购买。
面孔识别中种族效应的认知神经基础
作者: 琚长庭;汪亚珉
作者机构: 首都师范大学,北京100089
出版物刊名: 首都师范大学学报:社会科学版
页码: 73-79页
年卷期: 2012年 第4期
主题词: 种族效应;知觉经验;社会认知;认知神经模型
摘要:在面孔识别的种族效应解释上,接触经验与社会分类两大理论取向之间一直存在争论,综述新近的认知神经科学研究发现,争论的焦点主要集中在三个关键问题上:是否存在对种族特征的注意偏向,识别不同种族面孔的认知机制之间有否差异,接触经验和社会分类是否是同时存在的两个因素。
文章通过对这些问题的逐一探讨以及这些问题彼此之间的关联验证,提出和建立异族面孔识别的认知神经模型。
人脸表情识别综述
人脸表情识别综述
杨晓龙;闫河;张杨
【期刊名称】《数字技术与应用》
【年(卷),期】2018(036)002
【摘要】人脸表情识别是机器视觉、模式识别和人工智能等众多领域的重点研究方向,目前已成为众多学者和专家的研究热点.本文介绍了人脸表情识别理论框架,概括性的介绍了人脸检测、表情特征提取和表情识别的常用方法,并介绍了相关改进方法和一些新的方法,同时分析了各方法的优缺点.最后,对人脸表情识别的发展和进一步改进指明了方向.
【总页数】3页(P213-214,216)
【作者】杨晓龙;闫河;张杨
【作者单位】重庆理工大学计算机科学与工程学院,重庆 400054;重庆理工大学计算机科学与工程学院,重庆 400054;重庆理工大学计算机科学与工程学院,重庆400054
【正文语种】中文
【中图分类】TP391
【相关文献】
1.基于深度学习与传统机器学习的人脸表情识别综述 [J], 王信;汪友生
2.人脸表情识别算法综述 [J], 聂倩倩;秦润泽;高育新;胡欣宇
3.非正面人脸表情识别方法综述 [J], 蒋斌;甘勇;张焕龙;张秋闻
4.人脸表情识别综述 [J], 叶继华; 祝锦泰; 江爱文; 李汉曦; 左家莉
5.人脸表情识别综述 [J], 魏为民;孟繁星;才智;刘畅
因版权原因,仅展示原文概要,查看原文内容请购买。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
心理科学进展 2005,13(4):497~516Advances in Psychological Science面部表情识别与面孔身份识别的独立加工与交互作用机制*汪亚珉1,2 傅小兰1(1中国科学院心理研究所,脑与认知国家重点实验室,北京 100101)(2中国科学院研究生院,北京 100039)摘 要面孔识别功能模型认为,面部表情识别与面孔身份识别是两条独立的并行路径。
以往诸多研究者都认可并遵循二者分离的原则。
但近期研究表明,面部表情识别与面孔身份识别存在交互作用。
首先总结和分析已有的面部表情识别的研究成果,评述神经心理学与认知神经科学研究中的论争,然后介绍人脸知觉的分布式神经机制以及相关的实验证据,最后提出面部表情识别与面孔身份识别的多级整合模型,并展望研究前景。
关键词面孔身份识别,面部表情识别,面孔识别功能模型,人脸知觉的分布式神经模型,多级整合模型。
分类号 B842面孔识别一直备受研究者关注。
20世纪70年代,Ekman和Frisen系统地研究了人脸基本表情的文化普遍性,并从解剖学角度提出了6种基本的面部表情[1]。
20世纪80年代,Bruce和Young系统地研究了人对面孔的识别及其影响因素,提出了经典的面孔识别功能模型[2]。
自此,面孔识别成为认知科学研究领域中的热点问题之一。
人能轻易地从不同表情中识别出同一个人的面孔(即面孔身份识别,facial identity recognition),也能从不同人的面孔上识别出同一种表情(即面部表情识别,facial expression recognition),识别得如此精巧,以至众多研究者相信,识别面孔与识别表情收稿日期:2005-04-24* 本研究得到中国科技部973项目(2002CB312103)、国家自然科学基金重点项目(60433030)和面上项目(30270466)、中国科学院心理研究所创新重点项目(0302037)经费支持。
通讯作者:傅小兰,E-mail: fuxl@ 两者相互独立,互不干扰[2∼7]。
那么,这种分离识别究竟是如何实现的?面孔身份识别与面部表情识别究竟是彼此独立的还是相互作用的?这已成为认知科学(尤其是计算机视觉)面孔识别研究领域中亟待解决的一个重要问题。
在过去开展的大量研究中,对面孔身份识别问题的探讨相对比较深入,而对面部表情识别的研究则囿于经典功能模型,并未能取得实质性进展。
近年来随着脑认知研究技术的发展,面部表情识别的研究也在不断深入,研究者对面部表情识别与面孔身份识别间的关系也提出了新的阐释。
本文在综述已有研究的基础上,试图进一步探讨面部表情识别与面孔身份识别之间的独立加工与交互作用机制。
首先,基于经典面孔识别功能模型,分析传统的面孔身份识别与面部表情识别的并行分离加工观点,以及行为学、神经心理学与认知神经科学的研究发现;其-498- 心理科学进展2005年次,介绍新近提出的分布式人脸知觉神经机制,以及相关的实验证据;最后,从知觉表征及加工阶段的角度,探讨面孔身份识别与面部表情识别之间的交互机制,提出基于自上而下加工的多级整合模型,并展望研究前景。
1 面部表情识别与面孔身份识别的并行双路径加工1.1 面孔识别功能模型Bruce和Young基于前人有关人脸识别的研究,于1986年提出了面孔识别功能模型(functional model for face recognition)[2]。
如图1所示,该模型从信息加工角度区分出7类面部识别的信息编码:图形码,结构码,身份码,视觉语义码(年龄与性别),姓名码,表情码和面部言语码(唇读或注视方向等)。
其中图形码提供光照、纹理(grain)、瑕疵以及表情信息(相当于面部的二维表征,Marr称之为2.5维表征[8]);结构码捕捉区分不同脸的轮廓信息(相当于面部的三维表征)。
Bruce和Young认为,图形码和结构码是面孔识别加工的基础,而其余5种编码则涉及进一步的个体面孔信息的确认。
图 1 Bruce-Young 经典面孔识别功能模型引自Bruce V, Young AW. Understanding face recognition. British journal of psychology, 1986, 77: 305~327面孔识别功能模型从功能角度把面孔识别划分为两大独立的过程:一是面孔身份第12卷第4期面部表情识别与面孔身份识别的独立加工与交互作用机制-499-识别,主要是识别面孔身份的语义信息,如特定面孔的姓名信息;另一个是面孔分类信息识别,即识别面部的普遍属性信息,包括性别、年龄及表情等。
该模型认为,这两类信息的加工是并行独立的[2,5]。
根据这种面孔身份识别与表情识别并行双路径加工观点,表情对面孔身份识别是不重要的,表情只不过是以观察者为中心的描述(viewer-centered descriptions)。
结构码和以观察者为中心的描述均来自Marr提出的物体识别三阶段理论[8]。
Marr 认为,物体识别有三个阶段:一是初级要素图(primal sketch)阶段,其次是以观察者为中心的描述阶段,最后是以客体为中心的描述(object-centered description)阶段。
Young认为,人脸的识别比较特殊,以客体为中心的描述对人脸的识别并不重要,因而在其模型里并不强调这种描述[5]。
在面孔识别功能模型中,结构码被设定为后面各路径加工的共同基础,因此,该模型具有一定的层级属性。
模型中多路径并行的结构也为解释面孔识别加工提供了较多的灵活性。
在后续的大量工作中,功能模型被视为面孔识别研究的基本框架和经典模型,产生了广泛的影响。
1.2 并行双路径加工的行为学依据及其挑战1.2.1 支持并行双路径加工的实验证据Bruce用熟悉与不熟悉人的面部表情图片设计了3个快速分类(speeded classification task)实验[3]。
实验一要求被试进行表情分类判断,结果发现判断不受熟悉度影响;实验二要求被试进行性别判断,结果发现熟悉度显著影响判断;实验三要求被试判断是原始图片(intact face)还是改动过的图片(jumbled faces),结果发现熟悉度显著影响这种身份判断。
实验结果出现了分离:熟悉度影响身份识别,但并不影响表情判断。
这支持功能模型假设,因为这里的熟悉度仅仅是指对面孔身份的熟悉程度,与面部表情的熟悉程度无关,因此,如果面孔身份识别与面部表情识别相互间不独立,那么面孔身份熟悉度在影响面孔身份识别的同时也会影响面部表情识别。
采用同样的分离范式,Young[5]也设计了一系列身份或表情匹配任务实验,考察熟悉度对面孔身份识别与面部表情识别的影响。
结果也支持功能模型:面孔身份识别受面孔身份熟悉度的影响,表现为对熟悉面孔的身份识别快于对不熟悉面孔的身份识别,但面部表情的判断不受面孔身份熟悉度的影响。
这种熟悉度不影响面部表情识别的观点还得到重复启动研究的支持。
Ellis等[9]用重复启动效应考察了熟悉度判断与面部表情判断,实验中第一阶段让被试看一些面孔图片以熟悉这些图片,第二阶段让被试对熟悉的与不熟悉的面孔图片进行熟悉度、表情及性别判断,结果发现熟悉度判断上出现重复启动效应,而面部表情判断与性别判断上未出现明显的重复启动效应,即熟悉度不影响表情识别,结果支持并行独立路径假设。
Calder和Young[6]用混合范式(即面孔的上下两半分别由不同的身份和/或表情组成)做的实验表明,表情变化不影响身份识别,身份变化也不影响表情识别,这也支持并行独立路径假设。
后来,Calder等[7]又用计算机分析的方法,对人脸灰度图片进行像素主成分分析,结果发现编码表情信息的主成分与编码身份信息的主成分不同,彼此之-500- 心理科学进展2005年间是独立的,这为面部表情识别与面孔身份识别的并行独立加工假设提供了物理特征的基础。
此外,Deruelle等[10]比较了成人与儿童识别面孔身份与识别面部情绪时所使用的空间频率之间的差异,也认为面孔身份识别独立于表情识别和性别识别。
1.2.2 质疑并行双路径加工的实验发现在大量研究支持功能模型假设的同时,也有一些研究质疑功能模型假设。
Endo等[11]给被试呈现熟悉与不熟悉的三种不同表情(中性,快乐,愤怒)的面部图片,让被试进行面孔熟悉度判断,记录反应时。
结果发现,在识别熟悉面孔图片时,被试对无表情面孔(中性)的熟悉度判断快于对表情面孔(快乐或愤怒)的熟悉度判断。
Endo等接着给被试呈现名人的中性或快乐面孔图片,结果发现,对快乐面孔的熟悉度判断要快于对中性面孔的熟悉度判断。
Endo等的结果表明面部表情影响熟悉度判断,进而质疑并行独立路径假设。
Sansone和Tiberghien[12]也报道了一个面部表情效应的研究:被试首先通过观看图片以熟悉这些图片,然后进行测试。
实验分为两种条件:一种是单编码条件,给被试看5遍同一张带表情的图片;另一种是混合编码条件,给被试前4次看同一张带表情的图片,第5次给被试看同一面孔身份但表情与前面4张不同的图片。
看完图片后进行测试,测试时给被试呈现一个与前面学习过的图片表情不同而身份相同的图片,考察再认率。
结果发现,单编码条件下的正确识别率要明显低于混合编码条件,说明表情影响身份识别。
表情效应似乎对熟悉面孔比较敏感。
最近,Kaufmann等[13]用熟悉与不熟悉面孔的快乐与愤怒表情图片作为目标情绪,用计算机拟合出连续变换的情绪图片,让被试根据熟悉度进行快速分类。
结果发现,表情不影响对不熟悉脸的分类,却影响对熟悉脸的分类,当表情为适度快乐时分类速度最快。
这表明表情对面孔熟悉度有影响。
比较争执双方的实验证据可以发现,Bruce[3]和Young[5]只是让被试做面孔身份或面部表情判断,并没有让被试对熟悉度进行判断以考察表情的作用,所以未能发现表情对身份识别的影响。
若采用不同的判断任务,会得到不同的研究结果,相关研究已证实了这一点。
例如,Baudouin等[14]用名人与一般人的微笑与中性表情脸进行著名程度、熟悉度分类测试,结果发现微笑提高了对面部熟悉度的评价;Baudouin等[15]设计的面部表情与面孔身份的分类任务实验发现,身份变量影响表情分类,而表情变量不影响身份分类。
实际上,熟悉度不能简单等同于面孔身份的熟悉程度,熟悉面孔的表情也有熟悉度问题。
换句话说,熟悉度与面孔身份、面部表情识别之间存在复杂的交互作用。
Schweinberger等[16,17]的研究发现,面孔身份识别与面部表情识别间具有一种不对称的干扰关系,即面孔身份信息对面部表情识别的影响易显现出来,而面部表情信息对面孔身份识别的干扰则较难表现出来。
其实,在Bruce 与 Young提出的熟悉度影响面孔识别的研究范式中,三个重要变量(面孔身份、熟悉度与面部表情)之间的关系并不是简单划一的,相对而言,只有面孔身份与熟悉度之间的关系比较明确,而表情与面孔身份以及表情与熟悉度间的关系还受其他一些因素的影响。