应用表情识别与视线跟踪的智能教学系统研究
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
中国远程教育
nh\‘I¨】lI|、¨¨、¨f[1\、
应用表情识别与视线跟踪的
智能教学系统研究
口程萌萌林茂松王中飞
【摘要】
学习者的面部表情是教师获得教学反馈信息的重要来源之一。
表情识别利用计算机识别人脸表情,了解人的心理状态;视线跟踪则根据眼睛的特征和位置来判别注视的区域。
二者的结合可以较好地弥补
远程学习者对学习内容的表情反馈信息缺失方面的不足。
但国内尚未查到将表情识别与视线跟踪相结合
作为表情反馈信息收集方法的公开文献。
为此,文中提出基于表情识别和视线跟踪技术的智能教学系统
结构模型;构建学习相关表清库的方案;并设计表情识别与视线跟踪相结合获取反馈信息的技术框架。
f
关键词】教学反馈;表情识别;视线跟踪
【中图分类号】G40—057【文献标识码】A 【文章编号】1009---458X(2013)03—0059—。
6
面的不足。
同时,人脸表情识别精度的不断提高与技
术门槛的降低,也为表情识别应用于网络学习提供了
技术支持。
为此,本文提出一种将表情识别与视线跟教学反馈是优化教学效果的重要保障。
在课堂教踪相结合作为获取表情形式反馈信息的方法,并探索学中,教师通过提问、练习、测试、观察面部表情等性地提出基于两种技术的智能教学系统结构模型。
在方式获取教学反馈信息,了解学生对教学内容的掌握学习活动的同时,通过摄像头采集学习者面部图像,情况,及时调整教学的进度、内容、活动与方法。
利用视线跟踪技术定位学习者当前的学习内容;利用20世纪90年代起,网络学习成为人们进行学习表情识别技术监控学生的表情,判断学习者对当前学的主流手段。
网络学习中师生的时空分离,一定程度习内容的兴趣与否、注意力集中情况、对知识点的理上阻碍了教师和学生之间的有效反馈。
传统的网络学解和掌握情况;并将对应的“情绪一内容”形式的反习系统通过E~mail、电子公告牌、讨论组、聊天室馈信息传送到智能教学系统中的其他模块,为及时调等实现师生交流。
而今智能网络教学系统依托人工智整教学活动、教学进度和方法提供依据,为学习者提能技术开展各种教学活动,获取学生的网络学习行供个另U化的学习环
境。
为,通过数据挖掘技术分析学习者的学习状况、学习风格等,给予个别
指导和推送。
心理学家Meh rab i—an提出,信息=7%语言+38%声音+55%
面部表
情”】。
教学反馈信息亦是如此。
在传统课堂教学中,将人脸表情识别技术引入在线学习,国内外学者教师在很大程度上依赖学生的面部表情来获得教学反进行了大量的探索。
MIT第一个尝试将情感计算引入馈信息。
在网络学习中,学生语言形式的反馈信息可远程学习和计算机辅助训练中【31。
他们开展名为以通过文本形式传送,而比重较大的声音和面部表情“MYSELF”的项目,包括多个情感检测模块,可获信息则会丢失。
因此在教学中表情形式的反馈更应得取学习者的面部表情、声音(如频率、强度)、口头到关注。
发言内容和其他行为(如鼠标点击),通过生理信号近年来,基于模式识别的表情识别技术快速发与语音信号特征相结合来确认情感状态。
展。
表情识别口1所要研究的就是利用计算机自动、可目前,国内外相关研究可以归纳为三个方面:靠、高效地识别并利用人脸表情所传达的信息,进一①情感数据库的建立;②基于表情识别的E—learn—步了解人的心理状态。
将表情识别技术引入远程学ing平台的设计与实现;③情感缺失与补偿。
习,可以弥补网络学习中丢失表情形式的反馈信息方Lui gi Anolli等为“MYSELF”平台建立了一个包
59
2013年3月
万方数据
中国远程教育
括声音、生理信号和面部表情的情感数据库H ;
May —Ping Loh ,Ya —Ping Wong
与Chee 一0an
学习者
Wong 使用小波算法提取人脸特征,建立了一个有微 笑、困惑、疲惫、中性四种表情的表情数据库吲。
May —Ping
Loh 分析了引入情感计算的E —
Learn — ing 的现状及其存在的问题,并提出了问题解决的思 路【6】。
Stylianos Asteriadis 等使用摄像头跟踪和监视 学习者的头、眼和手的运动变化,提出了一套注意力 和兴趣度的评估标准m 。
Mohamed
Ben Ammar
等提
出了基于情感代理的智能导师系统框架∞]。
I 訇1基r‘表情识别的智能教77:系统结构
很多学者为了弥补在线学习中的情感缺失,也对 在本系统中,用户端的视线及表情信息通过摄像 人脸表情识别展开研究。
冯满堂等提出了一种基于人 头采集并传递到情感模型。
情感模型对识别到的表情 脸表情识别的智能网络教学系统模型∞】。
Mahmoud 数据与跟踪得到的视线所处的知识点处理分析,判断 Neji 为了解决情感交流匮乏问题,结合情感计算理论 学习者对知识的掌握情况、兴趣与否、专注程度及学 设计了可识别开心、恐惧、悲伤、惊讶、愤怒和厌恶 习进度,将分析结果一一对应地传递到学生模型、课 六种情绪的在线学习平台” 。
何彬针对远程虚拟教 程模型、教师模型中,以此为依据对学习内容与学习 学,提出了一种基于表情识别的情感交互模型(ElM — 过程作出相应调整,并及时给予情感补偿。
BER):”】。
马希荣等对情感计算做了大量研究,运用
学生模型表示学生的个性特征。
利用该模块对学
语音感情识别技术,设计了一个基于情感计算的
生的当前状况及其原因做出分析,为教师模型和课程
e —Learning 系统模型”“,在Agent 技术基础上,研 模型的决策提供依据。
学生模型存储静态信息和动态 究远程教育中具有个性情感的和谐人机交互系统的思 信息,其中静态信息是学生基本信息,如个人信息、 想方法、体系模型和技术手段” 。
汪亭亭和吴彦文等 学习风格等;动态信息是学生模型接收并实时更新学 提出了一种基于面部表情识别的学习疲劳识别和干预 习者数据,具体包括两类内容:1)来自情感模型的 方法” ,并采取相应的情感干预措施。
娄颜超研究了 数据,即在进行某个知识点学习时的情感状态;2)
适用于智能化教学的人脸表情识别方法””,改进了传 学习者的知识状态、当前的学习行为等。
笔者借鉴国 统的主动形状模型(ASM)来提取人脸面部特征点,采 内外同类研究并结合本研究实际,梳理出学生描述、 用人脸特征的几何特性和支持向量(SVM)方法对人脸 学习准备、认知风格、兴趣点、学习历史和情感状态 表情进行识别,并设计了相应的情感鼓励和补偿机制。
六个主要要素构成学习模型,以此描绘学生的个性特 上述文献表明:第一,表情作为重要的教学反馈 征。
学生模型实体关系如图2所示。
信息,得到国内外研究者的普遍重视,可以通过模式 ■—_ 识别技术进行检测;第二,国内学者对表情识别的研
■—一
:㈣
究多数为了弥补在线学习中的情感缺失,并未将表情
::/ :警\I
篓 / 一t ;
””。
≮
作为教学反馈信息进行研究;第三,国外研究者对应
\ 圳Ⅲ
用表情识别技术获取教育反馈信息做了一些相关的研 究,但尚未查到将表情识别与视线跟踪相结合获取表 情反馈信息的研究文献。
因此,开展本课题的研究很 有必要。
图2学生模型实侔火系
1.学生描述与学习准备。
学生描述记录了学生
基于表情识别和视线跟踪技术的智能教学系统由 的个人基本信息,如姓名、年龄、性别、专业、联系 情
感模型、教师模型、学生模型和课程模型四个模型 方式等;学习准备记录了学生当前的知识准备情况、 组成,如图1所示。
学习缺少的次级知识、学习工具使用的技能和熟练情
60万丽
万方数据
中国远程教育
况,其数据结构可表示为Study Prepare=(StuNO,进度与策略,给予学生个别化的指导和意见;为学习KnoNo,KnoReserve,Proficiency)。
者提供学习支持、解决问题的方法及用户问交流,改2.认知风格。
认知风格是学生获取和处理信息变刺激保持学习者兴趣,帮助学习者评价他们的方的不同方式、方法和偏好。
杨开城教授将认知风格划法、需求、节奏和表现。
课程模型是智能教学系统中分为感知通道偏好、场独立/依存、加工内容、活动的知识来源,对学生模型、情感模型和教师模型作出形式、推理形式、学习顺序、左右脑偏爱、记忆和解适当响应,生成相应的问题、任务和解释,衡量学生
决问题九类,如表1。
依据该理论,学生模块中的认知识掌握情况。
课程模型的主要任务包括:管理学习知风格可形式化为Learning Style=(StuNo,SC,FI/FD,者学习模型,根据学生模型确定学习者学习起点,监COP,FOA,FOR,LS,PLRB,Memory,PS)。
控学习过程,更新学生模型,记录学习者学习中遇到
表1认知风格分类”6的知识难点,并实时地为学习者推送下一阶段的教学参数取值资源。
感知通道偏好视觉(、fisioo)听觉(。
Audhion)
在情感模型中,将摄像头采集到的用户面部图像(Se ns in g Channel)
场独立/依存场独立型(FI)场依存型(FD)(包括视线与面部表情),应用图像处理和模式识别理(FI/FD)
加工内容具体经验(Specific·Experience)一抽象论与技术,一路送予视线跟踪模块,一路送予表情识(Co nt en ts of Process ing) 概括(Abstract Con c ep t i on)别模块。
在视线跟踪模块中,依次提取阈值并计算光活动形式主动试验(Acti ve Experience)抽象
(F o rm s of Activity) 概括(Abstract Con ce p t io n)斑位置,提取瞳孔边界点,椭圆拟合,计算相对偏移
推理形式归纳推理(Indu ctive Reasoning)~演量与注视点坐标;在表情识别模块中,提取表情特认
知(F o r m s of Re a s on i n g)绎推理(Deductive Reasoning);分析征,归一化处理,分类表情识别。
图3是情感模型的(Analysis)一综合(Complex);聚合思
风
Thinking)一发散思维技术框架。
格维(Convergent
(D iv er ge nt T h i nk i ng)
学习顺序整体性策略(Conprehensive Strate—视线跟琼
(L ea rn in g S e q ue n c e) gy)---序列性策略(Sequential Str ate g,")
左右脑偏爱左脑型(Left)一右脑型(Right)~协
(Pr ef er en ce of Left and凋型(Co o rd in a ti o n)
Right Brain)。
一
记忆趋同(Convergence)一趋异(Diver—
解决问题沉思(Contemplation)冲动(hnpulse)卜胖
(Memory)ge n ce)
(Problem Solving)
3.兴趣点。
兴趣点的划分视具体课程而定,如、一
语文课的兴趣点可以按时期、人物或文学作品的种类。
=”H*一,H t=;=H t,一二;H
划分,也可以采取多种分类方式相结合的办法。
4.学习历史。
学习历史动态跟踪学生的学习过程,实时接收学习者行为和来自视线
跟踪模块的视线图3总体技术路
线位置数据,并形成日志,具体包括知识点编号、视线1.人脸表情识别停留位
置、学习的起止时间等,形式化的结构为(1)建立学习相关表情库
表情研究最早始于19世纪70年代年,Paul Learn ing History=【KnoNo,Location,Sta rt—
Ek—Time,EndTime)。
m an对人类表情进行了广泛深入的研究。
归纳出愤5.情感状态。
情感状态将学生的情绪状态与当怒、恐惧、快乐、伤心、厌恶、惊讶六种表情。
该理前知识点关联,数据结构表示为Emotion St ate=论得到学术界的普遍认同,很多研究者在此基础上进(StuNo,Learning History(),Emotion)。
其中,行了表情识别的相关研究。
但现存的表情库并不适用Emotion表示在进行某知识点学习时的情感状态,由在线学习的表情识别,原因如下:1)学习过程中产情感模块中的表情识别得到。
生的表情不能笼统地定义为上述六种;2)不能盲目与其他智能教学系统相比,本系统中教师模块和扩大表情分类,只需考虑与学习相关的表情;3)目课程模块在功能和结构上并无较大差异。
教师模型以前表情数据库中的表情图像是由经过训练的人员提供学生模型数据为依据选择和组织教学内容,调整教学的,而在实际学习过程中学习者很少会产生如此夸张
61
2013年3月
万方数据
中国远程教育
和大幅度的表情。
因此需要建立一个与学习相关的表
情库。
笔者将学习过程中可能产生的情绪状态归纳为好
奇、厌烦、快乐、沮丧、分神、专注、疲惫和困惑,
不同表情的运动特征表现如表2所示。
表2不同表情的运动特征具体表现
表情额头、眉毛眼睛脸下半部
好奇1.眉毛抬起,1.眼睛睁大,上眼皮下颌下落,嘴张开,唇齿
变高变弯抬高,下眼皮下落分开,但嘴部不紧张,也
2.眉毛下的皮2.眼白可能在瞳孑L不拉伸
肤被拉伸的上边和/或下边露
图4面部表情特征点选取3.皱纹可能横出来
跨额头况;能处理人脸遮挡情况;拥有较高的识别率。
人脸厌烦眉毛压低,并在下眼皮下部出现1.上唇抬起表情识别包括人脸检测、特征提取和表情分类识别,压低上眼睑横纹,脸颊推动其向 2.下唇与上唇紧闭,推动即首先对人脸检测与定位,其次提取能够表征表情的上,但并不紧张上唇向上,嘴角下拉,唇
轻微凸起关键特征,最后分析特征,将表情归类。
快乐眉毛参考:稍1.下眼睑下边可能1.唇角向后拉并抬高目前国内外FER系统众多,哪个系统更为优微下弯有皱纹,可能鼓起,2.嘴可能被张大,牙齿可
但并不紧张能露出越,很难给出一致的评价,这是因为不同的FER系
2.鱼尾纹从外眼角3.一道皱纹从鼻子一直统的测试效果都是在不同的表情数据库、不同的实验
向外扩张延伸到嘴角外部
条件下和不同的实验设置上得出的。
表3给出了在
4.脸颊被抬起
沮丧眉毛内角皱眼角内的上眼皮抬1.嘴角下拉Cohn—Kanade和JAFFE数据库基础上的FER识别算在一起,抬高2.嘴角可能颤抖
法及结果。
高,带动眉毛
下的皮肤在考虑到识别精度、实际应用及实时性等约束条分神眨眼或瞪大眼睛,眼件的情况下,拟定如下技术方案:在正常室内条件睛不注视屏幕
头部移动下,使用摄像头采集包含面部表情的视频流,采用专注眉毛可能稍瞪大眼睛,上下眼帘嘴部自然合拢
FACE—TLD检测和跟踪人脸,等间隔提取关键帧微上扬;额头间距变大;眼白可能
后,对图像做尺寸归一化和灰度归一化处理,使用可能有少许在瞳孔的上边或下
皱纹边露出;眨眼次数较Gabor小波变换算法进行特征提取,将其与表情库中少但很快
的图像比较,应用SVM做表情分类识别。
疲惫眉毛及额头眼睛会不自然变小,嘴部会随着打哈欠不自
自然伸展,打眼帘上下间距和左然张开,嘴的上下距离明
哈欠时眉毛右间距变小;打哈欠显变大,左右距离也会略
可能会上扬,时会瞬间瞪大,但马微变大
额头可能有上又变小;眨眼次数图5表情识别算法流程
图少许皱纹较少或瞬间较多且
1)人脸检测与跟踪
缓慢;手遮住眼
困惑皱眉眼睛睁大,上眼皮抬l上唇抬起在人脸检测和跟踪过程中,要解决两个问题:一高,下眼皮下落2下唇与上唇紧闭,推动
是判断视频序列中是否出现人脸,二是对移动的人脸
上唇向上,嘴角下拉,唇
轻微凸起进行持续跟踪。
从图像中检测人脸的方法可以分为基表情分类确定后,在经过拍摄并处理过的人脸正于知识的方法、基于外观的方法、特征不变方法和模面表情图像上手动标记面部表情特征点,特征点选取板匹配方法”,各种方法都有各自的特点,不同的条如图4所示,共选取34个特征点定义面部几何特件下,各种方法有各自的优缺点,如图6所示。
由于征。
标记特征点后,采用Gabor小波提取脸部特征学习者所处的学习环境复杂多变(如光照明暗、背景信息””,并以SVM为表情分类器”81。
复杂或多张人脸等),与摄像头的角度、位置不断变
(2)表情识别的关键技术化,学习者移出再回到摄像范围内的初始化问题都可人脸
表情识别是一项非常复杂的工作,理想的表能成为跟踪的限制因素陋01。
为了克服上述问题,可采情识别系统应具有以下属性:自动获取人脸;实时处用Zdenek Kalal等人提出的基于Tracking—Learn—理;能处理头部刚性运动问题;能处理光照变化情ing—Detection(TLD)的人脸检测算法㈣。
TLD可实
现
62
万方数据
2013年3月
中国远程教育
表3一些FER系统及具体识别结果列举n
测试结果(%)
数据库特征提取方法分类方法识别任务数据类型①②数据量训练,测试比Cohn-光流、特征点跟踪、边缘HMM3种上部AU序列85-92100~2705:8—4:5
Kanade检测三种方法7种下部AU序列81~92序列
Boosting方法定位特征,SVM分类器7种上部AU每序列抽取二92.9 90人,625
帧提取G ab or幅值帧:开始,峰值
7种表情同上93-3
PBVD跟踪人脸,提取运贝叶斯网络7种表情静态逐帧73.2253人1:4重
复动单元(M otion Un it s)
PBVD跟踪人脸;提取几混合高斯模型4种表情静态逐帧75.4 87.6 47人,2981帧①6:
4 何特征十局部纹理特征(G MM),在线的基于②1:1
EM的适应算法
图像序列的光流两步法:kNN+HMMs6种表情序列90.9 97人,
488序列J AF F E手工标定34个点+18个LDA6种基本表情+中性静态显著表情75929个人,039:1 Gabor滤波器193帧②8:1
HOLA特征+Fisher)JI]权Fisher线性判别6种基本表情+中性静态显著表情69.4 9//!人8:1重复
映射
局部二元模式(LBP) 改进的模板匹配法,6种基本表情+中性静态显著表情779个人8:1重
复两步分类
手工标定的34个特征点+ 特征选择线性规划法6中基本表情+中性静态显著表情91.0 lO个人9:I重
复 18个Ga bo r滤波器
测试结果中①表示该实验的测试集中的人不在训练集中出现;②则表示该实验测试集中的人可能在训练集中出现。
实时、无约束背景下的持续跟踪,尤其在复杂背景、Gabor小波具有空间局部性、空间频率选择性和方向面部遮挡、成像距离角度变化以及视频中出现多张人选择性的特征,可以提取图像不同方向的纹理信息,脸等情况下可以准确区别跟踪,其精度较高。
并在一定程度上克服了光照条件和人脸姿态的变化对
识别率的影响删231。
由于得到图像的Gabor特征维数
很高,因此需要降维。
为此,采用Gabor小波变
换提取表情特征,并结合主成分分析(PCA)和
Fisher线性判别分析(FLD)对特征进行降维【2。
4)表情分类识别支持向量机方法SVM可解决
小样本问题、模型
选择问题和非线性问题,且具有很强的泛化性能。
因图6人脸检测方法比较此,在表情分类识别部分,将多类支持向量机算法作
2)预处理为人脸表情分类器伫”,即通过构造和结合一系列的两表
情图像预处理是为了去除噪声,剔除与表情无类分类器来实现多类分类。
所有表情图像须经过预处关的区域,如背景、头发、耳朵及双肩等,统一表情区理并映射到特征空间,在特征空间使用SVM进行
表域尺寸,减弱光线和光照强度的影响。
因此需预先对情分类。
表情图像进行降噪、几何归一化、高斯混合模型人脸分2.视线跟踪割等处理。
首先对采集的图像标定特征点,如眼睛、眼动主要有三种形式:注视、跳动及平滑尾随跟眉毛、鼻子和嘴巴的中心点;根据左右两眼位置旋转踪陋61。
注视表现为在被观察目标上的停留,这些停图像,保证人脸方向的一致性;根据面部特征点几何留一般至少持续100ms~200ms以上。
在注视
时,模型确定矩形特征区域并剪裁;采用双线性差值法把眼并不绝对静止,眼球为了看清物体总是不停地做轻表情子区域图像变换为统一尺寸;最后采用直方图均微的抖动,其幅度一般小于1度。
绝大多数信息只有衡化,达到图像灰度归一化,使图像细节更为清楚。
在注视时才能获得并进行加工。
而跳动是注视点问的
3)特征提取飞速跳跃,是一种联合眼动(即双眼同时移动),其视
基于Gabor小波变换进行特征提取的优点在于角为10~40度。
持续时间为30ms~120ms,最
高
万方数据
一————————————————1了而{i百63
中国远程教育
速度为400~600度/秒。
在眼跳动期间,由于图像在【6]Ma y—P in g Loh.Facial Expression Analysis in E—learning Systems—视网膜上移动过快和眼跳动时视觉阈限升高,几乎不The Problems and Feasibility[J].Proc eedin gs of the Fifth IEEE
International Conference Advanced Learning Technologies 获得任何信息。
人的眼睛能平滑地追踪运动速度为
(ICAL T’05),20
1~30度/秒的目标,这种缓慢、联合追踪眼动通常
【7]Stylianos Asteriadis,Paraskev i Tzouveli.Estimation of behav ior al
称为平滑尾随跟踪。
平滑尾随跟踪必须有一个缓慢移
s t a t e bas e d eye gaze and head pose-application in e—learning 动的目标,在没有目标的情况下,一般不会执行。
在
en v ir o nm e n t[J].ht t p://m a n ol i to.i m ag e.e ee.n t u a.gr/p a pe r
学习过程中无需考虑平滑尾随跟踪参数。
视线跳动表
明学习者浏览教学内容,没有进行信息加
s/571,pdf.
工。
因此,【8】M.Ben Ammar,M.Neji,G.Goua rdere s.C onve rsati onal Emb odi ed Peer 在视线跟踪模块只需考虑注视情况。
agents in affeetive e—learniG[J].8th International Conference ITS 传统的视线跟踪多是基于角膜反射原理,具有非2006,29—37,
[9]冯满堂,马青玉,王瑞杰.基于人脸表情识别的智能网络教学系统侵入的优点,该技术在用户头部不动的情况下可获得
研究【J】计算机技术与发展,2011,2l(6).
较高精度,但对头动敏感。
因此,视线跟踪模块中,
[10]Mahmoud Neji,Mohamed Ben Ammar.Emotional eLearning System 采用TLD方法获取眼部图像,使用刘瑞安和靳世久
提
【J】.hnp://www.ijeim.edu/SpecialEditions,v15nSP4/P16SEARCC—
出的算法[2”,该方法能自动适应环境光强变化和用
Emot ion aleL ear nin gSy ste m.p df.户头部位置变化,预处理后,依据直方图进行阈值提【11]何彬.虚拟教学中基于表情计算的情感交互算法研究【J】.硕士学取并计算光斑位置,依据瞳孑L边界点的灰度信息、梯位论文,2008.
度信息及瞳孔边界曲线的平滑信息综合判断,提取瞳[12]马希荣,刘琳,桑婧.基于情感计算的e--Learning系统建模【J】,计
算机科学,2005,32,(8).
孔边界点,然后进行椭圆拟合,最后计算相对偏移量
f13]马希荣,王志良.远程教育中和谐入机情感交互模型的研究fJ】.和注视点坐标,并将结果输出。
计算机科学,2006.
【】4】汪亭亭,吴彦文,艾学轶.基于面部表情识别的学习疲劳识别和
干预方法[J】.计算机工程与设计,2010,(8).
【15】娄颜超.智能化教学中的情感识别方法研究fJ]硕士学位论文,本文探索性地设计了基于表情识别和视线跟踪技2011.术的智能教学系统结构模型,提出了构建学习相关表[16]杨开城.学生模型与学习活动的设计【J】中国电化教育,2002,12.情库的方案,并设计了表情识别与视线跟踪相结合获[17】[23]M.Lyons,S.Akamatsu,M.Kamaehi,and J.G y ob a.C o di n g
facial expressions with gabor wavelets.1998.I n these proceedings.
取反馈信息的技术框架,以此弥补网络学习中缺失表
[18][25]P.Jonathon Phillips.Support Vector Machines Applied t o Face 情形式反馈信息方面的不足,以期对适应性学习的研
Rec og ni ti on[J].Ad van ce s in Neural Information,1 999.
究和智能教学系统的发展起到抛砖引玉的作用。
[19]赵明华.人脸检测和识别技术的研究[D].四川:四川大学,2006.『参考文献]【2l】Zdenek Kalal,Krystian Mikolajczyk,Jiri Matas.Face—TLD:
[1]A.M eh r ab ia n.Co m nm ni ca t io n without words.Psychology Today2(1968) Tracking—learning—detection applied t o face[J].2010.h ttp://e pri nts.
53—56.pascal—network.org/arehive/00006982101/ieip2010.pdf.
[2】张利伟,张航,张玉英.面部表情识别方法综述[J】.模式识别与仿[221124】王黎艳.基于Gabor/J\波变换和SVM的人脸表情识别[J】.硕真,2009,28(1).士学位论文,2009.
[31Luigi Anolli,Fabrizia Mantovani l,Massimo Balestra.The Potential of [26]赵新灿,左洪福,任勇军.眼动仪与视线跟踪技术综述[J]计算机Affective Computing in E—Learning:MYSELF project exp eri en ce[J]工程与应用,2006,(12).
2005.http://www.myself-proj.com/pages/artMySelf02.[27]刘瑞安,靳世久.单摄像机视线跟踪[J].计算机应用,2006,26(9).pdf.
[4][20]Luigi Anolli,Fabrizia Mantovani.A Muhimodal Database收稿日期:2012一10一15
Background for Emotional Synthesis,Recognition and Training in 作者简介:程萌萌,硕士;王中飞。
西南科技大学计算机与科E—learning System[J].International Conference Computer Vision’95,学技术学院(621010)。
1995.05.林茂松,西南科技大学信息工程学院(621010)。
[5J May-Ping Loh,Ya-Ping Won g,C h e e—O n n W on g.Fa ci al Expression
Recognition for E-learning Systems using Gabor Wavele t&Neu ral
Ne tw or k[J]IE EE:Pr oc e ed in gs of the Sixth International Conference
责任编辑日新Advanced Learning Techno lo gi es(IC AL T706).2006.
2013年3月
万方数据。