3D人耳识别系统设计

合集下载

基于沟回结构特征的三维人耳识别方法

基于沟回结构特征的三维人耳识别方法

基 于 沟 回结构 特 征 的 三维 人 耳 识 别 方 法 术
王 凯, 穆 志纯
北京 1 0 0 0 8 3 )
( 北京科技大学 自动化 学院

要: 人耳 的生理结构含有丰富的身份鉴别信息 , 但 由于其提取 困难 , 现有 的基于局部曲面特征的三维人耳 识别并未 对此进
行利 用。提出了一种新的三维人耳表征方法 , 称之为沟 回结构特征 。利用 曲面变化量度量 曲面的凹凸特性 , 进而提取 出人 耳沟
Abs t r a c t : P hy s i o l o g i c a l s t r u c t u r e o f t he hu ma n e a r c o n t a i n s r i c h i n f o r ma t i o n f o r pe r s o n a l i d e nt i ic f a t i o n. Ho we v e r . no e x i s t i n g l o c a l s u fa r c e r e p r e s e n t a t i o n b a s e d 3 D h u ma n e a r r e c o g ni t i o n me t h o d s t a k e t h e s t r u c t u r e i n t o a c c o u n t . ma i nl y b e c a u s e o f t h e d i f ic f ul t y i n i t s e x t r a c t i o n. I n t hi s p a p e r. a n o v e l 3 D h uma n e a r r e pr e s e n t a t i o n c a l l e d 3 D a u r i c l e s t uc r .

基于深度学习的三维人脸识别技术研究

基于深度学习的三维人脸识别技术研究

基于深度学习的三维人脸识别技术研究深度学习技术在人脸识别领域中的应用日益广泛。

其利用人工神经网络模拟人类大脑的决策机制,将海量的数据进行学习和分类,进一步提升了人脸识别的准确率和鲁棒性。

针对目前二维人脸识别存在的一些弊端,三维人脸识别技术成为研究的热点。

本文就基于深度学习的三维人脸识别技术展开研究。

一、三维人脸识别技术的原理三维人脸识别技术是利用三维建模技术获取人脸的深度信息,进一步提高识别的准确率。

相较于传统二维人脸识别技术,三维人脸识别技术具备更高的鲁棒性和可靠性。

其主要原理包括三维人脸建模、三维人脸识别和三维人脸识别的特征提取。

其中,三维人脸建模是实现三维人脸识别的先决条件。

二、三维人脸建模技术三维人脸建模技术是通过对二维图像的配准和三维重建实现的。

一般来讲,三维建模技术包括结构光三维重建、立体视觉三维重建和基于深度学习的三维重建等。

其中,基于深度学习的三维重建是目前比较热门的技术。

它主要利用卷积神经网络等深度学习技术对人脸进行三维重建,从而获取更为精确的面部深度信息,进一步提高人脸识别的准确率。

三、三维人脸识别模型三维人脸识别模型主要包括三维形状模型、三维纹理模型和三维混合模型等。

其中,三维混合模型是目前比较成熟的模型。

该模型将三维形状模型和三维纹理模型进行了融合,通过深度学习技术对人脸的三维形状和纹理信息进行学习和分类,进一步提升了人脸识别的准确率。

四、三维人脸识别的特征提取三维人脸识别的特征提取是实现识别的重要步骤。

传统的方法包括基于几何信息的特征提取和基于纹理信息的特征提取。

而在基于深度学习的三维人脸识别中,可以采用卷积神经网络等深度学习技术对三维人脸的纹理和形状信息进行提取,并进行特征融合得到综合的特征表示,进一步提高人脸识别的准确率。

五、三维人脸识别技术的应用三维人脸识别技术具有广泛的应用前景。

其主要应用于安防领域、虚拟现实、在线游戏、医学诊断等领域。

例如,在安防领域中,将三维人脸识别技术应用于人脸识别门禁系统中,可以更加精准地识别员工的身份信息,避免人为因素的干扰,提高安全性。

快速三维人耳提取与识别

快速三维人耳提取与识别

第21卷第10期2009年10月计算机辅助设计与图形学学报J OU RNAL OF COMPU TER 2A IDED DESIGN &COMPU TER GRAP HICSVol.21,No.10Oct.,2009收稿日期:2008-10-20;修回日期:2009-04-14.基金项目:国家自然科学基金(60672116);上海市重点学科建设项目(B112).陈雷蕾,男,1984年生,硕士研究生,主要研究方向为视觉信息处理.王 斌,男,1964年生,博士,教授,博士生导师,论文通讯作者,主要研究方向为信号和图像处理及其应用(wangbin @ ).张立明,女,1943年生,教授,博士生导师,主要研究方向为人工神经网络模型及其在图像识别上的应用.快速三维人耳提取与识别陈雷蕾 王 斌3 张立明(复旦大学电子工程系 上海 200433)(leileichen @ )摘要 针对现有三维人耳提取与识别算法中存在处理时间长、识别率低的问题,提出一种快速三维人耳提取方法和2种三维人耳识别方法.三维人耳提取时,使用不变特征迭代最近点算法使人耳与平均耳对齐,完成位置和姿态的归一化,然后用掩膜提取出三维人耳.第一种三维人耳识别方法结合人耳深度和曲率信息,采用主元分析算法进行降维,然后用最近邻分类完成识别;第二种三维人耳识别方法则使用不变特征迭代最近点算法对齐测试耳与原型耳,利用配准误差完成人耳识别.实验结果表明,第一种人耳识别方法识别率较高、计算速度很快,第二种人耳识别方法可达到很高的识别率.关键词 人耳提取;三维人耳识别;不变特征迭代最近点;主元分析中图法分类号 TP391.4F ast 3D E ar Extraction and R ecognitionChen Leilei Wang Bin 3 Zhang Liming(Depart ment of Elect ronic Engineering ,Fudan Universit y ,S hanghai 200433)Abstract The main drawbacks of existing 3D ear ext raction and recognition algorit hms are t heir long processing time and low recognition rate.In t his paper ,a novel approach for fast 3D ear ext raction and two approaches for 3D ear identification are p roposed.For t he ear ext raction ,t he ear po se and position are normalized by aligning ear to t he mean ear by iterative closest point using invariant feat ures (ICPIF )algorit hm.A mask is finally used to extract t he 3D ear.In t he first 3D ear identification app roach ,ear is represented by a combination of range image and curvat ure image.Principle component analysis is t hen adopted to reduce t he dimensionality ,followed by t he nearest neighbor (NN )algorit hm for ear recognitio n.In t he second 3D ear identificatio n approach ,t he ICPIF algorit hm is used to align t he probe ear and gallery ear.The regist ration error is used for ear recognition.Experimental result s show t hat our first ear identification app roach has a relatively good recognition rate but a very fast co mp uting speed ,and our second approach could achieve a very high recognition rate ,but less comp utationally efficient compared wit h t he first one.K ey w ords ear ext raction ;3D ear recognition ;iterative closest point using invariant feat ures (ICPIF );principal component analysis (PCA ) 人耳识别是一种较新的生物识别方法,近年来受到了国内外众多研究者的关注,是一种很有发展潜力的生物特征识别技术.这是因为人耳具有唯一性和稳定性,可以作为个体生物识别的依据,而且人耳表面具有大量的沟和脊,形状特征很丰富,还不受胡子、化妆品和表情的影响[1].另外,人耳数据采集比较方便,不需要识别对象较多的配合,适用于监视场合.已有一些基于二维灰度图像的人耳识别技术,但它们的性能受阴影、姿态变化和成像条件等的影响较大[224].一个实用的生物识别系统需要具有识别率高、识别速度快和鲁棒性好等特点.基于三维表面形状的人耳识别算法能够很好地解决光照、姿态等问题,鲁棒性较好.Y an等[6]比较了几种三维人耳识别算法:基于深度图像的主元分析(principle component analysis, PCA)算法、基于深度图像边缘Hausdorff距离的算法,以及利用迭代最近点(iterative clo sest point s, ICP)算法[5]配准后的配准误差来识别的方法;并在一个包含302人的数据集上使用手动分割的人耳数据,PCA算法的识别率仅为55.3%,Hausdorff算法为67.5%,而ICP算法达到98.8%.后来他们提出了一种耳洞检测方法用于检测耳朵位置,在灰度图像和深度图像结合后的图像上,使用Snake算法自动提取人耳区域,依然使用ICP算法识别人耳[627].在一个包含415个原型耳和415个测试耳的数据集上,他们报道的识别率为97.6%,人耳提取过程耗时约10~20s[7];在另一个包含415个原型耳和1386个测试耳的数据集上,识别率为97.8%[8].由于ICP算法运算复杂度较高,所以人耳识别非常慢,配准一对耳朵就需要5~8s.Chen等[9]也使用了ICP算法进行人耳识别,但他们得到的识别结果不如Yan等[6]的识别结果.Passalis等[10]使用通用人耳标注模型(annotated ear model,A EM)对齐和拟合三维人耳,然后提取出用二维表示的元数据,通过比较2个元数据之间的L1范数距离来衡量一对耳朵的相似程度.对齐操作通过最小化对应点深度通道和各彩色通道的误差加权和来实现,优化过程采用的是模拟退火算法;然后使A EM向人耳变形,变形的结果作为耳朵元数据.整个提取过程耗时约30s.由于识别过程不涉及复杂的运算,所以速度比较快,配准一对耳朵所需时间少于1ms,但是识别率不高,在包含415个原型耳和415个测试耳的数据集上仅达到93.9%.现有的三维人耳识别系统在人耳提取过程耗时都比较大.基于ICP的三维人耳识别方法存在运算复杂度高、识别速度低等问题,在识别率上也还有一定的提升空间.基于A EM的方法虽然改进了识别速度,但识别率降低较多.本文提出了一套新的三维人耳提取和识别方法,从速度和性能上分别进行了较大改进.该方法分为三维人耳提取和三维人耳识别2个主要部分.在人耳提取阶段,使用不变特征迭代最近点(iterative clo sest point s using invariant feat ures,ICPIF)[11]算法与平均耳对齐所有的三维耳朵,然后用一个掩膜提取出耳朵区域.在人耳识别阶段,使用了2种方法进行人耳识别:第一种方法结合深度图像和曲率图像使用PCA算法降维,再进行识别;另一种方法使用ICPIF算法配准测试耳与原型耳,采用平均误差作为两者的距离,最后用最近邻分类完成识别.这2种方法都取得了较好的效果.1 ICPIF算法原理ICPIF是ICP算法的改进.ICP是一种用于三维表面配准的算法,其目的是找到一个刚体变换,使得点云P与点云X尽可能地重合,通过最小化P 与X之间对应点对的距离平方和实现配准.每一次迭代过程中,对于P中每一个点p,在X中查找空间距离最近的点x作为对应点对,然后计算刚体变换使所有对应点对的距离平方和最小.ICP算法需要一个初始估计,并假设P中每一个点都能在X中找到对应点.ICPIF是Sharp等[11]提出的一种对传统ICP 算法的改进,它在迭代过程中使用欧氏不变特征(例如曲率)对点进行了扩展,将特征坐标排在空间坐标后面构成高维点,p′=(p x,p y,p z,αp f1,αp f2,…,αpfk)∈3+k;其中,p′是高维点,p x,p y与p z是空间坐标,p f1到p fk是点p的k个特征描述,α是特征权重,可以通过经验来选取.ICPIF的配准过程同ICP算法完全一样,只是进行距离度量的点坐标改为p′.ICPIF在距离公式中增加了特征距离项,因而得到正确对应点对的概率通常要比仅使用空间距离的ICP算法大,收敛到正确配准位置的概率也就比较大.曲率是最常用的欧氏不变特征之一,曲面上点的主曲率k1,k2(k1≥k2)可以通过曲面方程的一阶微商和二阶微商计算.2 三维人耳提取和归一化在完整的三维人耳识别系统中,后端的识别系统通常要求输入准确的外耳数据,否则将会严重影响整个系统的识别性能,因此对原始输入图像进行934110期陈雷蕾等:快速三维人耳提取与识别准确的人耳提取是一个不可缺少的关键环节,具有特别重要的意义.归一化是图像预处理中的关键步骤,对于后续的特征提取工作非常重要,归一化效果直接影响特征提取的准确性.由于三维人耳表面上没有显著的容易精确确定的特征点,所以姿态和位置精确归一化是个难题.尽管文献[6]使用了“三角窝”与“耳屏间切迹”这两点之间的连线进行手动归一化,但实际上对于某些耳朵,这两点的位置并不容易确定,其定位的不精确直接影响了归一化的精度,这也是导致他们使用基于PCA 算法识别率不高的主要原因.为此,本文提出一种新的人耳提取方法,首先利用ICPIF 算法使人耳与平均耳对齐,完成人耳位置和姿态归一化,然后用固定掩膜提取感兴趣的人耳区域.平均耳是进行人耳姿态归一化的标准,这个平均耳是所有原型耳的平均,包括平均深度、平均最大曲率和平均最小曲率3幅图像.由于平均耳的计算是一个迭代过程,而且与人耳提取过程息息相关,所以把平均耳的建立放在人耳提取过程之后介绍.图2 人耳提取预处理过程2.1 掩膜1和掩膜2使用掩膜能有效提取感兴趣区域,去除干扰区域.人耳提取过程使用了2种掩膜,分别称为掩膜1和掩膜2,如图1所示,闭合曲线内部为掩膜区域,是我们关心的内容.对齐过程使用的是掩膜1,提取最终人耳区域使用的是掩膜2.作为ICP 算法的一种改进,ICPIF 算法也继承了ICP 算法的一些缺点,如沿着表面的切向运动收敛较慢[12].切向误差投影到X Y 平面后表现为图像的旋转和平移,对后续的识别算法(如PCA )影响非常大,如果ICP 使用的点在三维空间的各个方向分布都比较充分,就能有效地消除这个问题.所以,掩膜1包含了少量耳朵轮廓外部的点.深度传感器获取表面形状使用的是三角测距原理,在深度变化剧烈的地方所测得数据点的噪声比较大,当从不同的方向采集数据时这些区域的视线遮挡问题也会比较严重.所以识别时使用的掩膜2应尽量避免包含深度变化太剧烈的点,提取的主要是耳廓内部和部分脸颊方向的点.图1 2种掩膜2.2 三维人耳提取流程Step1.耳洞检测.采用文献[7]的耳洞检测方法,在侧脸深度图像中找到人耳位置.Step2.构造三角网格.取耳洞周围102×142范围内的点构造三角网格,如图2所示.由于传感器获得的是在X ,Y 坐标上近似均匀排列的网格状三维点,所以使用了一个非常简单的网格生成算法:在X 2Y 坐标平面上相邻的任意4个点中添加一条斜边构成2个三角形,如图2d 所示.由于传感器的原因,网格上有些顶点数据缺失,称之为无效点.接着把顶点为无效点的三角形直接去除,计算三角形在三维空间中的实际边长,把最大边长大于5mm 的三角形标记为不可信441计算机辅助设计与图形学学报 2009年任三角形,因为这些地方梯度太大,实际表面有可能是不连续的.Step3.坐标中心化.通过计算耳洞周围小范围内点坐标的均值得到耳洞的三维坐标;然后进行坐标平移,使耳洞坐标与坐标原点重合.Step4.均匀重采样.对网格进行均匀重采样,采样点在X 方向与Y 方向都是均匀分布的,采样间隔定为0.63mm ,X 坐标范围是(-25,25)mm ,Y 坐标范围(-35,35)mm.采样点落在不可信任三角形内的点标记为无效点.Step5.表面拟合.表面拟合可以使表面得到一定程度的平滑,同时还能估计无效点的值.拟合采用了从mathworks 网站下载的gridfit 代码[13],该代码利用相邻点梯度的一致性来实现表面平滑和拟合,通过选取适当的平滑参数可以得到较好的拟合结果.Step6.曲率计算.计算每个点的主曲率k 1和k 2(k 1≥k 2).Step7.如果迭代次数没有达到上限,执行下一步;否则,把落在人耳掩膜2内的数据点取出来,提取完成.Step8.把落在人耳掩膜1内的数据点提取出来.Step9.使用主曲率k 1和k 2作为每个点的不变特征,与平均耳作ICPIF 对齐,计算出最佳转动矩阵和平移向量.Step10.应用最佳转动矩阵和平移向量,使三维网格转动到新位置.转Step4.ICPIF 算法能使数据点尽量与平均耳对齐,如图3所示,图中的网状表面是平均耳,分散的点是某只待对齐耳朵的采样点.从图3中可以看出,对齐之前大部分数据点在平均耳表面上方,对齐之后,数据点都比较靠近平均耳.提取与对齐的过程交叉迭代进行是有必要的,因为人耳初始姿态的变化范围很大,用固定掩膜提取的人耳数据会有很大不同,导致与平均耳对齐的结果也有所不同.但经过一次对齐后,姿态变化已经得到了很大程度的矫正,重新提取的人耳已经比较精确了,再进行一次对齐,姿态就得到了更加精确的归一化.我们在实验中发现,迭代2次是一个比较好的选择,更多的迭代次数不仅不能进一步提高归一化精度,而且会增加处理时间.图4展示了姿态归一化的效果,可以看出,图4a ,4d 的姿态存在较大差异,但图4c ,4f 已经非常相似,说明姿态归一化效果良好.图3 ICPIF 算法对齐效果图4 姿态归一化效果 人耳提取得到的结果包含X 坐标、Y 坐标、Z坐标(深度)、最大主曲率和最小主曲率5组数据.其中,X 与Y 坐标分别沿着X 方向与Y 方向均匀分布,每个耳朵都是一样的;Z 坐标、最大主曲率和最小主曲率则随耳朵不同而不同,如图5所示.图5a 中,亮度越低表示深度越大;图5b ,5c 中,同一幅图像中亮度越大表示该处主曲率值越大.图5 人耳提取结果2.3 平均耳平均耳是所有原型耳的平均,其获得方法如下:144110期陈雷蕾等:快速三维人耳提取与识别对每只原型耳执行第2.2节中的Step1~Step6,得到深度图像和2种主曲率图像;然后分别计算每种图像的平均值,得到平均深度、平均最大曲率、平均最小曲率3幅图像.这3幅图像便是平均耳,本文称之为初步平均耳.用来计算初步平均耳的耳朵没有经过姿态归一化,所以初步平均耳不能很好地表示耳朵的平均.为此,先使原型耳与初步平均耳对齐,完成姿态归一化,再计算它们的平均深度图像和平均主曲率图像作为新的平均耳.最终所得平均耳的3种图像如图6所示.图6 平均耳3 人耳识别针对计算速度与识别性能,本文提出了2种人耳识别算法:基于PCA 的算法和基于ICPIF 的算法,它们都在深度图像的基础上添加了曲率信息,获得了更高的识别率.3.1 基于PCA 的人耳识别曲率是三维表面的局部描述,不同人耳的曲率分布存在较大差异,因此曲率图像也可用于人耳识别.由于传感器采集的三维点坐标数据含有噪声,而曲率对噪声尤为敏感,导致曲率图像中某些点的灰度值显著异于周围点,严重影响PCA 识别的效果,所以本文使用直方图均衡化方法,使主曲率的灰度级在0~1之间均匀分布.我们也尝试过使用中值滤波消除噪声,但发现效果没有直方图均衡化方法好.最终获得如图7a ~7c 所示的可用于识别的3种人耳图像.图7 用于识别的人耳图像 深度图像、最大主曲率图像和最小主曲率图像中任何一种均可作为人耳的表征,用来进行人耳识别.当单独使用一种图像识别效果不理想时,还可以把2种甚至3种图像组合成一幅图像作为人耳的表征,例如把图7a ,7b 拼接,得到如图7d 所示的图像.实际计算中,可把曲率图像的灰度乘以权重16,然后与深度图像组合;接着提取掩膜内的点形成一个长向量,向量长度就是样本维数.一幅图像的有效点数为4054个,N 幅图像拼接的样本维数就是4054N (N =1,2,3),样本个数为415个,使用PCA 算法降维之后数据维数一定小于415,得到了大幅压缩,加快了识别比较的速度.在进行人耳识别之前,先利用原型耳计算投影基以及各原型耳的特征向量.识别时,将测试耳投影到这个基上得到特征向量,然后使用最近邻分类得到识别结果.认证时,通过特征相似度阈值来判定接受还是拒绝.人耳识别时利用特征向量的相似性测度进行分类,本文尝试了3种测度:欧氏距离测度、余弦测度和Tanimoto 测度.对于特征向量u ,v ,它们之间的相似性测度记为S (u ,v ),值越大越相似.欧氏距离测度.2个向量间的欧氏距离,其值越小,相似度越大,所以加上负号取反,即S (u ,v )=-‖u -v ‖2=-(u -v )T (u -v ); 余弦测度.2个向量间夹角的余弦值,其值越大,相似度越大,即S (u ,v )=u Tv‖u ‖2‖v ‖2; Tanimoto 测度.余弦测度的变形,其值越大,相似度越大,即S (u ,v )=u Tvu T u +v T v +u Tv.3.2 基于ICPIF 的人耳识别与ICP 算法相比,ICPIF 算法获得正确对应点对的概率比较大,不容易陷入局部极小,更容易得到正确的配准位置.另外,ICPIF 所用的点不仅有整体的位置信息,还有曲面的局部特性,因而对刚体表面的描述性更强.ICPIF 的配准误差也是一种整体和局部相结合的误差表征,用它来衡量一对耳朵表面的相似程度比ICP 算法更精确.所以使用ICPIF 算2441计算机辅助设计与图形学学报 2009年法进行人耳识别能取得比ICP 算法更高的识别率.实验中使用曲面的主曲率作为不变特征,设其幅度分别为k 1和k 2(k 1≥k 2).把它们与三维点坐标相结合,这样每个点都用一个五维向量来表征:p =(p x ,p y ,p z ,αk 1,αk 2)∈5,其中α是特征部分的加权系数,实验中取为3.0.使用ICPIF 算法使测试耳与原型库中的每一个样本进行配准,与测试耳配准误差最小的那只被认为是同一个人的耳朵.人耳认证时,通过配准误差阈值来判定接受还是拒绝.当测试耳数据点数较多时,ICPIF 算法运算较慢,因此在配准过程中采取了一些措施来加快运算.例如查找最近点时,使用了ANN (approximate nearest neighbors )[14]代码,当迭代次数达到15次或前后2次配准误差的差小于0.001时,配准结束.由于用于配准的一对耳朵可能只存在部分交集,曲率也存在噪声点,所以计算刚体变换参数时,把大于平均距离+2倍网格精度的点对去除了,计算最终的配准误差时也只使用了距离较小的90%的点对.4 实验及结果分析4.1 实验数据与环境U niversity Not re Dame (UND )的三维人耳数据库①是到目前为止公开可用的最大三维人耳库.本文所使用的数据是UND 数据库的一个子集,来自415个人,每人2个数据,共有830个数据,本文称之为UND830数据集.文献[7,10]使用的都是UND830数据集.所有数据都是使用Minolta 910激光扫描仪扫描左侧脸获取的,包含X ,Y 和Z 3个坐标的深度图像以及对应的R G B 彩色图像,分辨率为640×480.系统运行的硬件环境是2.33GHz Intel (R )Xeon (R )四核处理器,4G B 内存,软件环境是Matlab R2008a.4.2 人耳提取结果采用第3节的方法能够成功地提取所有耳朵,得到有效点数为4054.由于人耳检测不是本文的重点,所以只比较提取过程所消耗的时间.本文人耳提取方法中最耗时的步骤是曲面拟合,每提取一只耳朵需要进行3次曲面拟合,每进行一次曲面拟合需要0.3s ,所以人耳提取过程耗时约1s ,而且基本恒定.Passalis 等[10]对齐时使用的是模拟退火算法,硬件环境为P43GHz 处理器,1G B 内存,整个提取过程需要30s ;Yan 等[7]的系统使用Snake 算法,硬件环境为2.8GHz 双核Pentium Xeon 处理器,2G B 内存,提取过程需要10~20s ,如表1所示;由于无法重复其他方法实验系统的硬件环境,本文的运行时间仅供参考.显然本文方法要快得多,而且没有使用二维纹理信息,适用范围更广.表1 人耳提取时间和所用数据的比较算法提取时间Πs所用数据Passalis [10]303D 形状+2D 图像Yan [7]10~203D 形状+2D 图像本文1仅3D 形状4.3 基于PCA 算法的人耳识别结果利用自动提取的人耳,分别使用深度图像R Z 、最大主曲率图像k 1、最小主曲率图像k 2以及它们的组合图像在415个原型耳上训练PCA 投影基,保留80%的能量;然后分别使用欧氏距离测度、余弦测度和Tanimoto 测度进行最近邻分类,实验结果如表2所示.可以看出,余弦测度或Tanimoto 测度之间没有显著差别,均高于欧氏距离测度.单独使用一种图像时,最小主曲率优于最大主曲率,后者又优于深度图像.在组合图像中,采用深度图像和最小主曲率组合的方式能达到较好的识别效果,在余弦测度或Tanimoto 测度下达到最高识别率98.6%.下文中提到的PCA 算法指标都是使用深度图像和最小主曲率的组合在余弦测度下得到的结果.表2 所用图像与相似度测度对PCA 算法识别率的影响图像测度欧氏距离余弦Tanimoto R Z 92.095.794.9k 194.796.996.9k 296.697.397.6R Z +k 195.797.897.6R Z +k 297.398.698.6k 1+k 296.997.897.8R Z +k 1+k 296.998.398.34.4 基于ICPIF 算法的人耳识别结果查找最近点是ICPIF 算法的瓶颈,本文使用了ANN 代码,它查找一个点的最近点的平均运算复杂度为O (N D ×lb (N X )),其中N X 是原型耳的数据点数,N D 是数据点的维数.则配准一对耳朵的运算344110期陈雷蕾等:快速三维人耳提取与识别①http :ΠΠ Π~cvrl ΠUNDBiometricsDatabase.html复杂度为O (I ter ×N P ×N D ×lb (N X )),其中,I ter 是迭代次数,N P 是测试样本的点数.从运算复杂度公式可以看出,要降低运算时间的方法有降低迭代次数、降低测试样本的点数,以及降低原型耳的点数N X .一方面由于N X 在对数中,对复杂度贡献不大;另一方面如果降低原型耳点数,会使找到的对应点位置精度严重受损,影响配准精度,所以保留所有原型耳数据点.如果估计出一个比较精确的初始配准位置,就能有效降低迭代次数.本文提出的与平均耳对齐的方法有效地解决了耳朵姿态和位置归一化问题,不仅方便了人耳提取,而且给出了一个比较精确的初始配准位置,降低了迭代次数.降低运算时间最有效的方法是减小N P ,而对测试样本进行子抽样能显著减小N P .子抽样符号S n 表示从样本中每n 行n 列取一个点,例如S 4表示从4行4列取一个点,则实际点数下降为原来的116.本文使用了不同的子抽样方式进行实验,结果如表3所示.表3 子抽样方式、迭代次数、识别时间和识别率比较子抽样方式迭代次数运行时间Πs识别率Π%S 86.81.698.3S 47.83.999.5S 38.36.399.8S 28.913.599.8S 19.353.099.8图9 人耳识别和认证的性能曲线 从表3可以看出,随着数据点数的增加,迭代次数和运行时间都显著增加,但识别率在使用S 1,S 2和S 3子抽样后均为最高值99.8%,只有一只耳朵识别失败.这是因为数据集中这只耳朵的测试样本和原型样本存在显著不同,怀疑是由数据采集错误所致,如图8所示.图8 唯一识别错误的一对耳朵本文后面提到ICPIF 算法指标都是使用S 3子抽样得到的结果.4.5 2种识别算法的比较在三维人耳识别阶段,累积匹配特性曲线(cumulative match characteristic curve ,CMC )如图9a 所示.可以看出,基于PCA 算法的识别率为98.6%,基于ICPIF 算法的识别率达99.8%,都比Y an 等[7]得到的97.6%要高.在三维人耳认证阶段,接收器操作特性曲线(receiver operating characteristic ,ROC )如图9b 所示,其中细实线表示错误拒绝率和错误接受率相等的点.可以看出,粗实线比虚线更靠近坐标轴,这说明就人耳认证来说,基于PCA 算法的性能优于基于ICPIF 的算法.在数值上,基于ICPIF 算法的等错误率(equal error rate ,EER )为1.4%,基于PCA 算法的EER 仅为0.5%,优于Y an等[7]得到的1.2%.下面比较不同方法在UND 人耳库UND830数据集上的实验结果.如表4所示,其中EER 是指人耳认证的EER ,由于无法重复其他方法实验系统的硬件环境,本文算法的识别时间仅供参考.可以看出,基于PCA 的算法不论识别率、识别时间还是认证的EER 都显著优于现有的文献.基于PCA 算法的识别速度最快,认证EER 最低,基于ICPIF 算法的识别率最高.4441计算机辅助设计与图形学学报 2009年。

人耳识别系统中的定位点选择及检测算法的设计

人耳识别系统中的定位点选择及检测算法的设计

人耳识别系统中的定位点选择及检测算法的设计黄南天1,杨景景2(1.吉林化工学院信息与控制工程学院,吉林吉林132022;2.哈尔滨工业大学计算机科学与技术学院,黑龙江哈尔滨150001)摘要:本文提出了一种新的可应用于人耳识别系统的人耳轮廓定位方法,即利用耳轮脚和耳垂脚两个端点进行定位,在此基础上提出了一种基于轮廓方向的定位点检测算法,并在实验中取得了良好的效果.关键词:人耳识别;人耳轮廓定位;定位点检测算法中图分类号:TP391.42 文献标识码:A 目前主要的生物特征识别技术有人脸识别、指纹识别、虹膜识别、DNA识别、步态识别等.但是,由于对环境的要求太高或其他原因,很多生物特征识别系统没有达到期望效果.学者们正在积极寻找新的识别方法,人耳识别就是其中的一种.人耳识别技术既可作为其他生物识别技术的有益补充,也可以单独应用于一些个体身份鉴别[1].人耳检测定位是人耳跟踪、识别、分析的关键,是人耳进一步特征提取和匹配的基础.其任务是从图像中检测是否有人耳的存在,对检测到的人耳位置进行标定,并在此基础上对图像进行旋转、平移的归一化.通常可以基于人耳结构、形状、肤色等信息,采用主分量分析法(eigenears analysis)、神经网络(neural net w ork)、支持向量机(support vect or machine)等方法实现对图像中人耳位置的检测与标定.目前比较成功的方法主要包括:(1)I annarelli系统(2)形态学特征(3)势能井和势能通道(4)主分量分析法(5)基于傅立叶系数的外耳边缘法等[2]总的来说,目前的研究工作大多采用了手工的图像分割定位技术,或者事先假定耳廓图像是正直的,并未考虑耳廓在图像中的倾斜角度.以上方法显然不能用于人耳自动识别系统,基于对系统速度效率的考虑,仍然使用基于特征点的定位方法,但是要求所选的特征点要对图像的旋转平移保持一定稳定性,同时脱离以往基于解剖形态学模糊的特征点描述方法,使特征点的选取尽可能的稳定准确[3].1 定位点选取自动识别系统中的定位点必须满足如下几个条件:(1)稳定性:定位点的稳定性是指定位点应该在耳廓旋转、平移,或者镜头位置变化时保持相对的不变性.以此为基础才可以对图像进行归一化处理,提高识别率.(2)正确性:定位点的正确性要求每次使用定位点检测算法后都能找到唯一且正确的定位点.(3)明确性:明确性其实是指定位点的定义应该脱离解剖学的几何定义,而是建立在相对明确的数学定义中[4].总的来说,稳定性保证定位点能够定位耳廓,正确性保证定位点每次都能正确地被检测出来,明确性保证定位点检测在算法上容易实现[5].在此选择耳轮脚与耳垂脚两点作为定位点:这两点所形成的直线是耳廓平面与人脸平面的交线,由直线与平面之间的垂直关系可知,如图1所示,耳轮脚与耳垂脚两点形成的直线是垂直于镜头光轴线簇所确定的平面,而由于平面法线上任意两点距离对平面上不同直线来说都是一定的,由刚体运动原理可知,即耳轮脚与耳垂脚两点在由于头部或镜头转动或镜头移动而引起的图像旋转和平移时是保持相对不变性的,也就是满足定位点的稳定性的要求,因此可以作为整个耳廓图像的定位中心点.图1 镜头与耳廓角度变化图再者实验证明不同图像中耳廓与脸颊邻接线上的这两点附近像素往往具有梯度变化大于15的特点,可以很容易利用梯度法得到经过以上两点的耳廓轮廓线模型.由于两个定位点是耳廓与脸颊临界线上的两端点,两点在耳廓线与其延伸线组成的轮廓线上具有比较明显的几何特征:此两点是轮廓线中两个比较强烈的拐点,即轮廓线在此两点出现比较大的曲率变化.因此完全可以跟踪整个轮廓线的曲率变化,确定这两个像素点的坐标.对于任意一个凸多边形,当沿着凸多边形逆时针漫游时,多边形上的点总是向左转的.对于一个非凸多边形,利用近似的Convex Hull 算法,如图2所示.图2 Co nvex Hu ll 算法原理快速的漫游所有的非凸多边形点,找出多边形上所有出现非左平移的点即为此多边形的非凸拐点.根据以上的理论,耳轮轮廓可以近似的拟合为一条非闭合的凸多边形,而耳轮轮廓与耳轮在脸颊部分的延伸线合起来可以近似地拟合为一条非闭合的非凸多边形.这样求耳轮与人脸临界线两端点的问题就变成了求相应的非凸多边形上两个非凸拐点的问题,即所求的定位点即是此非凸多边形上的两个非凸拐点.根据以上算法,可以很容易地在轮廓线中检测出两个定位点坐标,即系统选用的定位点同样满足正确性和明确性的要求.因此,选择耳轮脚和耳垂脚两端点作为耳廓定位点是合理的、正确的.2 定位点检测算法定位点选取的正确性原则,即是定位点必须具有独特的或者说明显的能够区别于其他特征点的特征,能够通过一定的算法快速检测到.这条原则正是为了能够找到一种快速有效的定位点检测算法,因此定位点检测算法实际上就是定位点从物理特征到逻辑特征的抽象和定义过程.在本系统中,作为定位点的耳轮脚和耳垂脚端点是耳轮线及其在脸颊延伸线形成的曲线上的两个曲线拐点.为了正确描述这种曲线特征,在实验中我们把人耳轮廓近似为一个非凸多边形,定位点就变成此非凸多边形上的两个非凸拐点.根据Convex Hull 算法,可以漫游多边形上的每个像素点,判断每个点的运动方向,从而选取其中的非左平移点即为定位点.在算法实现前,首先要定义图像中像素点的运动方向和非左平移判断条件.图像的每个像素点都具有一个二维坐标(X ,Y ),因此像素点的运动方向可以定义为像素点的坐标变化.当从轮廓上的任意一个像素点作为起点开始以某种方向顺序(顺时针或逆时针)漫游整个轮廓时,像素点(X ,Y )及其后继节点(X ’,Y ’)的坐标变化可以定义为(X ’∃X ,Y ’∃Y ).根据X ’与X 的相等、大于、小于关系,可以简单的把X ’∃X 抽象定义为0、∃、+三种关系,Y ’∃Y 同理.从而图像中像素点的坐标变化我们可以归结为八种方向即为:(+,0)、(+,+)、(0,+)、(∃,+)、(∃,0)、(∃,∃)、(0,∃)、(+,∃),如图3所示.对于如何判断非左平移的问题,Convex Hull94 第4期黄南天,等:人耳识别系统中的定位点选择及检测算法的设计 2012-05-16########################2012-05-16########################2012-05-162012-05-16########################2012-05-16########################2012-05-16算法中给出了一种基于极坐标的判断方法,但是图像中的像素点坐标是基于直角坐标系的,为了简化判断条件在算法及相关试验中使用在直角坐标系下的运动方向判断规则.首先要为漫游凸多边形像素点运动方向定义一个方向序列,例如以逆时针顺序遍历凸多边形时,像素点的方向序列可以定义为:{(+,0),(+,+),(0,+),(∃,+),(∃,0),(∃,∃),(0,∃),(+,∃)},整个凸多边形上的点的坐标变化都应该遵循以上的方向序列.实际应用中,判断一个像素点与其前趋点、后继点的坐标变化,如果轮廓线是一个凸多边形则两者的运动方向应该相同或者严格遵守以上序列的循环向前顺序.这样,寻找非左平移点的问题其实变成寻找坐标变化不符合如上条件的点的过程.图3 像素点运动方向人耳耳轮整体上可以近似为一个凸多边形,但是在实际中,由于耳轮上固有的生理突起、外界干扰(痣等对轮廓线的影响)和边缘提取时的误差使得轮廓线并不是严格的凸多边形,因此算法实现中实际遍历轮廓上每一个像素点显然是不可取的.为了解决此类问题,系统中实际使用N×N窗口处理每个像素点,选取相应的前趋点和后继点.窗口大小选择至关重要,太小的话算法能够识别的方向变化范围较小,不能处理一些较大的奇异突起,算法最终可能错误地终止在一个奇异点上;窗口也不能选择得太大,太大的话算法能够识别的方向变化要求较大,因此很容易错误地接受耳轮脚端点这种变化不是那么强烈的拐点,最终找不到正确的定位点.通过实验,选择5×5大小的窗口处理图像.使用5×5窗口处理像素点,只选取位于窗口边缘的零灰度点作为窗口中心点的前趋点或者后继点.在这种处理中,通过窗口内缩减像素点的方向变化量,从而保证算法对奇异点的处理能力.如图4所示,通过这种方法窗口内边缘像素的抖动就可以被消除,而且整个边缘像素点的方向变化程度也可以被消减.为了进一步增加算法对此类问题的处理能力,对于5×5窗口的16个边缘点位置,需要定义某个位置为零灰度时其相对于中心点的位置关系即运动方向.具体的位置关系如图5所示.窗口边缘共16个像素点,在系统中,相对于中心点的位置我们定义如下:3号像素(0,+),4∃6号像素(+,+),7号像素(0,+),8∃10号像素(∃,+),11号像素(∃,0),12∃14号像素(∃,∃),15号像素(0,∃),16∃2号像素(+,∃).从而在选定了相应的前趋点和后继点之后,就可以根据位置关系得出他们的运动方向,然后根据遍历序列判断点的方向变化.图4 窗口像素点位置关系图5 窗口边缘点位置实验过程中,检测中心像素点与前趋点、后继点与中心点的位置关系,然后对比两者,判断是否为定位点.满足如下情况的像素点,系统都接受其为正常的曲线拐点:(1)前后的位置关系相同(方向保持一致);(2)在方向序列上,后继点与中心点的位置关系必须在中心点与前趋点的位置关系的循环之前(遍历遵循方向序列);(3)方向序列上,后继点与中心点的位置关系不能循环提前中心点与前趋点的位置关系超过两位(消除轮廓中过于强烈方向改变).05 吉 林 化 工 学 院 学 报 2008年 2012-05-16########################2012-05-16########################2012-05-16 2012-05-16########################2012-05-16########################2012-05-16如果算法检测到不能满足以上条件的像素点,则算法停止,该像素点即为所求的定位点.算法在具体实现中,需要两个数据结构Pre 2D irecti on 和Sub D irecti on 分别记录中心点相对于前驱点的位置变化、后继点相对于中心点的位置变化,及三个数据结构PrePoint 、MedPoint 、Sub 2Point 分别记录目前窗口的前驱点、中心点和后继点.算法流程如下:(1)首先确定轮廓上任意一点作为算法起点,顺时针方向寻找后继遍历点.MedPoint 和SubPoint 分别记录起点和后继点坐标,Pre D irec 2ti on 记录两点位置关系;(2)窗口中心移动到下一个遍历点.PrePoint =MedPoint,MedPoint =SubPoint,寻找后继遍历点,SubPoint 记录后继点坐标,SubD irecti on 记录窗口中心点与后继点的位置关系;(3)判断Pre D irecti on 和Sub D irecti on 记录的位置关系是否满足上文提到的三个条件,判断该点是否合法;(4)如果是,循环执行(2)、(3)步;(5)如果否,算法终止,输出终结点坐标.实验证明,这种定位方法就有良好的鲁棒性,对噪声以及人耳位置的变化不敏感,为进一步的特征提取打下了很好的基础.根据特征提取的结果分析在不同情况下,系统的定位方法处理噪声和图像位置变换的能力.3 实验结果及分析实验系统在现有的数据库基础上,分别对轮廓定位和特征提取算法进行了测试.在小样本空间每人分别取3个样本共60个样本作测试,对其仅进行同类样本之间比较,目的是测试同一类中的算法精度和误差.实验表明,同一类的样本之间,图像大小为640×480时,定位点检测误差平均在[5,5]的范围内,基本符合轮廓定位的要求.特征向量平均维数AVE 随着极轴数N 的增加而增长.整个系统匹配结果与两个因素有直接关系:极轴数N 和匹配分数阀值TScore .在现有的数据库上,选取30人,每人6幅,共180幅的人耳图样,2个样本注册,其余4个样本认证(N =5,6,7),实验结果如下,见表1所示.从表中可以看出,当N =5时,相应的特征向量维数较小,特征点分布较分散,同一样本的特征不稳定,受随机因素的影响较大,不同对象之间的差别又不明显,因此当匹配分数阀值TScore 变化时,识别率或者说拒识率(FRR )变化相对较小,整体识别率不高,达到50%左右.随着N 的增大,当N 取6或7时,特征向量维数变大,特征点分布变得较为均匀密集,对象的特征较为丰富,包含的关键性特征比较多,因此匹配阀值TScore 引起的拒识率(FRR )变化较大,选取合适的阀值后识别率较高.整个实验中,由于样本数量较少、样本之间差距比较明显,因此误识率(F AR )都比较低.最终,当N =7,TScore =0.36时,达到最佳的识别率67%.表1 不同TS co re ,N 下的FRR 和FARN TScore FRR /%F AR /%50.5049.90.0650.4050.40.050.3656.70.060.5041.30.060.4043.60.060.3644.20.070.5023.72.6670.4030.80.770.3633.30.0样本测试结果如图6所示.图6 算法测试15 第4期黄南天,等:人耳识别系统中的定位点选择及检测算法的设计 2012-05-16########################2012-05-16########################2012-05-162012-05-16########################2012-05-16########################2012-05-164 结 论本文主要介绍的是人耳识别系统中定位点的选择及监测算法.首先简单介绍了人耳识别领域现有几种定位技术,然后介绍了定位点选取的三个原则:稳定性、正确性和明确性.最后详细介绍了本系统中使用的定位技术:选择耳轮脚和耳垂脚端点作为系统定位点,基于Convex Hull 算法使用5×5窗口以逆时针顺序遍历处理每个像素点,选取中心点的前趋点和后继点,通过判断它们之间的位置关系,从而确定定位点的位置.参考文献:[1] 梅中玲.人耳自动识别技术探讨[J ].铁道警官高等专科学校学报,2007,17(2):97-99.[2] 张海军,穆志纯,危 克.人耳识别技术研究进展综述[J ].计算机工程与应用,2004,33(3):5-7.[3] 田 莹,苑玮琦.人耳识别技术研究综述[J ].计算机应用研究,2007,24(4):21-25.[4] K .Chang,K .W.Bowyer,S .Sarkar,B.V ict or .Com 2paris on and Combinati on of Ear and Face I m ages in Appearance 2Based B i ometrics [J ].I EEE Transacti ons on Pattern Analysis and M achine I ntelligence,2003,25(9):1160-1165.[5] A.Rosenfeld,M.Thurst on .Edge and Curve Detecti onfor V isual Scene Analysis [J ].I EEE Transacti ons on Computer,1971,20(5):562-569.Selecti on of the anchor po i n ts and desi gn of the detecti n ga lgor ithm for ear recogn iti on systemHUANG Nan 2tian 1,Y ANG J ing 2jing2(1.College of I nf or mati on &Contr ol Engineering,J ilin I nstitute of Chem ical Technol ogy,J ilin City 132022,China;2.College of Computer Sciences and Technol ogy,Harbin I nstitute of Technol ogy,Harbin 150001,China )Abstract:I n this thesis,a ne w ear cont our l ocalizati on method,which is used in the aut omatic ear recogniti on syste m,is p resented,using r oot points of helix and l obule .And an algorithm of the anchor points detecting based on cont our directi ons is intr oduced,which is p r oved experi m entally .Key words:ear recogniti on;ear cont our l ocalizati on;anchor points detecting algorith m25 吉 林 化 工 学 院 学 报 2008年 2012-05-16########################2012-05-16########################2012-05-162012-05-16########################2012-05-16########################2012-05-16专 业 推 荐↓精 品 文 档。

三维及多模态人脸识别研究的开题报告

三维及多模态人脸识别研究的开题报告

三维及多模态人脸识别研究的开题报告一、研究背景和意义人脸识别技术在现实中广泛应用,如刑侦、安防、人脸支付、社交网络等。

由于传统的二维图像人脸识别技术易受到光照、姿态、表情等因素的影响,因此三维人脸识别技术成为研究的热点。

同时,为了满足多场景下的人脸识别需求,多模态人脸识别技术也引起了广泛关注。

三维及多模态人脸识别技术实际应用场景广泛,具有重要的研究意义和应用价值。

二、研究内容和方向本课题旨在研究三维及多模态人脸识别技术的相关理论和算法。

具体研究内容包括:1.数据获取和预处理技术:学习三维人脸识别和多模态人脸识别所需的各种数据获取和预处理技术,如三维数据采集技术、模型重构算法、数据对齐等。

2.特征提取和表征学习方法:研究多模态人脸识别问题中的特征提取和表征学习方法,如基于深度学习的人脸识别算法、基于局部特征的算法、特征融合策略等。

3.分类算法和识别系统:设计三维及多模态分类算法,如支持向量机分类算法、决策树分类算法等,同时构建三维及多模态人脸识别系统。

三、研究方法和技术路线研究方法主要包括文献调查和实验研究。

首先,对当前三维及多模态人脸识别技术的相关文献进行归纳和总结,了解现有技术的优缺点,确定研究方向和解决问题的方法。

其次,通过采集、重建、对齐等技术获取三维及多模态人脸数据,并对数据进行预处理,如去除噪声、标准化等。

接下来,研究基于深度学习的特征提取方法、基于一些稳定的纹理特征等方法,以获取可靠的三维及多模态人脸特征。

最后,构建三维及多模态分类模型,实现三维及多模态人脸识别系统。

四、研究预期成果1.以三维和多模态人脸识别为研究对象,深入研究基于深度学习的人脸识别技术和特征提取算法。

2.通过采集、重建、对齐等技术获取三维及多模态人脸数据,并对数据进行预处理,如去除噪声、标准化等。

3.探究多模态人脸识别算法和三维人脸识别算法的优势与不足,提出解决方案,为实际应用提供指导。

4.构建三维及多模态人脸识别系统,并在公开数据集上进行实验验证,取得较好的识别效果,提高人脸识别的准确性和鲁棒性。

适合海关、高铁等安全等级较高场合的3D(维)人脸识别智能人行通道系统

适合海关、高铁等安全等级较高场合的3D(维)人脸识别智能人行通道系统

3D(维)人脸识别智能人行通道系统介绍2017-04-20 09:14三辊闸,主要用于景点,图书馆等需人依次通过;摆闸,这个宽度比较灵活,所以可用于人行也可通自行车;翼闸,室内用的比较多,写字楼,地铁;3D(维)人脸识别系统介绍简介3D(维)人脸识别系统,能够像人眼一样直观地识别,是世界上第一款快速、准确的人脸三维识别设备。

解决弥补了传统2D可见光人脸识别存在的不足,鉴别时间只需要一秒钟,走路甚至跑过去,只需在设备上恍一眼,它就会鉴别其身份是否是以前注册过的,系统对每个人的注册时间只需2秒,注册人数可达十万以上。

产品特性☆高速接入注册时间:2秒识别时间:小于1秒注册人数可达十万以上的数据库吞吐能力:每分钟多达60人☆可靠性和安全性没有“人为因素”的错误不可能通过一个普通的照片欺骗高品质的3D测量的人脸☆实用性工作距离范围:0.8-1.6米不需要直接的身体接触和定位带有帽子和太阳镜也能快速识别能方便简单的与其他设备集成人脸模型直观指示应用场景1、社会治安应用旅馆、网吧、娱乐会所、重大集会(演唱会、体育赛事、大型讲座)2、车管所应用身份驾照采集、考试登记、审核登记3、社会防范应用上访接访、刑事案件、重点人员、卡口、查报站等4、企业、校园、住宅安全——智能小区、政府职能部门、校园门禁5、摄像监视系统——机场、铁路、海关、军队、银行、体育场、超级市场6、网络应用——辅助信用卡网络支付7、身份辨识——电子护照、第三代身份证8、信息安全——计算机登录、电子政务和电子商务智能辊式三辊闸Rolling Tripod TurnstileA 三辊闸简介多奥三辊闸采用ARM内核微处理器(ARM内核,可迅速达到客户的个性化功能要求);整机无棱角设计,防止意外碰撞时对人身的伤害,确保行人通行安全;全不锈钢外壳、机箱内部构件采用全部防腐处理,经久耐用;易控制,好维护,方便管理;兼容主流读卡器或识别系统;人员通行速度约20人/分钟(正常)30人/分钟(快速),可单向或双向通行;真正意义上的TCP/IP; 可与多奥停车场门禁考勤电梯消费等智能一卡通.;The system uses ARM micro-processing technology,its 32-bit reducedinstruction set(RISS) system and high-speed frequency greatly acceleratethe speed of system information processing,so the processing speed is highB 三辊闸功能1 整个系统运行平稳,噪音小;2 具有断电落杆,通电自动上杆功能;3 具有器件及线路自检功能,方便维护;4 具有时间保护功能;5 具有通行指示功能;6 具有自行保护,自动复位功能;7 可与多奥停车场门禁考勤电梯消费等智能一卡通.C 三辊闸技术参数蝶形三辊闸电源: AC220/50HZ蝶形三辊闸工作环境温度:-15度-+70度桥式八角三闸辊相对湿度:<95% 不凝露桥式梯形三辊闸通行速度:30人/分钟双立柱三辊闸通信接口:RS485可选配TCP/IPD 三辊闸可分为: 蝶形三辊闸立式圆角三辊闸桥式八角三闸辊桥式八角斜面三辊闸桥式梯形三辊闸桥式圆角三辊闸双立柱三辊闸非标制作三辊闸智能摆闸Smart Swing Gate摆闸简介System Deion多奥摆闸系统采用ARM内核微处理器(ARM内核,可迅速达到客户的个性化功能要求),不锈钢抛砂光处理,整体美观大方;经过防水防潮防盐雾三防处理,适应多种外界环境;系统功能强大;应用场地更广、可扩展性更强;双向开闸、双向延时复位;真正意义上的TCP/IP;可与多奥电梯/停车场/门禁/消费/等智能一卡通。

基于虚拟现实技术的3D人脸检测及分析

基于虚拟现实技术的3D人脸检测及分析

基于虚拟现实技术的3D人脸检测及分析随着科技的发展,人们使用数字技术来改进分析和检测人脸。

其中,基于虚拟现实技术的3D人脸检测及分析技术在这方面有着极高的研究价值和实际应用意义。

这种技术可以在三维立体领域内实现更加精准、全面、多变的人脸识别、模拟和还原,进一步提高分析和识别的精度和效率,而本文将就此对此进行探讨和阐述。

一、3D人脸检测的优势3D人脸检测技术是一个珍贵的工具,因为它将三维立体技术融入到人脸识别的过程中。

与传统的二维人脸检测相比,三维人脸检测能够确定更多因素,如深度、轮廓等,大大提高了精度和识别范围。

此外,3D人脸检测可以使得识别更加隐私安全,因为它可以绕过一些2D识别系统的局限性。

在这方面,虚拟现实技术的应用能够更加注重隐私保护。

比如,可以检测特定区域的人脸,而不是全面地进行扫描,从而减少了识别带来的不充分和隐私泄露的潜在风险。

二、3D人脸分析的进一步应用除了3D人脸检测外,虚拟现实技术可用于实现更全面的人脸分析。

3D人脸分析,即通过3D渲染技术,可以更加全面地还原被测试者的面部信息,包括表情、眼神等。

因此,3D人脸分析技术可以在更广泛的范围内应用,如安全检查、人际交往、医学领域等。

举个例子,医学领域可以使用虚拟现实技术帮助创建人脸模型,进而实现分析和诊断疾病。

例如,有些医学研究中,通过对患者的面部表情分析和还原,进行心理疾病诊断。

三、虚拟现实技术在3D人脸检测中的应用1. 人脸数据采集3D人脸检测需要大量的人脸数据来进行分析和还原。

虚拟现实技术可以实现人脸数据的无损收集和处理。

虚拟现实技术可以帮助收集大量的数据,而且所采集的数据可以被存储在不同的媒体上,如电脑上或者云端平台上,方便以后的研究分析和应用。

2. 特征检测与修复虚拟现实技术可以进行人脸特征和异常检测。

例如,当某些部位的数据出现错误或缺失时,可以通过虚拟现实技术进行数据修复和还原。

通过3D渲染技术,可以方便地对数据进行多角度和多视角的还原和纠正,从而避免人脸分析中遗漏甚至误诊的情况发生。

基于视觉词典的三维人脸识别和分类的开题报告

基于视觉词典的三维人脸识别和分类的开题报告

基于视觉词典的三维人脸识别和分类的开题报告1. 研究背景人脸识别和分类是计算机视觉领域中的重要研究分支,其应用领域广泛,包括安全监控、自动驾驶、医学诊断等。

对于三维人脸数据的识别和分类,需要选取有效的特征描述算法,并且能够处理不同姿态、光照和表情等挑战性问题。

2. 研究目的和意义本项目旨在开发一种基于视觉词典的三维人脸识别和分类方法。

该方法能够准确识别和分类不同个体的三维人脸数据,并具有较高的鲁棒性和稳定性。

该研究在实际应用中具有广泛的应用价值,例如在监控系统中进行人脸识别、个性化医学诊断等领域。

3. 研究内容和方法本项目将分为以下三个主要研究内容:(1)三维人脸特征描述:探究有效的三维人脸特征描述方法,筛选出较优的特征描述算法。

(2)基于视觉词典的三维人脸表示和分类:利用学习算法和聚类方法构建视觉词典,并利用该词典表示三维人脸数据,实现对三维人脸的分类和识别。

(3)实验验证与改进:通过大量的实验验证和分析,优化该方法的性能,并探究如何应对不同姿态、光照和表情等因素的影响,提高算法的鲁棒性。

4. 研究计划(1)前期准备:熟悉三维数据处理相关知识,学习相关算法和理论。

(2)三维人脸特征描述:对三维人脸数据进行处理,提取关键特征,比较各种算法的性能,确定较优算法。

(3)基于视觉词典的三维人脸表示和分类:利用学习算法和聚类方法构建视觉词典,并使用该词典对三维人脸数据进行分类和识别。

(4)实验验证与改进:使用多个三维人脸数据集进行实验验证,比较不同算法的性能,分析改进方法。

(5)论文撰写和提交:根据实验结果编写论文,提交到相关期刊或会议。

5. 预期成果本项目预期的成果有:(1)开发一种基于视觉词典的三维人脸识别和分类方法。

(2)实现该方法并进行大量实验验证,得到较好的识别效果。

(3)在相关期刊或会议上发表论文。

基于SIFT特征的3D人耳识别方法

基于SIFT特征的3D人耳识别方法

基于SIFT特征的3D人耳识别方法
查峰;达飞鹏
【期刊名称】《东南大学学报:自然科学版》
【年(卷),期】2010()S1
【摘要】提出一种基于SIFT局部特征的3D人耳识别方法.首先,用模板从人侧脸
图像中切割出所需人耳图像,同时得到人耳点云数据;然后由人耳点云数据求得其Shape Index图;接着,分别对仅含z通道的深度图像和Shape Index图求取SIFT
特征;最后,将2种图进行SIFT特征匹配得到的匹配数融合,用于人耳识别.在Notre Dame UND人耳数据库上的实验表明,由于SIFT,Shape Index对几何变换、光照以及姿态变化的鲁棒性,识别结果几乎不受这些变化的影响,而且该方法简单、快速、具有较高的识别率.
【总页数】6页(P149-154)
【关键词】3D人耳识别;SIFT;Shape;Index
【作者】查峰;达飞鹏
【作者单位】东南大学自动化研究所
【正文语种】中文
【中图分类】TP391.41
【相关文献】
1.新的生物识别方法--3D人耳识别 [J], 洪雷;刘克
2.基于SIFT特征的人耳识别 [J], 雷松泽;姚红革;齐敏;郝重阳
3.基于 Gabor小波和 ASIFT特征点的人耳识别 [J], 田莹;徐超;张一鸣
4.一种2D+3D人耳融合识别方法研究* [J], 袁立;穆志纯
5.一种基于SIFT特征及决策函数的人脸识别方法 [J], 杨璐
因版权原因,仅展示原文概要,查看原文内容请购买。

基于特征点的三维人脸识别方法研究的开题报告

基于特征点的三维人脸识别方法研究的开题报告

基于特征点的三维人脸识别方法研究的开题报告一、研究背景近年来,随着计算机视觉和深度学习技术的发展,人脸识别技术也得到了快速发展。

人脸识别技术广泛应用于安全监控、身份认证、门禁系统等场景中。

传统的人脸识别方法主要是基于二维图像的特征提取和匹配,其性能受到光照、表情、姿态等因素的影响。

随着三维扫描技术的的发展,三维人脸识别技术成为了一个研究热点。

与二维人脸识别技术相比,三维人脸识别可以获取更加精确的人脸表面几何信息,对光照和姿态等因素更为稳健。

而三维人脸识别主要基于人脸形状上的特征进行识别。

本项目旨在通过研究基于特征点的三维人脸识别方法,提高人脸识别的准确率和可靠性,同时适应不同的环境和场景要求。

二、研究内容本项目主要研究以下内容:1.基于深度学习的特征点提取方法;2.基于特征点的三维人脸匹配算法;3.基于三维模型的人脸识别系统设计。

三、研究目标通过本项目的研究,实现以下目标:1.探索基于特征点的三维人脸识别技术的理论与方法;2.设计有效的三维人脸特征点提取和匹配算法;3.实现高性能的基于特征点的三维人脸识别系统;4.对三维人脸识别系统进行实验验证,提高人脸识别的准确率和可靠性。

四、拟解决的科学问题1.基于深度学习的特征点提取方法应如何设计,如何在真实场景中使用?2.如何提高基于特征点的三维人脸匹配算法的匹配精度和鲁棒性?3.如何设计三维人脸识别系统,实现高性能、高可靠性的人脸识别?五、研究方法1.文献综述针对三维人脸识别的理论和方法进行文献综述,回顾三维人脸识别的现有技术和方法,了解目前研究热点、主要问题和发展趋势。

2.数据采集和处理以多个三维数据库为基础,先建立三维人脸特征点识别的标准模型,提取关键特征点并进行精确标注。

3.特征点提取和匹配算法设计设计基于深度学习的特征点提取算法,通过网络训练优化模型,获得更加准确、稳定的三维特征点。

此外,还需要结合匹配算法进行特征点匹配,提高匹配的精度和鲁棒性。

3d音效原理

3d音效原理

3d音效原理
3D音效是一种音频技术,旨在通过模拟人耳接收声音的方式
来创造出更加真实、立体的听觉体验。

这种技术的原理基于人类的双耳听觉系统。

由于我们的耳朵位置分布在头部两侧,每只耳朵接收到的声音会有微小的时间差以及音量差异。

基于这个原理,3D音效通过在音频信号中加入时间差和音量差,使得我们可以感受到声音的方向和距离。

具体实现3D音
效的方法有多种,下面介绍一些常见的技术:
1. 立体声(Stereo):通过将不同的声音分别传送到左右两个
扬声器中来模拟人耳的双耳接收。

这样可以产生出左右分离的声音,从而使听者能够感受到声音的左右方向。

2. 定位(Panning):这是一种通过调整声音信号在左右扬声
器之间的平衡来模拟声音的移动方向。

通过调整平衡,可以使得声音在左右扬声器之间来回移动,从而让听者感受到声音的运动轨迹。

3. 多声道(Multichannel):多声道的音频系统通过在空间中
布置多个扬声器来模拟声音在三维环境中的传播。

根据声音信号的不同,可以将声音从不同的扬声器中播放出来,以实现更加真实的空间感受。

4. 环绕声(Surround Sound):环绕声是一种通过将多个扬声
器放置在听众周围以更好地模拟真实声场的技术。

通常采用
5.1或7.1声道系统,将声音从前后左右等多个方向播放出来,
使得听者能够感受到更加立体和逼真的环境声音。

综上所述,3D音效通过模拟人耳接收声音的方式来创造出更加真实、立体的听觉体验。

通过合理地调整声音的时间差、音量差以及扬声器的布置方式,可以实现立体声、定位、多声道和环绕声等不同的3D音效效果。

三维人脸识别系统的设计思路

三维人脸识别系统的设计思路

三维人脸识别系统的设计思路发布: 2008-2-03 16:29 | 作者: 李华明 | 来源: CSAI | 查看: 376次 | 进入软件测试论坛讨论一、序言基于生物特征的身份认证技术近年来发展迅速,这其中,利用人脸特征进行身份验证又是最自然直接的手段,相比其它人体生物特征它具有直接、友好、方便的特点,易于为用户所接受。

因此计算机人脸识别技术是生物特征最为活跃最有挑战性的领域之一。

它结合了认知科学、图象处理、计算机图形学、机器视觉和模式识别等多个研究领域,研究的成果有着广阔的应用前景。

计算机人脸识别由于有着广泛的应用前景而成为计算机模式识别领域的一个十分活跃的研究课题。

计算机人脸识别技术也就是利用计算机分析人脸图像,进而从中提取出有效的识别信息,用来"辨?quot;身份的一门技术。

人脸识别技术应用背景广泛,例如:可用于公安系统的罪犯身份识别、驾驶执照及护照等与实际持证人的核对、银行及海关的监控系统及自动门卫系统等。

特别是在非接触环境和不惊动被检测人的情况下,人脸识别技术的优越性远远超过已有的虹膜、指纹等检测方法。

在众多科研人员的不懈努力下,迄今为止在计算机人脸识别方面已经取得许多科研成果,产生了一系列的方法与理论,但均存在着这样或那样的限制,如识别率易受姿态、表情、光照等因素的影响。

它的困难体现在:(1)人脸塑性变形(如表情等)的不确定性;(2)人脸模式的多样性(如胡须、发型、眼镜、化妆等);(3)图像获取过程中的不确定性(如光照的强度、光源方向等)。

识别人脸主要依据人脸上的特征,也就是说依据那些在不同个体之间存在较大差异而对于同一个人则比较稳定的度量。

由于人脸变化复杂,因此特征表述和特征提取十分困难。

这诸多因素使得人脸识别成为一项极富挑战性的课题。

通常的面貌识别系统多是针对二维照片或动态视频序列进行研究,以图象处理技术为基础,但是,基于二维照片进行识别存在严重的障碍,无法解决上述的问题对识别的影响。

耳道全自动三维重建技术研究

耳道全自动三维重建技术研究

3.4 求取等值面
求取等值面是整个泊松重建的最后一步,目的是重建模 型表面,为了获取点云的待建曲面,先选定一个针对求取等 值面的最优阈值,完成三角面片拼接,重建表面模型 [2]。
扫描前,可以选择左耳扫描、右耳扫描和双耳扫描 3 种 扫描方式,扫描仪在运动过程中计算晃动量,实时显示相机 的分辨率信息。进入数据处理阶段后,会融合计算各方向的 数据,得到耳朵数据处理软件需要的二进制文件。对耳朵数 据进行提取、去噪和简化等预处理,得到三维模型 [2],如图 5 所示。
1.1 总体方案
1.2.1 六自由度机械臂
针对人耳的三维模型重建问题,本文提出软硬件结合的
本研究使用的机械臂是国产六自由度机械臂安诺 5
不规则形体全自动三维扫描重建方案。本文设计了一套硬件 (AR5)。机械臂由机器人本算机、机械臂、扫描仪、控 成,如图 2 所示。调整控制机械臂姿态,一方面利用控制箱
设最大迭代次数为 kmax,单次迭代的均方误差阈值为 ξ, 2 次迭代的均方误差之间的差值上限为 ε。此时相似度最高, 与耳朵建模效果最佳。
3 耳朵三维建模
在不同方向上得到耳道数据后,融合数据,就可以得到 包括耳道信息的三维数据,进行数据建模。本文采用目前点 云重建效果比较好的泊松曲面重建算法,流程如图 4 所示。
4 模型匹配与建模
模型匹配分为粗匹配和精匹配。通过计算特征点构成 的特征矩阵间的汉明距离,粗匹配得到一系列粗筛的耳朵模 型,但是具体应当选择哪一个作为最终扫描人耳的耳道数据
- 13 -
中国新技术新产品 2024 NO.3(下)
高新技术
图 5 耳朵三维模型
补充是未定的。精匹配是在粗匹配划定的粗筛模型中进行 ICP 配准,得到相似度最高的 10 个耳朵模型,用相似度最 高的耳朵模型来拟合扫描点云的耳道数据,如图 6 所示。

3d环绕实现的原理

3d环绕实现的原理

3d环绕实现的原理
3D环绕是一种通过音频技术实现的沉浸式音效效果,使听者仿佛置身于现场的环境中。

其原理涉及声源定位、多声道音频处理和耳返效应等多个方面。

首先,声源定位是实现3D环绕的关键。

人耳通过左右听觉器官接收到的声音差异来判断声源的方位。

在3D环绕系统中,通过在各个扬声器中放置不同位置的声源,使得声音通过扬声器产生的时间差和相位差模拟出真实的声音定位效果。

其次,多声道音频处理是3D环绕的重要技术手段。

通过在不同的扬声器中播放不同的音频信号,实现对声音的方向、宽度和深度等方面的精确控制。

这些处理技术包括声音延迟、相位差处理、频率调节等,通过对原始音频进行处理,使得听者可以感受到来自各个方向的声音,从而增强真实感和沉浸感。

此外,耳返效应也是3D环绕实现的重要原理之一。

耳返是指声音从外耳道反射到耳腔中的现象,在真实环境中听者可以通过耳返判断声源的远近和位置。

3D环绕系统通过模拟这种耳返效应,使得听者在听取音频时能够感受到立体的声音效果。

综上所述,3D环绕实现的原理是通过声源定位、多声道音频处理和耳返效应等技术手段来实现的。

通过合理安置扬声器和准确处理音频信号,可以使听者在听取音频时获得更加真实和沉浸的环绕音效。

这对于电影院、家庭影音系统和游戏等领域的音频体验都具有重要的指导意义。

3D人脸识别技术相关识别技术原理

3D人脸识别技术相关识别技术原理

3D人脸识别技术相关识别技术原理对于刷脸消费、刷脸解锁这些“黑科技”,人们其实一点都不陌生,但如果要深入其中,普通人也只能说出一个关键词:人脸识别。

而人脸识别技术实际上可以区分为2D和3D两种。

1、2D人脸识别:2D人脸识别是目前最为常见的人脸识别技术之一,其工作原理是后期人脸识别系统对图片中的人脸进识别,通过设定数百或数千个点,并记录点与点之间的函数,该函数即为此人的面部信息。

2、3D人脸识别:3D人脸识别是采用3D结构光技术,通过3D结构光内的数万个光线点对人脸进行扫描后,从而提供更为精确的面部信息,而这类面部信息并不会受到口红、粉底等化妆品的影响。

与2D人脸识别相比,3D人脸识别将提供更为精确的面部数据,最终让数据更加安全可靠。

“普通视觉传感设备让万物看到世界,而3D传感技术则让万物能像人一样‘看清’世界。

”3D传感技术原理要谈3D传感技术,就必须先弄清楚光学测量分类以及其原理。

光学测量分为主动测距法和被动测距法。

主动测距方法的基本思想是利用特定的、人为控制光源和声源对物体目标进行照射,根据物体表面的反射特性及光学、声学特性来获取目标的三维信息。

其特点是具有较高的测距精度、抗干扰能力和实时性,具有代表性的主动测距方法有结构光法、飞行时间法、和三角测距法。

主动测距法结构光法根据投影光束形态的不同,结构光法又可分为光点式结构光法、光条式结构光法和光面式结构光法等。

目前应用中较广,且在深度测量中具有明显优势的方法是面结构光测量法。

面结构光测量将各种模式的面结构投影到被测物体上,例如将分布较密集的均匀光栅投影到被测物体上面,由于被测物体表面凹凸不平,具有不同的深度,所以表面反射回来的光栅条纹会随着表面不同的深度发生畸变,这个过程可以看作是由物体表面的深度信息对光栅的条纹进行调制。

所以被测物体的表面信息也就被调制在反射回来的光栅之中。

通过被测物体反射回来的光栅与参考光栅之间的几何关系,分析得到每一个被测点之间的高度差和深度信息。

基于关键点和局部特征的三维人耳识别方法[发明专利]

基于关键点和局部特征的三维人耳识别方法[发明专利]

专利名称:基于关键点和局部特征的三维人耳识别方法专利类型:发明专利
发明人:盖绍彦,钱昱来,郑东亮,达飞鹏
申请号:CN201910529551.X
申请日:20190619
公开号:CN110298275B
公开日:
20220222
专利内容由知识产权出版社提供
摘要:本发明公开了基于关键点和局部特征的三维人耳识别方法,步骤为:(1)对带有背景信息的二维侧脸图像进行目标检测,获取方形人耳区域并提取对应区域的三维点云;(2)在三维人耳点云中根据内部形状签名特征进行关键点检测;(3)将提取出的关键点和标准姿态下的人耳关键点进行迭代最近点配准,用长方体模板切割来去除皮肤,头发等冗余区域;(4)提取关键点周围邻域点集,计算协方差矩阵的特征向量作为局部特征;(5)去除误匹配点对,最后用匹配成功的关键点数目来衡量两个人耳的相似度。

本发明能够有效地剔除人耳周围皮肤、头发等冗余区域,且关键点和局部特征能较为全面地描述三维人耳的结构特征,具有较强的识别性能。

申请人:东南大学
地址:210096 江苏省南京市玄武区四牌楼2号
国籍:CN
代理机构:南京众联专利代理有限公司
代理人:叶倩
更多信息请下载全文后查看。

3D面部辨识技术重塑个人身份验证

3D面部辨识技术重塑个人身份验证

3D面部辨识技术重塑个人身份验证随着科技的飞速进步,身份验证领域正在经历一场深刻的变革,而3D面部辨识技术正是这场变革的前沿代表。

这项技术以其高度的精确性、便捷性和安全性,正逐步重塑个人身份验证的未来。

以下是关于3D面部辨识技术如何改变个人身份验证方式的六个关键点。

一、技术原理与精准度提升3D面部识别技术基于深度感知技术,通过捕捉个体面部的三维几何信息,如脸部轮廓、鼻梁高度、眼窝深度等,来创建一个独特的生物特征模型。

与传统的2D图像相比,3D数据更能抵抗光照、角度、表情变化等外界因素的干扰,显著提高了识别的准确性和鲁棒性。

这种高精度不仅能够有效防止照片、视频等平面伪造手段的欺骗,还能在复杂环境下保持稳定的表现,为个人身份验证提供了更为可靠的基础。

二、无缝整合与用户体验优化在移动支付、解锁设备、机场安检等众多应用场景中,3D 面部识别技术以其无缝的集成能力和快捷的操作流程,极大改善了用户体验。

用户无需接触设备,只需简单地看向摄像头,即可完成身份验证,既卫生又高效。

这种无感式的交互模式,减少了人为操作的复杂性,提高了验证效率,使得身份验证过程更加自然流畅,符合现代人追求的便利性需求。

三、安全性的强化与隐私保护安全是身份验证的核心,3D面部识别技术通过复杂的算法处理和加密技术,确保了生物信息的安全存储和传输。

它能够实时比对活体面部特征,有效抵御面具、3D打印模型等高级别伪造攻击,为个人信息安全筑起一道坚固的防线。

同时,遵循严格的隐私保护原则,确保用户数据在采集、处理、存储各环节的透明度和合规性,增强了公众对技术的信任度。

四、跨行业应用的广泛性3D面部识别技术的应用范围远远超出了消费电子领域,它正逐步渗透到金融、医疗、安防、零售等多个行业。

在金融领域,银行利用该技术加强账户安全;医疗行业则利用其进行患者身份确认,确保治疗的准确性;安防监控利用3D面部识别进行快速高效的人员筛选与追踪,提升公共安全水平。

这种跨行业的应用展示了技术的广泛适用性和强大的社会价值。

3D人耳点云配准的并行Softassign算法

3D人耳点云配准的并行Softassign算法
2 0 1 3年 1 O月
计 算 机 工程 与 设 计
C OM PUTER ENGI NEERI NG AND DES I GN
第3 4卷

第1 o 期
0c t . 2 0 1 3 Vo 1 . 3 4 No . 1 0
3 D人耳点云配准 的并行 S o f t a s s i g n算法
( De P a r t me n t o f Co mp u t e r a n d I n f o r ma t i o n Te c h n o l o g y ,Li a o n i n g No m a r l Un i v e r s i t y,Da l i a n 1 1 6 0 8 1 ,C h i n a ) Ab s t r a c t : A n e w p a r a l l e l S o f t a s s i g n r e g i s t r a t i o n a l g o r i t h m i s p u t f o r wa r d f o r h u ma n e a r p o i n t c l o u d s .On t h e b a s i s o f u s i n g CU—
用 三 维 点 云 离散 曲 率 估计 和 三 维 空 间 k d - t r e e 相 结合 的 方 法 ,对 三 维 人 耳 点 云 进 行 点 云 简化 ,使 简 化后 人 耳 点 云 能 够 保 留 足
够 的几何特征 ,然后 对简4  ̄ Y , - 耳点云进 行 S o f t a s s i g n配准,提 高 S o f t a s s i g n算法在人耳点云配准 中的配准精度 ,从而避免 了
k &t r e e a n d d i s c r e t e c u r v a t u r e e s t i ma t i o n t o k e e p c o mp e t e n t g e o me t r i c a l f e a t u r e ;t h e s e s i mp l i f i e d p o i n t c l o u d s a r e r e g i s t e r e d b y u s i n g S o f t a s s i g n a l g o r i t h m. Th e a l g o r i t m h c a n a v o i d p a r t i a l li a g n me n t a n d t h e r e g i s t r a t i o n p r e c i s i o n nd a e f f i c i e n c y o f t h e lg a o it r h m a r e v e i r f i e d i n t h e a p p l i c a t i o n s . Ke y wo r d s :p o i n t c l o u d s r e g i s t r a t i o n p o i n t c l o u d s i mp l i f y ;GP U ;CUDA ;h u ma n e a r
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

An Automatic3D Ear Recognition System Ping Yan Kevin.W.Bowyer Department of Computer Science and EngineeringUniversity of Notre DameNotre Dame,IN46556pyan,kwb at AbstractPrevious works have shown that the ear is a good can-didate for a human biometric.However,in prior work,the pre-processing of ear images has been a manual process. Also,prior algorithms were sensitive to noise in the data, especially that caused by hair and earrings.We present a novel solution to the automated cropping of the ear and implement it in an end-to-end solution for biometric recog-nition.We demonstrate our automatic recognition process with the largest study to date in ear biometrics,415sub-jects,achieving a rank one recognition rate of97.6%.This work represents a breakthrough in ear biometrics and paves the way for commercial quality,fully automatic systems.1IntroductionIn this study,we consider the use of3D ear shape for human identification.The segmentation of the ear region out of the image is fully automated,and the segmentation is able to deal with the presence of earrings ans small amount of hair occlusion.The data set used contains415persons, each with images acquired on two different dates.Subjects with earrings are not excluded from the dataset,and totally there are35subjects wearing earrings.This paper presents the most extensive experimental investigation of ear biomet-rics to date,and thefirst fully automatic3D ear recognition system in the literature.Moreno et al.[1]experiment with three neural net ap-proaches to recognition from2D intensity images of the ear. Their testing uses a gallery of28persons plus another20 persons not in the gallery.Theyfind a recognition rate of 93%for the best of the three approaches.Yuizono[2]im-plemented a recognition system for2D intensity images of the ear using genetic search.In the experiment they had 660images from110persons,with6images per person. Our current work uses more total images,830,and a much larger number of person,415.They reported that the recog-nition rate was approximately100%.Bhanu and Chen presented a3D ear recognition method using a local surface shape descriptor[3].Twenty range images from10individuals(2images each)are used in the experiments and a100%recognition rate is achieved.In[4], Chen and Bhanu use two-step ICP on a dataset of30sub-jects with3D ear images.They reported that this method yielded2incorrect matches out of30persons.In these two works,ears are manually extracted from profile images. They also presented an ear detection method in[5].In the offline step,they build an ear model template from20sub-jects using the averaged histogram of shape index.In the online step,first they use a step edge detection and thresh-olding tofind the sharp edge around ear boundary,and then apply dilation on the edge image and connected-component labeling to search for ear region candidates.Each potential ear region is a rectangular box,and it grows in four direc-tions tofind the minimum distance to the model template. The region with minimum distance to the model template is the ear region.They get91.5%correct detection with2.52% false alarm rate.No ear recognition is performed based on this ear detection method.Hurley et al.[6]developed a novel feature extraction technique by using forcefield transformation.Each image is represented by a compact characteristic vector,which is invariant to initialization,scale,rotation and noise.The ex-periment displays the robustness of the technique to extract the2D ear.Their extended research applies the forcefield technique on ear biometrics[7].In the experiments,they use252images from63subjects,with4images per person, and no subject is included if the ear is covered by hair.A classification rate of99.2%is claimed on their dataset.The presence or absence of earrings is not explicitly mentioned in the works reviewed above.Yan and Bowyer [8,9]use a template to mask out the surrounding region. However this method is fraught with difficulty,as ear size and shape are not constant,and the method cannot account for hair or earrings.Our framework includes two major parts:automatic ear extraction and ICP-based3D ear shape recognition.Start-ing with2D and3D images,the system can automatically find the ear pit from the profile images by using skin de-tection,curvature estimation and surface segmentation and classification.After the ear pit is correctly detected,an ac-tive contour algorithm using both color and depth informa-tion is applied to expand the contour to the ear edge.Our work has found that the snake algorithm is well suited for use in cropping out the ear from profile images. The ear pit makes an ideal starting point for the snake al-gorithm.The snake algorithm grows until itfinds the ear edge,and is remarkably robust in its ability to exclude ear-rings and occluding hair.When the snake algorithmfinishes,the outlined shape is cropped from the3D image,and the corresponding3D data is then used as the ear image for matching.The matching algorithm achieves a rank-one recognition rate of97.6%. Also,our approach shows a good scalability with size of dataset(see Figure8).2Automatic Ear ExtractionAutomatic ear extraction is necessary for practical ear biometrics systems.In order to locate the ear from the pro-file image,we need to exploit feature information about the face.This relies on a robust feature extraction algorithm which is able to handle variation in ear location in the profile images.After wefind the location of the ear,segmenting the ear from the surrounding is also important.A refinement of the active contour(“snakes”)approach is used to segment the ear region from surrounding hair and earrings.Initial empirical studies demonstrated that the ear pit is a good and stable candidate for this purpose.When there is so much of the ear covered by hair that the pit is not visible,the seg-mentation will not be able to be initialized.But in this case, there is likely not enough ear shape visible for matching, anyway.2.1Ear Pit detectionEar pit detection includes four steps:preprocessing,skin detection,curvature estimation,and surface segmentation and classification.We describe each step in following sec-tions.2.1.1PreprocessingIn this step,we use the binary image of valid depth val-ues tofind an approximate position of the nose tip.Given the depth values of a profile image,the face contour can be easily detected.An example of the depth image is shown in Figure1(a).A valid point has valid(x,y,z)value,and shows as white in Figure1(b).Then wefind the X value along each row at which we first encounter a white pixel in the binary image1(b).Using the median of the starting X values for each row,wefind the approximate X value of the face contour.Within a100 pixel range of X median,the median value of the Y values for each row is an approximate Y position of the nose tip. Within a120pixel range of the Y median,the valid point with minimum x value is the nose tip.The method avoids the possibility of locating hair or chin as the nose ing the point P(X NoseT ip,Y NoseT ip)as the center of a circle,we generate a sector spanning+/-30degree from the horizontal with a radius of20cm.Figure1(b)presents the steps tofind the nose ing the real distance for the radius helps to eliminate the effect of scale in the2D image.One example is presented in Figure1.With a high degree of confidence, the ear is included within the sector,along with some hair and shoulder.In all of the830images,none of the ears are outside the region that we look at,and the+/-30degrees should cover people looking up or down by that much.2.1.2Skin Region DetectionNext,a skin detection method is used to locate the skin re-gion.This step intends to get rid of some hair and clothes. Using the2D color image,each pixel is transformed into the YCbCr color space[10].Together with the preprocess-ing step,the skin region detection step drops out irrelevant regions,such as the shoulder or hair area,helping to reduce the computation time in later steps.2.1.3Surface Segmentation and ClassificationThis section describes a method that can correctly detect the ear pit from the area obtained by previous steps.A priori we know that the ear pit shows up in the3D image as a pit in the curvature classification system[11,12].In practice,the curvature estimation is sensitive to noise. For stable curvature measurement,we would like to smooth the surface without losing the ear pit feature.Our goal is tofind the ear pit,and it is acceptable for this step to lose some other detailed curvature information.In the imple-mentation,a Gaussian smoothing is applied on the data with a11×11window size.In addition,the spikes are dropped when an angle between the optical axis and a surface normal of observed points is greater than a threshold.(Here we set threshold as90degrees.)Then for the(x,y,z)points within a 21×21window around a given point P,we establish a lo-cal X,Y,Z coordinate system defined by PCA for that point P[12].Using this local coordinate system,a quadratic sur-face isfit to the points in the window.Once the coefficients of the quadratic form are obtained,their derivatives are used to estimate the Gaussian curvature and mean curvature.(a)DepthImage(b)Nose TipLocation(c)Circle Sector ing Nose Tip as Center to Generate aSector.(a)OriginalImages(b)SkinDetection(c)CurvatureCal.(d)2D view of2(c)(e)Ear Pit V oteResults(f)Ear PitFigure2.Starting from2D/3D raw data:skindetection,curvature estimation,surface seg-mentation,region classification,ear pit de-tection.2.1.4Surface Curvature EstimationThe Gaussian(K)and mean curvature(H)from the esti-mation step are at a point level.We group3D points intoregions with the same curvature label.After segmentation,we expect there is a pit region(K>0&H>0)in the segmented image that corresponds tothe actual ear pit.Due to numerical error and the sensitivityof curvature estimation,thresholds for Gaussian and meancurvature are required.Empirical evaluation showed thatT K=0.0009and T H=0.00005provides good results.Figures2(c)and2(d)show an example of the face profilewith curvature estimation and surface segmentation.Also,wefind that the jawline close to the ear always appears as awide valley(K≤0&H>0),and is located to the left ofthe ear pit region.It is possible that there are multiple pit regions int the im-age,especially in the hair area.A systematic voting methodis developed to correctlyfind the ear pit.Three categoriescontribute to thefinal decision:the size of the pit region,the size of the wide valley region around the pit and howclose it is to the wide valley.Each category is given a scorein the range of0to10,and the score is simply calculatedas the ratio of max area or distance at a scale of10.The pitwith the highest score is assumed to be the ear pit.The earpit is correctly found in Figure2(f).The experiment showsgood results using only simple score calculation.Thereforeit demonstrates the advantage of the technique at this scale.After the ear pit is correctly located,the next step is to seg-ment out the unoccluded portion of the ear from the image.2.2Active Contour AlgorithmActive contours,also called snakes,are an edge-basedsegmentation approach.Edges are usually defined as largemagnitude changes in image gradient,which also indicateslocations of intensity discontinuities.These intensity dis-continuities are assumed to be in the same location as thegeometric discontinuities.Even if the edges are correctlyfound by varying edge detection approaches,it is not clear how these edges can be connected to indicate a region of an object in the image.The classical snake function pro-posed by Kass,Witkin and Terzopoulos [13]is intended to solve this question.The contour X(s)starts from an ex-plicit parametric closed curve within an image domain,and then grows under the force of both internal and external con-straints,and pulls the curve toward local features (Equation1)(a)OriginalImage (b)Energy Map of3(a)(c)Energy Map of Ear(d)Snake GrowingFigure 3.Snake Growing on Ear Image.E =1E int (X (s ))+E ext (X (s ))ds (1)E int=1Distance (s i −1,s i +1),s iis the point i on curves .Figure 3shows how the snake algorithm grows toward the image edge step by step.2.3Ear ExtractionSeveral factors contribute to the complexity of segment-ing the ear out of the image.First,ear size and shape vary widely for different persons.Second,the ear is always close to the hair,potentially obscuring the ear in an image.Third,if earrings are present,they overlap or touch the ear and should not be treated as part of the ear.These characteris-tics make it hard to use a fixed template to crop the ear.A bigger template will include too much hair,while a smaller template will lose shape features.Also it is hard to distin-guish the ear from hair or earrings,especially when hair and earrings have similar color to skin or are very close to the ear.Starting with the ear pit determined in the previous step,we apply the active contour algorithm on both the 2D and 3D images.The initial contour is an ellipse with ear pit as center,major axis as 20pixels and minor axis as 30pixels.For the 2D color images,three color spaces,RGB,HSV and YCbCr were considered.It turns out that the YCbCr’s Cr channel yields the best segmentation results.For the 3D im-ages,we only use Z depth images.Figure 4shows results when only color or depth information is used for the active contour algorithm.In the top two images,ear contours are correctly found.The active contour algorithm works well when there is color change (Figure 4(a))or depth change (Figure 4(b))around the ear contour in the image.But when there is no clear color or depth change,it is hard for the al-gorithm to stop expanding,as shown in Figures 4(c)and(a)Using Color(Correct)(b)Using Depth(Correct)(c)Using Color(Wrong)(d)Using Depth(Wrong)Figure4.Active Contour Results using Only Color or Depth. 4(d).Figure4implies that either color information or depth in-formation alone is not adequate for contour growing.There-fore,we must combine both color and depth data.In orderto combine them,the gradients of the depth images and theCr channel from YCbCr together form E image.Thefinalenergy E is represented by Equation(7).E Image=w depth∇Image depth(x,y)+w Cr∇Image Cr(x,y)(6)E=11(a)Earring&BlondeHair(b)Earring(c)Earring&BlondeHair(d)Earring&Blonde HairFigure6.Active Contour Algorithm Dealing with Earring and Blonde Hair.of the face facing the camera.If the subject is still during acqui-sition,the3D and2D scans are registered as obtained.In somecases with slight subject motion in between the3D and2D scans,the registration could be manually corrected by marking the samepoint in each scan and translating the2D in X and Y.In cases oflarge subject motion,or motion during the several seconds of the3D scanning time,the data had to be discarded.A total of415people had good quality2D and3D ear images in two or moresessions.The earliest good image for each of415persons was enrolled inthe gallery.The gallery is the set of images that a“probe”image ismatched against for identification.The latest good image of eachperson was used as the probe for that person.This results in anaverage of8.7weeks time lapse between the gallery and probe.In order to validate our automatic ear extraction system,we compare the results(X Auto P it,Y Auto P it)with the manually marked ear pit(X Manual P it,Y Manual P it).The maximum distance differ-ence between(X Auto P it,Y Auto P it)and(X Manual P it,Y Manual P it)is20pixels.Thereare slightly different results from the active contour algorithmwhen using automatic ear pitfinding and manual ear pit marking.But as far as we can tell,the differences do not cause problems forthe active contour algorithm,which means as long as the startingpoint is near the ear pit,the snake canfind the ear boundary.The ICP-based approach shows good performance on3D earrecognition.The rank-one recognition rate achieves97.6%withour415-subject dataset.380were not wearing earrings in eitherimage and35were wearing earrings in one or both images.TheCumulative Match Characteristic(CMC)curve is shown in Figure7(a)and Receiver Operating Characteristic(ROC)curve in Figure7(b).The equal error rate(ERR)is0.012,which indicates a highaccuracy of the biometric system.Also,the rank-one recognitionis94.2%(33out of35)for the35cases that involve earrings.Thusthe presence of earrings in the image causes only minimal loss inaccuracy.The recognition system runs on a dual-processor Pentium Xeon2.8GHz machines with2GB RAM,and the implementation iswritten in C++.It takes approximately5-8minutes to match oneprobe ear against415gallery images when there is no subsamplefor gallery images,and2x2subsample for probe images.4.1Scaling with Dataset SizeScaling of performance with dataset size is a critical issue inbiometrics.The decrease in observed recognition performancewith increased dataset size was observed in FRVT2002for2Dface recognition.“For every doubling of database size,perfor-mance decreases by two to three overall percentage points.Inmathematical terms,identification performance decreases linearlywith respect to the logarithm of the database size.”[19]When the gallery size becomes bigger,the possibility of a falsematch increases.Some techniques scale better to larger datasetsthan others.Figure8shows the scalability of our ear recognitionICP−Based Performance on 415 SubjectsRankRecognitionRate(a)CMC CurveFigure7.The Performance of Ear Recognition(a)Iteration=0(b)Iteration=5(c)Iteration=25(d)Iteration=45(e)Iteration=75(f)Iteration=150Figure5.Snake Growing on A Real Image.algorithm.For a given data set size,the images are randomly se-lected from the415persons.Figure8.Scalability of ICP-Based Ear Recog-nition4.2Comparison with2D FaceTo relate the performance level achieved here to the commer-cial biometric state of the art,we experimented with FaceIT ver-sion6.1.We used frontal face images which were taken on thesame date for the same person as the ear images used in the ex-periments.Only411out of the original415subjects are used dueto data quality problems with some frontal face images.Noneof the4people who are not included in the face experiment hasear biometric recognition errors.The images are taken by CanonPower Shot G2and Nikon D70,under controlled studio lightingand with no lighting condition change between gallery and probe.Each image has resolution1704x2272.With normal expressionboth in gallery and probe,the rank one recognition rate is98.7%.Subjectively,our impression is that FaceIT version6has improvedon version5in a noticeable way.This also suggests that an ICP-based3D ear recognition algorithm provides competitive recogni-tion power to the commercial state of the art in face recognition.5Summary And DiscussionWe present experimental results of a fully automatic ear recog-nition system using2D and3D information.The automatic ear ex-traction algorithm can crop the ear region from the profile image and separate the ear from hair and earring.The ear recognition uses an ICP-based approach for3D shape matching.The rank-one recognition rate is97.6%for the415people,and94.2%on the subset of people wearing earrings.The experimental results demonstrate the power of our automatic ear extraction algorithm and of the ear as a potential biometric for human identification. However,the active contour algorithm may fail if there are no gra-dient changes in either color or depth image.An improvement might focus on using shape and texture constraints to help the seg-mentation.It might be possible to build in some preferred shape, like an ellipse,or to penalize small irregular parts to the outline.Interestingly,wefind that the ICP-based approach to3D ear recognition scales quite well with increasing size of dataset.This result is encouraging in that it suggests the uniqueness of the hu-man ear and its potential applicability as a biometric.However,the ICP-based approach is still computationally expensive in compar-ison to other approaches considered.This is a topic to be explored further in future work.AcknowledgementsBiometrics research at the University of Notre Dame is supported by the National Science Foundation under grant CNS-0130839,by the Central Intelligence Agency,and by the Department of Justice under grant2004-DD-BX-1224.The authors would like to thank Dr.Patrick Flynn and Dr.Jonathon Phillips for useful discussions about this area.References[1] B.Moreno,A.Sanchez,and J.Velez,“On the use of outerear images for personal identification in security applica-tions,”in IEEE International Carnaham Conference on Se-curity Technology,1999,pp.469–476.[2]T.Yuizono,Y.Wang,K.Satoh,and S.Nakayama,“Study onindividual recognition for ear images by using genetic local search,”in Proceedings of the2002Congress on Evolution-ary Computation,2002,pp.237–242.[3]Bir Bhanu and Hui Chen,“Human ear recognition in3D,”in Workshop on Multimodal User Authentication,2003,pp.91–98.[4]Hui Chen and Bir Bhanu,“Contour matching for3D earrecognition,”in Seventh IEEE Workshops on Application of Computer Vision,2005,pp.123–128.[5]Hui Chen and Bir Bhanu,“Human ear detection from sideface range images,”in International Conference on Pattern Recognition,2004,pp.574–577.[6] D.Hurley,M.Nixon,and J.Carter,“Forcefield energy func-tionals for image feature extraction,”Image and Vision Com-puting Journal,vol.20,pp.429–432,2002.[7] D.Hurley,M.Nixon,and J.Carter,“Forcefield energy func-tionals for ear biometrics,”Computer Vision and Image Un-derstanding,vol.98,no.3,pp.491–512,2005.[8]Ping Yan and Kevin W.Bowyer,“Empirical evaluation ofadvanced ear biometrics,”in IEEE Computer Society Work-shop on Empirical Evaluation Methods in Computer Vision, 2005.[9]Ping Yan and Kevin W.Bowyer,“Ear biometrics using2Dand3D images,”in2005IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR’05)-Workshops,2005,p.121.[10]Jin Chang,New multi-biometric approaches for improvedperson identification,Ph.D.thesis,Department of Computer Science and Engineering,University of Notre Dame,USA, 2004.[11]Paul J.Besl and Ramesh C.Jain,“Invariant surface charac-teristics for3D,object recognition in range images,”Com-puter Vision Graphics Image Processing,vol.33,pp.30–80, 1986.[12]P.Flynn and A.Jain,“Surface classification:Hypothesistesting and parameter estimation,”in Computer Vision Pat-tern Recognition,1988,pp.261–267.[13]Michael Kass,Andrew Witkin,and Demetri Terzopoulos,“Snakes:Active contour models,”International Journal of Computer Vision,vol.1,no.4,pp.321–331,1987.[14]Chenyang Xu and Jerry L.Prince,“Snakes,shapes,and gra-dient vectorflow,”IEEE Transactions on Image Processing, vol.7,no.3,pp.359–369,1998.[15]L.D.Cohen,“On active contour models and balloons,”Computer Vision,Graphics,and Image Processing.Image Understanding,vol.53,no.2,pp.211–218,1991.[16]P.Besl and N.McKay,“A method for registration of3-Dshapes,”IEEE Trans.Pattern Anal.Machine Intell.,vol.14, no.2,pp.239–256,1992.[17]Y.Chen and G.Medioni,“Object modelling by registrationof multiple range images,”IJIVC,vol.10,no.3,pp.145–155,1992.[18]Ping Yan and Kevin W.Bowyer,“ICP-based approaches for3D ear recognition,”in Biometric Technology for Human Identification II,Proceedings of SPIE,2005,vol.5779,pp.282–291.[19]P.J.Phillips,P.Grother,R.J Micheals, D.M.Blackburn,E Tabassi,and J.M.Bone,“Frvt2002:Overview and sum-mary,”2003.。

相关文档
最新文档