【CN110197125A】无约束条件下的人脸识别方法【专利】

合集下载

【CN110110650A】行人中的人脸识别方法【专利】

【CN110110650A】行人中的人脸识别方法【专利】

(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201910365672.5(22)申请日 2019.05.02(71)申请人 西安电子科技大学地址 710071 陕西省西安市太白南路2号(72)发明人 谢雪梅 汪芳羽 金楷 石光明 (74)专利代理机构 陕西电子工业专利中心61205代理人 王品华(51)Int.Cl.G06K 9/00(2006.01)G06N 3/04(2006.01)G06N 3/08(2006.01)(54)发明名称行人中的人脸识别方法(57)摘要本发明公开了一种行人中的人脸识别方法,主要解决现有技术里人脸跟踪丢造成误识的问题。

其实现方案是:1、制备网络训练数据集;2、用网络训练数据集对行人检测网络、人脸检测网络、人脸识别网络这三个网络分别进行训练;3、制备多角度人脸特征数据库;4、用训练好的行人检测网络检测图像行人区域并跟踪行人区域;5、用训练好的人脸检测网络在行人区域内检测人脸区域;6、用训练好的人脸识别网络对人脸区域进行特征提取;7、将提取的特征与人脸特征数据库进行特征匹配,取特征匹配最好的结果作为人脸识别结果。

本发明提高了人脸识别的准确率和稳定性,可用于多角度下的视频监控。

权利要求书4页 说明书7页 附图2页CN 110110650 A 2019.08.09C N 110110650A权 利 要 求 书1/4页CN 110110650 A1.一种行人中的人脸识别方法,其特征在于,包括如下:(1)制备行人检测,人脸检测,人脸识别网络的训练数据集;(2)采用随机梯度下降算法,用行人检测,人脸检测,人脸识别网络的训练数据集对现有的行人检测网络Yolov3,人脸检测网络MTCNN,人脸识别网络FaceNet分别进行训练,得到训练好的行人检测网络Yolov3,人脸检测网络MTCNN,人脸识别网络FaceNet;(3)制备多角度人脸特征数据库:(3a)采集一个未采集过的待识别人员正脸、左右侧脸、仰视和俯视共5张人脸图像,并纪录待识别人员的姓名;(3b)将每张图像输入到训练好的人脸检测网络MTCNN中,人脸检测网络MTCNN输出每张人脸图像对应的人脸区域;(3c)将每张图像对应的人脸区域输入到训练好的人脸识别网络FaceNet,输出每张人脸图像的512维人脸特征向量;(3d)将所采集的待识别人员的姓名和5张人脸图像的512维人脸特征向量映射成一个字典;(3e)判断是否采集完所有待识别人员的图像,若是,则用所有的映射字典组成人脸特征数据库;执行(4),否则,返回(3a);(4)检测并跟踪图像的行人区域:(4a)对摄像头的视频流进行一次实时采样,获得一张采集图像;(4b)判断当前行人区域集合是否为空,若是,将采集的图像输入到行人检测网络Yolov3中,执行(4c),否则,执行(4d);(4c)行人检测网络Yolov3判断输入的图像中是否含有至少一个行人区域,若是,行人检测网络Yolov3输出图像中所有的行人区域,并组成一个行人区域集合,执行(4d),否则,返回(4a);(4d)判断行人区域集合是否替代了10次:若是,执行(4e),否则,将行人区域集合输入到C++的机器学习算法工具包的deep-sort函数中,得到跟行人跟踪区域集合后,再用行人跟踪区域集合替代当前行人区域集合;(4e)利用交并比公式,依次将行人区域集合内的行人区域与上次采样图像的行人区域集合内的所有行人区域分别计算重叠度,若重叠度中的最大值大于0.1,则用这次采样图像的行人区域替换为最大值对应的上次采样图像的行人区域,执行(5),否则,保留这次采样图像的行人区域,执行(5);(5)将行人区域集合内的每一个行人区域分别输入到人脸检测网络MTCNN,人脸检测网络MTCNN分别输出对应的人脸区域,用所有的人脸区域组成当前人脸区域集合;(6)将当前人脸区域集合中的每一个人脸区域输入到人脸识别网络FaceNet,输出每一个人脸区域对应的512维特征向量,并计算每一个人脸区域的特征向量与人脸特征数据库的特征向量的相似度;(7)判断(6)是否进行了20次,若是,将所有的余弦相似度中最大值大于0.22的人脸区域判定无效识别,在人脸数据库中找到其余的余弦相似度最大值对应的特征向量,通过特征向量找到该人脸区域对应的人的信息,完成人脸识别,否则,返回(4)。

一种人脸识别方法[发明专利]

一种人脸识别方法[发明专利]

(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201710453347.5(22)申请日 2017.06.15(71)申请人 浙江捷尚视觉科技股份有限公司地址 311121 浙江省杭州市余杭区五常街道文一西路998号7幢东楼(72)发明人 尚凌辉 王弘玥 张兆生 林国锡 (74)专利代理机构 杭州奥创知识产权代理有限公司 33272代理人 王佳健(51)Int.Cl.G06K 9/00(2006.01)(54)发明名称一种人脸识别方法(57)摘要本发明公开了一种人脸识别方法。

本发明区别对待清晰人脸和低分辨人脸,对于低分辨人脸在识别过程中引入超分辨模块,并且采用端对端的训练方式使得深度学习网络同时具备清晰人脸和低分辨人脸的有效特征提取能力。

本发明可以有效提升低分辨人脸的识别效果,同时又不影响清晰人脸的识别性能。

权利要求书1页 说明书3页 附图1页CN 107330381 A 2017.11.07C N 107330381A1.一种人脸识别方法,包括以下步骤:步骤1、输入人脸图像;步骤2、根据人脸大小,将人脸分为清晰人脸和低分辨率人脸;步骤3、根据上述分类结果,利用预先训练好的深度学习网络计算人脸特征;步骤4、根据不同图像的人脸特征计算人脸之间的相似度;其特征在于:其中所述的预先训练好的深度学习网络其网络结构包含两个子网络,分别是超分辨网络和识别网络,其中超分辨网络的输出为识别网络的输入,在人脸识别特征计算过程中低分辨率人脸从超分辨网络输入,依次经过识别网络得到人脸识别特征,清晰人脸直接输入到识别网络计算人脸识别特征;以上所述的深度学习网络训练步骤如下:A、准备清晰的人脸训练数据,其中包含n个人,每个人至少两张以上的人脸照片;B、每张人脸图像按固定比例下采样得到低分辨率人脸,并和清晰人脸一一对应形成样本对;C、低分辨率人脸输入到超分辨网络,利用超分辨网络的loss和对应的清晰图像,训练超分辨网络;D、超分辨网络的输出作为识别网络的输入,同时利用识别网络的loss及人脸图像的身份类别信息训练识别网络;E、识别网络的梯度直接反传到超分辨网络;F、超分辨网络和识别网络同步训练直到所有的参数稳定。

一种遮挡情况下的人脸识别方法[发明专利]

一种遮挡情况下的人脸识别方法[发明专利]

(19)中华人民共和国国家知识产权局(12)发明专利申请(10)申请公布号 (43)申请公布日 (21)申请号 201810803139.8(22)申请日 2018.07.20(71)申请人 上海工程技术大学地址 201620 上海市松江区龙腾路333号(72)发明人 曹琨 吴飞 骆立志 毛万葵 章裕润 (74)专利代理机构 上海科盛知识产权代理有限公司 31225代理人 叶敏华(51)Int.Cl.G06K 9/00(2006.01)(54)发明名称一种遮挡情况下的人脸识别方法(57)摘要本发明涉及一种遮挡情况下的人脸识别方法,该方法将采集的人脸图像进行特征提取,并将提取出来的人脸特征输入人脸修补模型,对人脸遮挡部分进行修补,然后对修补后的人脸进行特征识别,最后对人脸识别结果进行展示。

与现有技术相比,本发明通过对遮挡位置进行重构,提高了遮挡人脸的识别率,且有效提高了在复杂环境中人脸识别的准确率,满足人脸识别的需求。

权利要求书1页 说明书3页 附图2页CN 109145745 A 2019.01.04C N 109145745A1.一种遮挡情况下的人脸识别方法,其特征在于,该方法包括以下步骤:1)采集识别区域的原始人脸图像,获取人脸训练样本集和人脸测试样本集;2)对人脸训练样本集和人脸测试样本集的图像进行预处理,提取人脸特征;3)将提取的人脸特征输入人脸修补模型进行图像修补,结合损失函数,获取修补后的人脸图像;4)对修补后的人脸图像进行特征提取,根据特征进行人脸图像匹配,获取人脸识别结果;5)显示人脸识别结果。

2.根据权利要求1所述的一种遮挡情况下的人脸识别方法,其特征在于,步骤2)中,所述的预处理包括去噪处理和归一化处理。

3.根据权利要求1所述的一种遮挡情况下的人脸识别方法,其特征在于,步骤2)中,采用卷积神经网络对人脸特征进行提取。

4.根据权利要求1所述的一种遮挡情况下的人脸识别方法,其特征在于,所述的人脸修补模型采用VGG -19网络体系结构,且在VGG -19网络体系结构的基础上叠加有两个卷积层、一个池化层和一个全连接层。

一种结合局部和全局特征的无约束人脸验证方法[发明专利]

一种结合局部和全局特征的无约束人脸验证方法[发明专利]

专利名称:一种结合局部和全局特征的无约束人脸验证方法专利类型:发明专利
发明人:胡彬,文万志,曲平,李牧,程显毅,杨赛,李跃华,陈晓勇申请号:CN201710090721.X
申请日:20170220
公开号:CN106874877A
公开日:
20170620
专利内容由知识产权出版社提供
摘要:本发明提供一种结合局部和全局特征的无约束人脸验证方法,首先整理人脸样本库,每个人包含不同姿态、不同环境和不同时间的多张人脸照,提取人脸的68个特征点;然后根据人脸特征点提取人脸的局部特征和整体特征共5种特征,并将这5种特征映射到核空间;然后在训练集上使用这5种特征分别使用级联贝叶斯方法训练得到5组模型;在人脸验证阶段,首先提取输入图像的人脸特征,然后根据训练的模型分别计算5组特征对的相似度,最后以5组相似度的平均值作为最终相似度,从而判断两人是否为同一个人。

本发明结合考虑了人脸的局部特征和整体特征,解决了室外无约束环境下的人脸验证问题。

申请人:南通大学,南通先进通信技术研究院有限公司
地址:226019 江苏省南通市崇川区啬园路9号
国籍:CN
代理机构:北京科亿知识产权代理事务所(普通合伙)
代理人:汤东凤
更多信息请下载全文后查看。

一种人脸识别方法[发明专利]

一种人脸识别方法[发明专利]

(10)申请公布号 (43)申请公布日 2014.12.10C N 104200194A (21)申请号 201410382255.9(22)申请日 2014.08.06G06K 9/00(2006.01)G06K 9/46(2006.01)G06K 9/62(2006.01)(71)申请人北京工业大学地址100124 北京市朝阳区平乐园100号(72)发明人孙艳丰 赵璐 胡永利(74)专利代理机构北京中北知识产权代理有限公司 11253代理人冯梦洪(54)发明名称一种人脸识别方法(57)摘要本发明公开了一种人脸识别方法,其能够大大提高识别率,对非高斯噪声具有鲁棒性。

这种人脸识别方法,包括步骤:(1)获得稀疏重构图像Y';(2)获取残差图像;(3)获取奇异点检测模板;(4)获取融合重构图像;(5)经过残差矩阵判断是否继续迭代;(6)重复步骤(1)至(5)k 次,利用k次迭代去噪后的图像,稀疏重构后分类。

(51)Int.Cl.权利要求书2页 说明书8页 附图2页(19)中华人民共和国国家知识产权局(12)发明专利申请权利要求书2页 说明书8页 附图2页(10)申请公布号CN 104200194 A1.一种人脸识别方法,其特征在于:包括以下步骤:(1)获得稀疏重构图像Y';(2)获取残差图像;(3)获取奇异点检测模板;(4)获取融合重构图像;(5)经过残差矩阵判断是否继续迭代,重复步骤(1)至(5)k次;(6)利用k次迭代去噪后的图像,获取稀疏系数,重构后分类。

2.根据权利要求1所述的人脸识别方法,其特征在于:步骤(1)包括以下分步骤:(1.1)输入测试图像Y,通过公式(5)求解稀疏表示系数:其中是稀疏系数向量,y是待识别图像,D是训练字典,e是图像中存在的噪声;(1.2)按照公式(20)建立稀疏表示模型,α表示稀疏系数,λ是一个常系数(1.3)用omp算法进行稀疏编码来获取稀疏表示系数α;(1.4)根据稀疏表示系数α得到重构图像Y',Y'=Dα。

一种人脸识别方法及装置[发明专利]

一种人脸识别方法及装置[发明专利]

专利名称:一种人脸识别方法及装置专利类型:发明专利
发明人:王一冕,张锐,徐峰
申请号:CN201911389052.1
申请日:20191230
公开号:CN111191584A
公开日:
20200522
专利内容由知识产权出版社提供
摘要:本发明公开了一种人脸识别方法及装置,该方法包括:建立海量人脸图片库,并对海量人脸图片库中包括的人脸图片进行筛选优化,人脸图片经过灰化处理且包括对应的身份信息;获取人脸图片的第一人脸特征向量,第一人脸特征向量与人脸图片的身份信息相关联;获取待识别图片的第二人脸特征向量;分布式计算第二人脸特征向量与各第一人脸特征向量之间的第一欧式距离;根据第一欧式距离识别与待识别图片相似度最高的人脸图片,并确定人脸图片的身份信息为待识别图片的身份信息。

本发明实现了基于海量人脸图片库的高速人脸比对功能,大大提高了针对于海量数据的人脸识别应用的时效性和准确性。

申请人:电信科学技术第十研究所有限公司
地址:710061 陕西省西安市雁塔西路6号
国籍:CN
代理机构:广州三环专利商标代理有限公司
代理人:郭永丽
更多信息请下载全文后查看。

一种人脸识别方法[发明专利]

一种人脸识别方法[发明专利]

专利名称:一种人脸识别方法专利类型:发明专利
发明人:张旭,吴琦,肖潇,龚纯斌申请号:CN201711242921.9申请日:20171130
公开号:CN108090420A
公开日:
20180529
专利内容由知识产权出版社提供
摘要:本发明公开一种人脸识别方法,包括如下步骤:步骤1,采集人脸特征模板数据,放入标准库中,并设置至少一个辅助库,在使用过程中对辅助库中的人脸特征模板数据进行添加、更新、替换或删除;步骤2,对待匹配的照片或人脸信息电子载体提取待匹配的人脸特征模板数据,并与标准库中的数据进行匹配,对匹配的人脸数据进行正常输出;若标准库匹配不到人脸数据,则继续将待匹配的人脸特征模板数据与辅助库中的数据进行匹配,若匹配到数据,则进行人脸数据的输出。

此种方法可解决人脸由于拍摄角度、年龄变化、遮盖物带来识别率过低或者识别出错的问题,提高人脸识别率。

申请人:睿视智觉(深圳)算法技术有限公司
地址:518000 广东省深圳市罗湖区桂园街道书城路1号都市名园第五层A区
国籍:CN
更多信息请下载全文后查看。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

(19)中华人民共和国国家知识产权局
(12)发明专利申请
(10)申请公布号 (43)申请公布日 (21)申请号 201910367012.0
(22)申请日 2019.05.05
(71)申请人 上海资汇信息科技有限公司
地址 200062 上海市普陀区中江路879弄3
号楼4090室
(72)发明人 沈晶 
(51)Int.Cl.
G06K 9/00(2006.01)
G06K 9/62(2006.01)
G06N 3/04(2006.01)
G06N 3/08(2006.01)
(54)发明名称无约束条件下的人脸识别方法(57)摘要本发明公开了无约束条件下的人脸识别方法,其方法包括以下步骤:A、抓拍无约束场景下的人脸图像;B、对所采集的人脸图像进行人脸检测以及关键点检测;C、利用胶囊网络提取人脸的特征。

本发明基于胶囊网络,通过所构建的多层胶囊网络,由低层次向高层次不断的进行特征提取,采用动态路由的算法用一组向量来表示物体一组特征,可以包括物体的方向、状态等,使得通过胶囊神经网络所提取的特征能更加准确地描述人脸特征,因而其抗干扰能力和识别率与算法相比,具有很大的提高,同时,采用HopeNet人脸姿态估计的算法以及无约束人脸识别技术,对于姿态鲁棒性好,适用于正脸、侧脸或其他复杂姿
态条件。

权利要求书1页 说明书3页CN 110197125 A 2019.09.03
C N 110197125
A
权 利 要 求 书1/1页CN 110197125 A
1.无约束条件下的人脸识别方法,其特征在于:其方法包括以下步骤:
A、抓拍无约束场景下的人脸图像;
B、对所采集的人脸图像进行人脸检测以及关键点检测;
C、利用胶囊网络提取人脸的特征;
D、使用HopeNet估计检测到的人脸的姿态,并对姿态估计结果进行分类;
E、利用DREAM特征映射模块对原人脸特征进行姿态映射,将非正面的人脸特征变换为正面的人脸特征,从而得到更加鲁棒的人脸特征。

2.根据权利要求1所述的无约束条件下的人脸识别方法,其特征在于:所述步骤A中使用RGB摄像头抓拍无约束场景下的人脸图像。

3.根据权利要求1所述的无约束条件下的人脸识别方法,其特征在于:所述步骤B中人脸检测方法采用MTCNN,对自然环境中光线、角度和人脸表情变化更具有鲁棒性,且内存消耗小,可实现实时人脸检测。

4.根据权利要求1所述的无约束条件下的人脸识别方法,其特征在于:所述步骤C中的胶囊网络(人脸特征提取模块),其胶囊网络的核心部分是Capsule,可以认为它是向量版的神经元,它与传统CNN中的“unit”神经元完全不同,具体来说,胶囊是一组神经元,它会学习检测给定区域(例如一个矩形)图像的特定目标,它输出一个向量,向量的长度代表目标存在的概率估计,而且它对姿态参数(例如精确的位置、旋转等)定向编码,如果对象有轻微的变化(例如移位、旋转、改变大小等),那么胶囊将输出相同长度但方向略有不同的向量,因此,胶囊是等变化的,同时,胶囊网络是由胶囊模块组成的,而不是神经元,其输入的是两个向量,它们先是分别与不同的权重W(同样是向量)相乘得出u_j|i hat,再将该预测向量与对应的耦合系数c_ji相乘得到s,最后传入特定到名为“squashing”的非线性函数,这样就得出Capsule输出的向量v_j,动态路由不同于CNN中的反向传播,它是利用输出向量v_j和对应预测向量u_j|i hat的乘积更新耦合系数c_ij。

5.根据权利要求1所述的无约束条件下的人脸识别方法,其特征在于:所述步骤D中的姿态估计方法采用HopeNet,其采用一种优雅和鲁棒的方式来训练300W-LP,大量合成扩展的数据集的多损失卷积神经网络来确定的姿势,可以直接从图像强度通过联合预测固有欧拉角(偏航、俯仰和横滚)分级构成分类和回归。

6.根据权利要求1所述的无约束条件下的人脸识别方法,其特征在于:所述步骤E中,DREAM特征映射模块拼接到主干的胶囊网络之中,无需更改胶囊网络的参数,且DREAM特征映射模块的输入有:人脸图像、主干胶囊输出的特征向量和yaw coefficient。

2。

相关文档
最新文档