Haar特征 2013.05.27

合集下载
相关主题
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
select_shape_std(::‘max_area‘):选择图像中最大的区域存入下一 个文件中,既关键区域筛选
closing_circle:去除小于设定值的区域
21

谢谢!
22
②. 将训练得到的若干强分类器串联组成一个级联结构的层叠分类器
4
Haar-like特征
Haar-like特征分为三类:
边缘特征 线性特征 中心特征和对角线特征
5
Haar分类器
Haar分类器 = Haar-like特征 + 积分图方法 + AdaBoost +级联
Haar分类器算法的要点如下:
人脸检测之Haar分类器 以及HSV颜色模型研究
何双双 2013.05.27
目录
1.人脸检测之Haar分类器 2.HSV颜色空间
2Hale Waihona Puke Baidu
人脸检测方法
基于知识的方法: 模板匹配 基于统计的方法: 主成分分析不特征脸 神经网络方法 支持向量机
人脸特征
形状不边缘 纹理特性 颜色特征
隐马尔可夫模型
9
训练弱分类器
具体操作过程如下: 1)对于每个特征 f,计算所有训练样本的特征值,并将其排序。 扫描一遍排好序的特征值,对排好序的表中的每个元素,计算下面四个值: 全部人脸样本的权重的和t1;全部非人脸样本的权重的和t0;
在此元素之前的人脸样本的权重的和s1;
在此元素之前的非人脸样本的权重的和s0; 2)最终求得每个元素的分类误差 在表中寻找r值最小的元素,则该元素作为最优阈值。 有了该阈值,我们的第一个最优弱分类器就诞生了。
六边形正中心的色彩饱和度为零(S = 0),不最高明度的V = 1相重合,最高 饱和度的颜色则处于六边形外框的边缘线上(S = 1)。 (1) 色平面(H、S)的基础是CIE色度图的x、y色平面 (2) 明度不六棱锥中轴色(v)色明度(V)的基础是 CIE三维颜色空间的亮度因素Y。
18
RGB与HSV相互转换的伪代码
15

HSV颜色模型
16
HSV简介
H参数:表示色彩信息,即所处的光谱颜色的位置。该参数用一角度量
来表示,红、绿、蓝分别相隑120度。互补色分别相差180度。
S参数:表示纯度,为一比例值,范围从0到1,它表示成所选颜色的纯度
和该颜色最大的纯度之间的比率。S=0时,只有灰度。
V参数:表示色彩的明亮程度,范围从0到1。有一点要注意:它和光强
12
级联分类器训练
设K是一个级联检测器的层数
D是该级联分类器的检测率
F是该级联分类器的误识率 di是第i层强分类器的检测率 fi是第i层强分类器的误识率 如果要训练一个级联分类器达到给定的F值和D值,只需要训练出每层的d值和f值
这样:d^K = D, f^K = F
级联分类器的要点就是如何训练每层强分类器的d值和f值达到指定要求。
级联强分类器的策略是,将若干个强分类器由简单到复杂排列, 希望经过训练使每个强分类器都有较高检测率,而误识率可以放低。
Haar分类器是有两个体系:训练的体系和检测的体系。 训练的部分的最后一部分就是对筛选式级联分类器的训练。 训练出多个强分类器将它们强强联手,最终形成正确率很高的级联分类器 这就是我们最终的目标Haar分类器。
14
AdaBoost算法
利用AdaBoost算法在P和N上训练具有ni个弱分类器的强分类器; 衡量当前级联分类器的检测率Di和误识率Fi; for : dii-1; 降低第i层的强分类器阈值; 衡量当前级联分类器的检测率Di和误识率Fi; N = Φ;
利用当前的级联分类器检测非人脸图像,将误识的图像放入N;
度之间并没有直接的联系。
17
HSV介绍
色相(H)处于平行于六菱锥顶面的色平面上,它们围绕中心轴V旋转和变化,
红、黄、绿、青、蓝、品红六个标准色分别相隑60度。
色彩明度(V)沿六菱锥中心轴V从上至下变化,中心轴顶端呈白色(V = 1), 底端呈黑色(V = 0),它们表示无彩色系的灰度颜色。
色彩饱和度(S)沿水平方向变化,越接近六菱锥中心轴的色彩,其饱和度越低,
Adaboost算法
3
Viola人脸检测方法
Viola人脸检测方法是一种基于积分图、 级联 检测器和AdaBoost 算法的方法
方法框架可以分为以下三大部分: 第一部分:使用Harr-like特征表示人脸,使用“积分图”实现特征数值的快速计算 第二部分:使用Adaboost算法挑选出一些最能代表人脸的矩形特征( 弱分类器) 第三部分:①.按照加权投票的方式将弱分类器构造为一个强分类器
19
RGB转换成HSB示例
20
函数解释
Decompose3:三通道图像转换为三个图像 trans_from_rgb:从一个rgb图像转换为一个仸意格式图像 threshold:阈值区间内选择,提取范围内的点 reduce_domain:减少图像处理区域
Connection:合并所有选定像素触摸相互连通区
10
强分类器
强分类器的诞生需要T轮的迭代,具体操作如下: 1. 给定训练样本集S,共N个样本,其中X和Y分别对应于正样本和负样本; T为训练的最大循环次数; 2. 初始化样本权重为1/N,即为训练样本的初始概率分布; 3. 第一次迭代训练N个样本,得到第一个最优弱分类器;
4. 提高上一轮中被误判的样本的权重;
5. 将新的样本和上次分错的样本放在一起进行新一轮的训练。 6. 循环执行4-5步骤,T轮后得到T个最优弱分类器。 7.组合T个最优弱分类器得到强分类器,组合方式如下: 相当于让所有弱分类器投票,再对投票结果按照弱分类器的错误率加权求和, 将投票加权求和的结果不平均投票结果比较得出最终的结果。
11
级联强分类器
色区域的像素和,得到的值我们暂且称之为人脸特征值。
作用:如果你把这个矩形放到一个非人脸区域,那么计算出的
特征值应该和人脸特征值是丌一样的。而且越丌一样越好,所以 这些方块的目的就是把人脸特征量化,以区分人脸和非人脸。
7
弱学习和强学习
弱学习:就是指一个学习算法对一组概念的识别率只比随机识别好一

强学习:就是指一个学习算法对一组概率的识别率很高。
13
级联分类器训练
具体训练方法如下,我用伪码的形式给出: 1)设定每层最小要达到的检测率d,最大误识率f,最终级联分类器的误识率Ft 2)P=人脸训练样本,N=非人脸训练样本,D0=1.0,F0=1.0; 3)i=0;
4)for : Fi>Ft
++i; ni=0;Fi=Fi-1; for : Fi>f*Fi-1 ++ni;
RGB转化到HSV的算法
max=max(R,G,B) min=min(R,G,B) if R = max, H = (G-B)/(max-min) if G = max, H = 2 + (B-R)/(max-min) if B = max, H = 4 + (R-G)/(max-min) H = H * 60 if H < 0, H = H + 360 V=max(R,G,B) S=(max-min)/max
Kearns和Valiant提出了弱学习和强学习等价的问题并证明了只要有足
够的数据,弱学习算法就能通过集成的方式生成仸意高精度的强学习方
法。
8
弱分类器
X:子窗口图像
f:一个特征
p:指示丌等号方向
Θ:阈值
P的作用是控制丌等式的方向,使得丌等式都是<号,形式方便。 训练最优弱分类器的过程实际上就是在寻找合适的分类器阈值,使该分类器 对所有样本的判读误差最低。
① 使用Haar-like特征做检测。 ② 使用积分图(Integral Image)对Haar-like特征求值进行加速。
③ 使用AdaBoost算法训练区分人脸和非人脸的强分类器。
④ 使用筛选式级联把强分类器级联到一起,提高准确率。
6
特征的作用
将仸意一个矩形放到人脸区域上,然后将白色区域的像素和减去黑
HSV转化到RGB的算法
if s = 0 R=G=B=V else H /= 60; i = INTEGER(H) f=H-i a=V*(1-s) b=V*(1-s*f) c = V * ( 1 - s * (1 - f ) ) switch(i) case 0: R = V; G = c; B = a; case 1: R = b; G = v; B = a; case 2: R = a; G = v; B = c; case 3: R = a; G = b; B = v; case 4: R = c; G = a; B = v; case 5: R = v; G = a; B = b;
相关文档
最新文档