模式识别特征选择与提取

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

模式识别特征选择与提取

中国矿业大学计算机科学与技术学院电子信息科学系

班级:信科11-1班,学号:08113545,姓名:褚钰博

联系方法(QQ或手机):390345438,e-mail:****************

日期:2014 年06月10日

摘要

实际问题中常常需要维数约简,如人脸识别、图像检索等。而特征选择和特征提取是两种最常用的维数约简方法。特征选择是从某些事物中提取出本质性的功能、应用、优势等,而特征提取是对特征空间进行变换,将原始特征空间映射到低维空间中。

本文是对主成分分析和线性判别分析。

关键词:特征选择,特征提取,主成分分析,线性判别分析

1.引言

模式识别的主要任务是利用从样本中提取的特征,并将样本划分为相应的模式类别,获得好的分类性能。而分类方法与分类器设计,都是在d(变量统一用斜体)维特征空间已经确定的前提下进行的。因此讨论的分类器设计问题是一个选择什么准则、使用什么方法,将已确定的d维特征空间划分成决策域的问题。对分类器设计方法的研究固然重要,但如何确定合适的特征空间是设计模式识别系统另一个十分重要,甚至更为关键的问题。如果所选用的特征空间能使同类物体分布具有紧致性,即各类样本能分布在该特征空间中彼此分割开的区域内,这就为分类器设计成功提供良好的基础。反之,如果不同类别的样本在该特征空间中混杂在一起,再好的设计方法也无法提高分类器的准确性。本文要讨论的问题就是特征空间如何设计的问题。

基于主成分分析的特征选择算法的思想是建立在这样的基础上的:主成分分析方法将原始特征通过线性变换映射到新的低维空间时,获得的主成分是去了新的物理意义,难以理解,并且主成分是所有原始特征的线性组合。所以将主成分分析与特征选择相结合,设计多种相似性度量准则,通过找到与主成分相关的关键特征或者删除冗余、不相关以及没有意义的特征,将主成分又重新映射到原始空间,来理解成主成分的实际意义。

基于线性判别分析的高维特征选择将单个特征的Fisher准则与其他特征选择算法相结合,分层消除不相关特征与冗余特征。不相关特征滤波器按照每个特征的Fisher评价值进行特征排序,来去除噪音和不相关特征。通过对高维数据特征关联性的分析,冗余特征滤波器选用冗余度量方法和基于相关性的快速过滤器算法。分别在不同情境下进行数据分类实验,验证其性能。

2.原理分析

对一原始特征来说,特征选择的方案很多,从N 维特征种选择出M 个特征共有

()!

!!

M N N C M N M =

-中选法,其中哪一种方案最佳,则需要有一个原则来进行指导。

我们进行特征选择和特征提取的最终目的还是要进行识别,因此应该是以对识别最有利原则,这样的原则我们称为是类别的可分性判据。用这样的可分性判据可以度量当前特征维数下类别样本的可分性。可分性越大,对识别越有利,可分性越小,对识别越不利。

人们对的特征的可分性判据研究很多下面几种常用的判据,我们需要根据实际问题,从中选择出一种。

一般来说,我们希望可分性判据满足以下几个条件:

1. 与识别的错误率由直接的联系,当判据取最大值时,识别的错误率最小;

2. 当特征独立时有可加性,即:

)

(),,,(1

21K N

K ij N ij x J x x x J ∑==

ij J 是第i 类和第j 类的可分性判据,ij J 越大,两类的可分程度越大,()12,,

,N x x x 为N 维

特征;

3. 应具有某种距离的特点:

0ij J >,当i j ≠时; 0ij J =,当i j =时;

ij ji J J =;

4. 单调性,加入新的特征后,判据不减小:

()()12121,,,,,,,ij N ij N N J x x x J x x x x +≤。

但是遗憾的是现在所经常使用的各种判据很难满足上述全部条件,只能满足一个或几个条件。 特征提取又称为特征变换,最常采用的特征变换是线性变换,即若D

R x ∈是D 维原始特征,变换后的d 维新特征d

R y ∈为x W y T

= , 其中,W 是d ⨯D 维矩阵,称作变换阵。特征提取就是根据训练样本求适当的W ,使得某种特征变换准则最优。

主成分分析方法的出发点是从一组特征中计算出一组按重要性从大到小排序的新特征,他们是原有特征的线性组合,并且相互之间是不相关的。

记p x x x ,,,21 为p 个原始特征,设新特征ξ,i=1, ,p 是这些原始特征的线性组合 x x T i j p

j ij i ααξ==∑=1

为了统一i ξ的尺度,要求线性组合的模为1,即

1=i T i αα,

写成矩阵形式是 x A T

=ξ,

其中,ξ是由新特征i ξ组成的向量,A 是特征变换矩阵。要求解的是最优的正交变换A ,它使新特征i ξ的方差达到极值。

3.理论证明或说明

特征选择的基本框图为:

一个典型的特征选择算法通常包括四个人基本步骤:

1.子集产生,这是一个搜索过程,通过一定的搜索策略产生候选的特征子集。

2.子集评价,每一个候选的特征子集都根据一定的评价准则得到,并与先前的最优特征子集进行比较。

3.终止条件,算法结束所需要满足的条件,它与子集的产生过程和评价准则的选用有关。

4.结果验证,就是根据一定的先验知识或通过合成现实数据集的测试来证明所选择的特征子集的性能。

基于特征提取主成分分析变换矩阵的一般过程:

训练数据全集

4.实现方法或步骤流程

特征选择顺序前进法

每次从未入选的特征中选择一个特征,使得它与已入选的特征组合到一起所得到的可分性判据最大,直到特征数增加到M 为止。用k X 表示在第k 步时的特征集合,搜索算法如下:

1) 开始时,0X =∅,从N 个特征中选择一个()i J x 最大的特征,加入已选特征集,{}1i X x =; 2) 在第k 步,k X 中包含已经选择的k 个特征,对未入选的N k -个特征计算,{}()k

j

J X x ,

其中1,2,

,j N k =-,并且按照由大到小排序,将可分性判据最大的特征l x 加入k X ,

{}1k k

l X X x +=;

3) 直到所选的特征数等于M 为止。

特征抽取的方法—基于离散K-L 变换(DKLT)的特征抽取: 设原始特征为N 为矢量()12,,

,T

N x x x =X ,均值矢量[]E =m X ,相关矩阵T E ⎡⎤=⎣⎦X R XX ,

相关文档
最新文档