线性判别函数

合集下载

线性判别函数-Fisher

线性判别函数-Fisher

Fisher线性判别
问题中的维数问题
降低维数
把d维空间中的样本 投影到一条直线上
Fisher线性判别
把同一组样本点向两个不同的方向作投影。 (右图更易分开)
始于R.A.Fisher(1936年)
Fisher法解决的基本问题:
如何根据实际情况找到一条最好的、最易于分类的投 影线。
d维到一维的数学变换
1
2
1
2
b
化简分母:
S~2 y m~ 2 wT x wT m 2
i
yYi
i
xX i
i
wT x m x m T w wT S w
xX i
i
i
i
S~2 S~2 wT S S w wT S w
1
2
1
2
w
w
b
w* S S 1 w* S m 1 m R
w
b
w
1
2
忽略比
w* R S 1 m m 例因子
w
1
2
w* S m 1 m
w
1
2
w*为准则函数的极大值解,即为X空间到Y空间的最佳投影方向。
根据变换公式:
y wT x , n 1,2,..., N
广义线性判别函数
在一维空间中,线性函数不能解决下述分类问题 (黑红各代表一类数据),可见线性判别函数有一 定的局限性。
为解决上述分类问题,我们建立一个二次 判别函数
g(x)=(x–a)(x–b)
=c0+c1x + c2x*x 决策规则仍是:如果g(x)>=0,则判定x属

模式识别第4章 线性判别函数

模式识别第4章 线性判别函数

w1。
44
4.3 判别函数值的鉴别意义、权空间及解空间 4.3.2 权空间、解矢量与解空间
(3) 解空间
w1
先看一个简
单的情况。设一
维数据1,2属于
w0
1, -1,-2属
于2 求将1和
2区分开的w0 ,
w1。
45
4.3 判别函数值的鉴别意义、权空间及解空间 4.3.2 权空间、解矢量与解空间
(3) 解空间
53
第四章 线性判别方法
4.1 用判别域界面方程分类的概念
有 4.2 线性判别函数 监 4.3 判别函数值的鉴别意义、权空间及解空间 督 4.4 Fisher线性判别 分 4.5 一次准则函数及梯度下降法 类 4.6 二次准则函数及其解法
4.7 广义线性判别函数
54
4.4 Fisher线性判别
这一工作是由R.A.Fisher在1936年的论文中 所提出的,因此称为Fisher线性判别方法。
0123456789
x1
d23(x)为正
d32(x)为正 d12(x)为正 d21(x)为正
i j两分法例题图示
24
25
3、第三种情况(续)
d1(xr) d2(xr)
1
2
d1(xr ) d3(xr )
3
d2 (xr ) d3(xr )
多类问题图例(第三种情况)
26
27
上述三种方法小结:
8
4.2 线性判别函数
9
10
11
d3(xr) 0
不确定区域
r
xr xrxr xr xr
x2
?
d1(x) 0
1
2
3
x1 d2(xr ) 0

广义线性判别函数

广义线性判别函数

4.6 广义线性判别函数前几节研究了线性判决函数的理论和分类方法,它们的优点是简单易行。

但是实际应用中却常常遇到非线性判决函数,如果能将非线性函数转化为线性判决函数,那么线性判决函数的理论和分类方法的应用将会更加广泛。

实际上,非线性判别函数是可以转变成线性函数的,也就是转成广义线性判决函数。

1.广义线性判别函数的概念如:有一个判决函数)(x g ,为非线性的,如下图所示:图中,a 、b 为两类的分界点。

可以用式子:))(()(b x a x x g --=描述。

并且,判决规则为: 若:a x <或b x >, 0)(>x g ,则1w x ∈。

b x a <<,0)(<x g ,则2w x ∈。

下面对)(x g 进行非线性变换:令21x y =,x y =2,则)(x g 作为判决函数可写成:()g x =()()x a x b --()2x x a b ab =-++32211)(w y w y w y g ++=其中:ab w b a w w =+-==321),(,1因此,通过非线性变换,非线性判决函数)(x g 转变成了线性判决函数)(y g 。

同时,特征空间也由一维的x 空间,映射成二维的y 空间。

也就是,在执行非线性变换的过程中,特征空间维数的增长往往不可避免。

在y 的特征空间里,区分直线为:0)(21=++-ab y b a y ,如下图:区分直线把y 空间线性地划分为两个类型区域1w 和2w ,判决规则为:若0)(>y g ,则1w y ∈,也就是1w x ∈0)(<y g ,则2w y ∈,也就是2w x ∈对样本x 的测量值:① 先进行非线性变换,x y x y ==221, ② 计算)(x g 之值,ab y b a y x g ++-=21)()( ③ 判决类别下面讨论非线性判决函数的一般形式: 把非线性判决函数写成一般形式,就是:12211)(....)()()(+++++=d d d w x f w x f w x f w x g其中,)(x f i (d i ,...,2,1=)是x 的单值实函数,且存在非线性关系,x 是k 维的。

线性判别函数

线性判别函数

一、线性判别函数
g(X)=0 就是相应的决策面方程,在线性判别函数条 件下它对应d维空间的一个超平面:
1x1 2 x2 … d xd 0 0
一、线性判别函数
3、多类问题判别
情况一
例:有一三类问题,分别建立了三个判决函数,判别规 则如下:
若样本x=(6,2)T,试判断该样本的类别。
1
M 2 N2 X2 X
Sw S1 S2 (X M1)(X M1)T (X M2 )(X M2 )T
X 1
X 2
2
阈值点 其中:
二、Fisher 线性判别函数
例题:
二、Fisher 线性判别函数
二、Fisher 线性判别函数
二、Fisher 线性判别函数
若d(ij X)>0,j i, i, j 1, 2,..., M ,则决策X i
情况2
例,设一个三类问题,建立了如下判决函数
情况2 特例
例,设一个三类问题,按最大值判决规则建立了三个判 决函数:
二、广义线性判别函数 欲设计这样一个一维样本的分类器,使其性能为:

➢ 通过非线性变换,非线性判决函数变成了线性判决函 数;
线性判别函数
3.1 线性判别函数的基本概念
贝叶斯决策理论设计分类器的步骤图
❖ 判别函数包含两类:
➢线性判别函数: ➢非线性判别函数,即广义线性判决函数
线性判别函数是统计模式识别方法中的一个重要的基
本方法。它是由训练样本集提供的信息直接确定决策域的
划分。
在训练过程中使用的样本集,该样 本集中的每个样本的类别已知。
个d维样本。Fisher准则就是找到一条直线,使得模式样本
在这条直线上的投影最有利于分类。设 W 为这条直线正

第2章 线性判别函数资料

第2章  线性判别函数资料

ATY 0
ATY b b Y
返回本章首页
第2章 线性判别函数
2.2.2 感知准则函数及其梯度下降算法
为了解线性不等式 ATYi 0 (Yi 已规范化 )需要构造
一个准则函数。这里我们介绍一种常用的准则函数即所 谓的感知准则函数,定义为如下的形式:
JP (A) ATY
YA
A 是由于使用权向量 A 而被误分类的样本集合。
g(X ) g1( X )g2 ( X ) , W T W1T W2T , w0 w10 w20 g( X )W T X w0
g(X )0 g( X )0
, ,
X 1 X 2
g( X ) 0 , 可将其任意分类,或拒绝
用其可以构造一个二类模式的线性分类器,如图所示。
返回本章首页
第2章 线性判别函数
T
X
p
W W
w0
W
Tห้องสมุดไป่ตู้
X
p
w0
W TW W
g(X)
W
W TW W
0
g(0) W
w0 W
W
返回本章首页
x2
H w0 W
第2章 线性判别函数
W X
g(X) W R1 ()
R2 ()
Xp
g( X )0 x1
g(X)0
g(X)0
返回本章首页
第2章 线性判别函数
第2章 线性判别函数
2.2 感知准则函数
引入增广模式向量和广义权向量
Y
1 X
A w0 w1 w2
wn T
返回本章首页
第2章 线性判别函数
代入,决策规则可变为
AT Y
AT
Y

模式识别课件第四章线性判别函数

模式识别课件第四章线性判别函数
线性判别函数在语音识别中用于将语音信号转换为文本或命令。
详细描述
语音识别系统使用线性判别函数来分析语音信号的特征,并将其映射到相应的 文本或命令。通过训练,线性判别函数能够学习将语音特征与对应的文本或命 令关联起来,从而实现语音识别。
自然语言处理
总结词
线性判别函数在自然语言处理中用于文本分类和情感分析。
偏置项。
线性判别函数具有线性性质 ,即输出与输入特征向量之 间是线性关系,可以通过权
重矩阵和偏置项来调整。
线性判别函数对于解决分类 问题具有高效性和简洁性, 尤其在特征之间线性可分的 情况下。
线性判别函数与分类问题
线性判别函数广泛应用于分类问题,如二分类、多分类等。
在分类问题中,线性判别函数将输入特征向量映射到类别标签上,通过设置阈值或使用优化算法来确定 分类边界。
THANKS
感谢观看
深度学习在模式识别中的应用
卷积神经网络
01
卷积神经网络特别适合处理图像数据,通过卷积层和池化层自
动提取图像中的特征。循环神网络02循环神经网络适合处理序列数据,如文本和语音,通过捕捉序
列中的时间依赖性关系来提高分类性能。
自编码器
03
自编码器是一种无监督的神经网络,通过学习数据的有效编码
来提高分类性能。
详细描述
自然语言处理任务中,线性判别函数被用于训练分类器,以将文本分类到不同的 主题或情感类别中。通过训练,线性判别函数能够学习将文本特征映射到相应的 类别上,从而实现对文本的分类和情感分析。
生物特征识别
总结词
线性判别函数在生物特征识别中用于身份验证和安全应用。
详细描述
生物特征识别技术利用个体的生物特征进行身份验证。线性判别函数在生物特征识别中用于分析和比较个体的生 物特征数据,以确定个体的身份。这种技术广泛应用于安全和隐私保护领域,如指纹识别、虹膜识别和人脸识别 等。

fisher判别函数

fisher判别函数

Fisher判别函数,也称为线性判别函数(Linear Discriminant Function),是一种经典的模式识别方法。

它通过将样本投影到一维或低维空间,将不同类别的样本尽可能地区分开来。

一、算法原理:Fisher判别函数基于以下两个假设:1.假设每个类别的样本都服从高斯分布;2.假设不同类别的样本具有相同的协方差矩阵。

Fisher判别函数的目标是找到一个投影方向,使得同一类别的样本在该方向上的投影尽可能紧密,而不同类别的样本在该方向上的投影尽可能分开。

算法步骤如下:(1)计算类内散度矩阵(Within-class Scatter Matrix)Sw,表示每个类别内样本之间的差异。

Sw = Σi=1 to N (Xi - Mi)(Xi - Mi)ᵀ,其中Xi 表示属于类别i 的样本集合,Mi 表示类别i 的样本均值。

(2)计算类间散度矩阵(Between-class Scatter Matrix)Sb,表示不同类别之间样本之间的差异。

Sb = Σi=1 to C Ni(Mi - M)(Mi - M)ᵀ,其中 C 表示类别总数,Ni 表示类别i 中的样本数量,M 表示所有样本的均值。

(3)计算总散度矩阵(Total Scatter Matrix)St,表示所有样本之间的差异。

St =Σi=1 to N (Xi - M)(Xi - M)ᵀ(4)计算投影方向向量w,使得投影后的样本能够最大程度地分开不同类别。

w= arg max(w) (wᵀSb w) / (wᵀSw w),其中w 表示投影方向向量。

(5)根据选择的投影方向向量w,对样本进行投影。

y = wᵀx,其中y 表示投影后的样本,x 表示原始样本。

(6)通过设置一个阈值或使用其他分类算法(如感知机、支持向量机等),将投影后的样本进行分类。

二、优点和局限性:Fisher判别函数具有以下优点:•考虑了类别内和类别间的差异,能够在低维空间中有效地区分不同类别的样本。

线性判别函数的正负和数值大小的几何意义

线性判别函数的正负和数值大小的几何意义

1、线性判别函数的正负和数值大小的几何意义2、支持向量机的判别函数,adaboost的判别函数3、什么是聂曼-皮尔逊判决准,什么是最小最大判决准则4、感知器算法特点5、什么是特征,什么是特征提取,什么是特征选择?6、分类和聚类有何区别?分别说出2-3种代表性算法7、Fisher算法的特点?8、数据预处理主要有哪些工作?9、什么是大数据,大数据有何特点?10、聚类中距离度量的方式有哪些,连续性数据和和二值数据分别怎么度量9、什么是Gini指数,其作用是什么?10、马式距离较之于欧式距离的优点11、关联规则的经典算法有哪些,各自的优缺点?12、什么是分类,什么是回归?分类的过程或步骤13、分类评价标准,怎么评价分类的优劣14、什么是数据,样本、什么是抽样15、什么是机器学习以及机器学习的一般步骤16. 样本属性的主要类型17.人工神经网络的激活函数有哪些?18.信息增益,在ID3算法中怎么用,表示什么含义19.二维数据三个混合项的高斯模型的概率密度方程20、什么是聚类?聚类分析有哪些主要距离度量方法21、什么是频繁项集22、关联规则的2大指标,支持度,可信度,(名词解释)23、什么是关联规则?怎样通过频繁K项集产生关联规则24、什么是贝叶斯网络及作用25、ID3算法及步骤26、神经网络的优缺点,bp网络的优缺点27、分工神经网络主要是模拟人脑的哪些能力?单层感知器有什么缺点?28、什么是过拟合,怎么解决过拟合?29、衡量模式识别与机器学习算法优劣的标准30、什么是有监督学习、什么无监督学习31、基于最小错误率的贝叶斯决策及基于最小风险的贝叶斯决策解决实际问题。

32、贝叶斯决策算法,最小风险贝叶斯、感知器算法、Apriori 算法、、K-中心算法、k-均值算法,等算法,步骤及伪代码。

实际问题示例:1、支持度20%,置信度20%,用Apriori 算法找出所有关联规则(要求完整步骤,写出所有的候选集,k 项集,及所有关联规则)2、识别鲈鱼和鲑鱼,其先验概率分别为 P(w 1)=0.9,P(w 2)=0.1,现有一待识别的鱼,其观察值为x ,从类条件概率密度分布曲线上查得1()0.6P x w =,4.0)(2=w x P ,并且已知011=λ,123λ=,121=λ,022=λ,分别写出自小风险和最小错误率的贝叶斯决策过程。

线性判别函数

线性判别函数

线性判别函数
4最小错分样本数准则
参考向量对解性质的影响
若b=(n/n1(u1),n/n2(u2)),则所得解与Fisher解等价;
当样本数趋于无穷时,取b=(1,1,…,1),则所得判别 函数能以最小均方误差逼近Bayes判别函数.
线性判别函数
4最小错分样本数准则
搜索法 准则函数
Jq(w)=S(sgnwxi) 即不等式组wxi>0中成立的不等式个数. 使准则函数取最大值的w即要求的w*.
线性判别函数
2Fisher线性判别
求解方法
Fisher解
kw S S w
T

1 T W B
S (m1 m2 )(m1 m2 ) w
T
1 W
T
w cS (m1 m2 )
T
1 W
线性判别函数
2Fisher线性判别
一维分类原则
当投影前维数和样本数都很大时,可采用Bayes决 策规则,从而获得一种在一维空间的最优分类. 如上述条件不满足,也可利用先验知识选定分界阈 值点y,以便进行分类判别. y=(m1+m2)/2
线性判别函数
3感知准则函数
准则函数(Perceptron Function)
J P (w)
xX e
wx
其中Xe 是被权向量w错分的样本集合.当x被错分 后,wx<=0或–wx>=0.我们的任务是寻找使JP(w) 极小(至0)的权向量w.
线性判别函数
3感知准则函数
梯度下降法
准则函数在某点wk 的梯度方向反映了函数变化率 最大的方向,故在求准则函数极小值时,沿负梯 度方向搜索有可能最快地找到极小值。 先任意选择一个初始权向量,沿梯度方向进行递 推搜索,因而可构造迭代算法:

广义线性判别函数

广义线性判别函数
w x x i1i2 i1 i2
i1 1 i2 i1
d
r
(
x)
n
n
n
w x x x i1i2ir i1 i2
ir
i11 i2 i1 ir ir1
1
C
1 n
C2 n 1 ……
Cr nr 1 10
d (0) (x) wn1
d (r) (x) d r (x) d (r1) (x)
d
(
r
)
(
wd fd(x)
wd1 wy
~
wd
1
d (y)
式中
w
y
(w1, w2 ,, wd1)
( y1, y2 ,, yd ,1)
(
f1 ( x ),
f
2
(
x),
,
fd
(x),1)
x yi
fi (x)(i
1,2,, d ) 是
的单值实函数。
7
8
上式右边前两项是x各分量的二次项求和式, 显然它们的项数分别为n和 n(n-1)/2。
3
使 yj ( f1(xj ), f2(xj ), , fd (xj )) 在特征空间是线性可
分的, 称其为广义线性判别函数。
4
下图所示两类模式是线性不可分的。
5
经过非线性变换,两类模式是线性可分的。
6
d
(
x)
w1 f1(x) w2 f2 (x)
w1y1 w2 y2 wd
yd
x
)Hale Waihona Puke 的项数为:rCk nk 1
1
(n r)!
n!r!
k 1
11

第2章 线性判别函数法

第2章 线性判别函数法

di ( X ) Wi X , i 1,, M
T
的M类情况,判别函数性质为:
di ( X ) d j X , j i ; i, j 1,2,, M , 若 X i 或: di ( X ) maxdk X , k 1,, M , 若X i
x2
特点:
特别的定义
① 是第二种情况的特例。由于dij(X)= di (X) - dj(X) ,若在第三 种情况下可分,则在第二种情况下也可分,但反过来不一定。
x2
d1 ( X) - d 2 X 0 -
② 除边界区外,没有不确定区域。
d1( X) - d3 X 0 -
1
d1 d2 d1 d 3
i i 两分法
i j 两分法
i j 两分法特例
(1)多类情况1:i
i 两分法
用线性判别函数将属于ωi类的模式与其余不属于ωi类的 模式分开。
0, 若X i di ( X ) Wi X 0, 若X i
T
i 1, ,M
识别分类时:
将某个待分类模式 X 分别代入 M 个类的d (X)中,
d 可写成: 21 ( X ) 2, d31 ( X ) 1 , d32 ( X ) 1
d 31 ( X ) 0 d 32 ( X ) 0 X 4,3 T 3
5
与 d12 ( X )值无关。
d12(X)=0 5
x2
d 21 0 d 23 0

1
d ( X ) w1 x1 w2 x2 w3
若 d ( X ) 0,则 X 1 类; 若 d ( X ) 0 ,则 X 2 类; 若 d ( X ) 0 ,则 X ω1或 X ω2 x1 或拒绝

模式识别-判别函数

模式识别-判别函数
或:
di (X ) maxdk X , k 1,, M , 若X i
x2
d1(X) - d2 X 0
+-
识别分类时:
1
d1 d2 d1 d3
d2 d1 d2 d3
d1(X) - d3X 0
+ -
判别界面需
2
要做差值。对ωi
类,应满足:
x1
+
1
CM2

M M -1
2!
例 已知dij(X)的位 置和正负侧,分析三 类模式的分布区域 。
2
O
+
- d12 ( X ) 0 x1
例 一个三类问题,三个判决函数为:
d12 ( X ) -x1 - x2 + 5 d13( X ) -x1 + 3 d23( X ) -x1 + x2 问模式 X [4,3]T 属于哪类?
di>其他所有d
0
d3 d1
3
d3 d2
+ -
d2 (X) - d3X 0
例 一个三类模式(M=3)分类器,其判决函数为:
d1( X ) -x1 + x2 d2 ( X ) x1 + x2 -1 d3( X ) -x2 试判断X0=[1,1]T属于哪一类,且分别给出三类的判决界面。
- x2 +1 0
x2
4
d1(X ) -x1 + x2 +1
d2 (X ) x1 + x2 - 4
d3(X ) -x2 +1
+
d1 ( X )
-

0
(7, 5)

第4章 线形判别函数

第4章 线形判别函数
只有一个决策面 gij (x) 0 是不能最后做出 x wi 的,因为 gij (x)只涉及 wi 和 w j 的关系,而对 wi 和 别的类型 wk( k 1,2,....,c,k i,k j)之间的关系不提 供任何信息。要得到 x wi 的结论,必须考察(c1)个判决函数。即有判决规则:
j,i 1,2,....c. , i j
……(2)
且 gij (x) g ji (x) ……(3)
上两式与第二种情况中的两个表达式 gij (x) wiTj x ,
gij (x) g ji (x)完全一致。但是,这里的(2)式来源于(1) 式,也就是我们第三种情况的判决函数,对于c个类 型来说,独立方程式为c-1个,而非c(c-1)/2个。尽 管有此差别,第三种情况的判别式 gi (x) g j (x)与第二 种情况的判别式 gij (x) 0相同。因此,第三种情况 此时也被转变成 wi / wj二分法问题。
由上述分析知道,决策面 wiT x 0,把空间划分成 两个区域,一个属于wj ,另一个属于 w j。再考察另
一个决策的判别函数
g
j (x)
wjT
x,j
i
。其决策面
w
T j
x
0
同样把特征空间划分成两个区域,一个属于wj ,另
一个属于wj 。这两个决策面分别确定的 wi和wj 类
型区域可能会有重叠,重叠的区域属于 wj 还是 wi呢? 这类判别函数无法作出判决。同样 和wi 也w可j 能出 现重叠,如果由c个决策面确定的c个属于 ( wi
g1 ( x) g2 ( x)
2 8
97 11 3
g3(x) 2
按最大值规则,x w1。由于3个类相邻,也可用 第三种情况的②推导出的方法求。

线性判别函数

线性判别函数
为了方便起见,如果我们令
则合适的A能使所有的Y’满足A TY’>0。(后面用Y表示Y’ ) 经过这样的规格化处理后,问题就转化为:求使每一个样本 Y满足A TY>0的权向量A的问题了。权向量A称为解权向量。
为了求解线性不等式组A TY>0,构造一个准则函数: 感知准则函数:
J P ( A)
Y A
w x xp r w 决策面H
w0 w
x2
x
w
g x w
xp
1 : g 0 2 : g 0
x1
g(X )=0
式中
Xp: 是 x 在H上的投影向量, r : 是 x 到H的垂直距离,
w :是w方向上的单位向量。 w
将上式代入 g x wT x w0 ,可得:
w T ) w0 w T xp w0 r W w r w g(x)= w T ( x p r w w
讨论二类情况下的线性判别函数。 两个线性判别函数 T
T
g1( X ) W 1 X w10 g 2( X ) W 2 X w20
如果X属于 1 ,可得: (W
T 1
T W2 ) X (w 10 w 20 )>0
令 W T (W1T W2T ), w0 w10 w20得 g(X )=W T X + w0 则二类模式的线性分类器的决策法则是: 如果 g(X )>0 ,则决策 1 ,即把 X 归到 1 类去; 如果 g(X )<0 ,则决策 2 ,即把 X 归到 2 类去。
作为判别函数,它应具有如下的性质:假如一个模式X属于第 i类,则有: gi ( X )>g j (X), i, j 1, 2,, c, j i

线性判别函数-Fisher-PPT课件

线性判别函数-Fisher-PPT课件
Y空间中任意一点y到H’的距离为:
gx a y r' a a
T
设计线性分类器的主要步骤
1.给定一组有类别标志的样本集S
2.确定准则函数J(S,w,w0) 3.用优化技术得到极值解w*,w0* 这样就得到线性判别函数g(x)=w*Tx+w0*,对未知 样本xk,计算g(xk),然后根据决策规则就可判断xk 所属的类别。
2 T 1 2 b F 2 2 T 1 2 w
Lagrange乘子法求极值: 令:
w S w c 0
T w
T
定义函数:
L w , w S w w S w c
线性判别函数
已知条件 实际问题
贝叶斯决策 条件未知
利用样本集直接设计分类器,即给定某个判别函 数类,然后利用样本集确定出判别函数中的未知 参数。
一类简单的判别函数:线性判别函数
线性判别函数(discriminant
function)是指 由x的各个分量的线性组合而成的函数 ,一 般表达式为:
1 2
~ ~ 两类均值之差 m m 越大越好
2.各类样本内部尽量密集
~ ~ 类内离散度 S S 越小越好
2 2 1 2
准则函数
~ m ~ m ~ ~ J w S S
1 2 F 2 2 1 2
T
2
求准则函数的极大值
化简分子:
1 1 1 ~ m y w x w x w m N N N
2.在一维Y空间 各类样本均值:
1 ~ m y ,i 1 ,2 N
i Y i i
样本类内离散度:
~ ~ S y m , i 1 , 2
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第四章 线性判别函数
主要内容: 非参数判别分类器的基本原理,与参数判别分类方法的比 较 线性分类器
三种典型的线性分类器:fisher准则,感知器,SVM
两类与多类判别方法 非线性判别方法
4.1 引言
参数判别方法: 训练样本集 各类别在特征空间的 分布表示成先验概率、 类概率密度分布函数 选择最佳准 决策规则、判 则函数 别函数、决策 面方程
缺陷:获取统计分布及参数非常困难
选择最佳准则 训练样本集
获取决策规则、判别函数、 决策面方程
非参数判别方法:
4.1 引言
非参数判别分类方法的基本原理——有监督学习方法 线性分类器 近邻法 Fisher 准则线 性分类 器 感知准 则函数 线性分 类器 svm 改进的近邻法
非线性 分类器 的扩 展—分 段线性
法一(c个 w / w 二分法) :通过唯一一个线性判别函数,将 属于i类的模式与其余不属于i类的模式分开。对于c类问题, 需要c个判别函数。即:g ( x) w x i 1,2,...., c g ( x) 0 , x w g ( x) 0 ,x w 且 i 1,2,...., c
T
x0 1 其中:sgn( x) 1 x 0
x ( x1 , x2 ,.....xd ,1)T
w (w1 , w2 ,.....wd , )
T
模型特点:神经元之间的耦合程度可变,各个权值wi可以通过 训练/学习来调整,从而实现线性可分函数。
4.4 感知器 感知器训练算法
i i
T i i
i
i
i
i
C个判别函数把特征空间分成C个 w / w 问题。
i i
4.2线性判别函数和判定面
特点:有不确定区域及模糊区域,类型越多,不确定区域越多。
x 不能直接根据 g ( x) 0 判断: wi
i
4.2线性判别函数和判定面
判决准则:
若: g ( x) 0 且 g ( x) 0
T i i
i j
i
有5个不同类型,决策面是分段线性的区分超 平面。类 型w1与其余4个类型均相邻 w2与2个类型相邻 (w1,w3),w5与3个类型相邻 (w1,w3 ,w4)。k的选取取决于所考察的类型与 几个类型相邻。如 w1, k=4; w2, k=2; w5, k=3。
4.2线性判别函数和判定面
g ( x) wT x
0 g ( x) 0
则:
wi x w j
感知器训练算法实现: 设训练样本集 X {x1 , x2 ,.....xn },每个样本 xk , k 1, 2,....., n ,分别属于 类型wi或wj,且xk类别属性已知。为了确定加权向量w*,执行: ① 给定初始值:置k=0,分别给每个权向量赋任意值,可选常 数。 ② 输入训练样本 xk , xk {x1 , x2 ,....., xn } ③ 计算判决函数值: g ( xk ) [w(k )]T xk
12 1 2 T
Hale Waihona Puke 13123
1
2
试判断该样本类别 :
解:把样本代入判决函数: g ( x) 8 3 8.2 2.8 ,g ( x) 2.5 g ( x) 4.8 , 因此 g ( x) g ( x) 2.5 0 及 g ( x) g ( x) 4.8 0
12
13
23
12
13
12
13
21
23
g ( x)
23
g ( x) 0
32
4.2线性判别函数和判定面
例:设一个三类问题,有如下判决函数 g ( x) x x 8.2 , g ( x) x 5.5 , g ( x) x x 0.2 ,现有模式样本 x (8,3)
>0 x w i g ij (x) <0 x w j
判别函数具有性质: g ( x) g ( x)
ij ji
把c类问题转变为两类问题,与第一种情况不同的是,两类问题 的数目不是c个,而是 c(c 1) / 2个 ,并且每个两类问题不是 w / w 而是 w / w
i i
i j
例:设一个三类问题,按最大值规则建立了3个判决函数。
g1 ( x) 3x1 x2 9 g 2 ( x) 2 x1 4 x2 11 g ( x) x 2 3
今有模式样本x=(0,2)T,试判别该模式属于 哪一类?
解:将x=(0,2)T代入3个判决函数
1 1 2 2 d d d 1
其中: w (w1 , w2 ,...., wd )T 称为加权量,则: g ( x) wT x wd 1 x ( x1 , x2 ,...., xd ,1)T 称为增广模式。
w (w1 , w2 ,...., wd , wd 1 )T
称为增广加权向量。
将x表示为: xp:是x在H上的投影向量,r是x到H的算术距离
4.2线性判别函数和判定面
结论:
1.g(x)正比于点x到超平面的算术距离(带符号)
2.点x属于w1时,r为正
3.点x属于w2时,r为负
4.2线性判别函数和判定面
多类情况: w 对c类问题: , w ,....,w ,且c≥3
1 2 c
多层感 知器
特征映 射方式 实现线 性分类 器
4.2线性判别函数和判定面
最简单的判别函数是线性函数,相应的分类面是超平面
4.2线性判别函数和判定面
线性判别函数:由x的各个分量的线性组合构成的函数
(1)
w :权向量,w0 :阀值权或偏置
4.2线性判别函数和判定面
两类情况:
4.2线性判别函数和判定面
且: gij ( x) g ji ( x) (3)
T gij ( x) wij x , ij ( x) g ji ( x) 完 g 上两式与第二种情况中的两个表达式
全一致。但是,这里的(2)式来源于(1)式,对于c个类型来说,独 立方程式为c-1个,而非c(c-1)/2个。尽管有此差别,第三种情况 的判别式 gi ( x) g j ( x)与第二种情况的判别式 gij ( x) 0 相同。因此, wi / w j 第三种情况此时也被转变成 二分法问题。 例如,假定c=3, 且已有3个判决函数,满足最大值判决规则。已知:
所以 g23 ( x) 是 g13 ( x) 和 g12 ( x) 的线性组合。即 g13 ( x)和 g12 ( x) 是独立的, g 23 ( x) 是不独 立的,且在二维空间理,三个判决函数必须相交于 一点。
由三个类别的分布情况来看, 它们满足第二种情况的判决 规则,且无不确定区。
4.2线性判别函数和判定面
第二步:确定一个准则,满足(1) J J ( w, x) ,(2) J ( w, x) 能反映分 类器的性能,且对于J的权值w*,所得分类器最优。 第三步:求 J ( w, x) 的权值,得到解向量w*,同时设计求解w的最优 算法。 一旦得到w*,训练实验的任务就完成了。
4.4 感知器
感知器(perceptron)是一个具有单层计算单元的人工神经网 络。
② 假定c个类型在特征空间里均相邻,即 k=c。由于:
gi ( x) wiT x , i 1,2,.....c, k c (1)
T gij ( x) gi ( x) g j ( x) wiT x w j T x ( wiT wT ) x wij x , j , i 1, 2,.....c, i j(2) j
g1 ( x ) w1T x T g 2 ( x ) w2 x g 3 ( x ) w3T x
4.2线性判别函数和判定面
三个类型区域均相邻。有: T T T T 由:g12 ( x) g1 ( x) g2 ( x) (w1T w2 ) x w12 x, 同理:g13 ( x) w13 x , 23 ( x) w23 x g
i
j
j 1,2,...., c
ji
则: x w
i
例如:对三类问题,分别建立三个判别函数
g g ( x) 10x 19x 19 , ( x) x x 5 , g ( x) 2 x 1
1 1 2 2 1 2
3
2
有一个模式样本
x (6,2) ,试判断该样本的类别。
T
解:把样本X分别代入上面的判别函数得: g ( x) 60 38 19 3 0 , g ( x) 3 0 , g ( x) 1 0
1 2
3
根据判别规则 g ( x) 0
2
g ( x) 0
1
g ( x) 0
3
因此,判决结果为: x w
2
4.2线性判别函数和判定面
12
13
23
31
13
32
23
所以: x w
3
4.2线性判别函数和判定面
法三:对c种类型中的每一种类型,均建立一个判决函数,即: g ( x) w x , 1,2,..... c 为了区分出其中的某一个类型 w 需要k i , i g k 个判决函数, c ,如果满足: ( x) g ( x) , j 1,2,..... k j i 则: x w 对不同的wi,k的取值可能不同。判决规则也可 以写成:若满足 gi (x)=max{g j ( x)} ,则 x wi ,即最大值判决规则。 j=1,...k ① 关于k值的选取 :
4.2线性判别函数和判定面
判决准则:
若: g ( x) 0
ij
j 1,2,....c, j i
相关文档
最新文档