模式识别第二章
模式识别第二章
p(x)~N(μ,Σ)
第二章 贝叶斯决策理论
37
等概率密度轨迹为超椭球面
正态分布 Bayes决策
p ( x ) c ( x μ ) T 1 ( x μ ) 2
i
第二章 贝叶斯决策理论
9
分类器设计
判别 函数
分类器是某种由硬件或软件组成的“机器”:
➢计算c个判别函数gi(x)
➢最大值选择
x1
g1
x2
g2
ARGMAX
a(x)
.
.
.
.
.
.
xn
gc
多类识别问题的Bayes最大后验概率决策:gi(x) = P (ωi |x)
第二章 贝叶斯决策理论
10
2.3 Bayes最小错误率决策
根据已有知识和经验,两类的先验概率为:
➢正常(ω1): P(ω1)=0.9 ➢异常(ω2): P(ω2)=0.1 ➢对某一样本观察值x,通过计算或查表得到:
p(x|ω1)=0.2, p(x|ω2)=0.4
如何对细胞x进行分类?
第二章 贝叶斯决策理论
15
Bayes最小错误率决策例解(2)
最小错误 率决策
利用贝叶斯公式计算两类的后验概率:
P ( 1|x ) 2 P P ( ( 1)jp )( p x (x | | 1 )j)0 .9 0 0 ..9 2 0 0 ..2 1 0 .40 .8 1 8
j 1
P ( 2|x ) 2 P P ( ( 2)jp )( p x (x | | 2)j)0 .2 0 0 ..9 4 0 0 ..1 4 0 .1 0 .1 8 2
最新哈工大 模式识别第2章ppt教学课件
▪ 因而,按最大后验概率作出的决策,其平均错误 率为最小。
▪
C类别情况
如 果 : P (i|X ) m j 1 a ,...x ,cP (j|X )
则: X i
也可写成先验概率与条件概率密度形式:
如 果 :p ( X |i) P (i) m j 1 a ,... x ,c p ( X | j) P (j)
则: X i
多类别决策过程中的错误率计算:
1、把特征空间分割成R1,R2,…,Rc,C个区域 2、在每个区域Ri统计将所有其它类错误划为该区 域对应的类的概率,则每个区域共有c-1项错误率, 总共有c(c-1) 项 。(计算复杂)
正确率:
所以:P(e)=1-P(c)
(可见:每次决策,正确率最大,即:P(C)最大,
P(e)R1p(X|2)P(2)dxR2p(X|1)P(1)dx
P(2)R1p(X|2)dxP(1)R2p(X|1)dx
P(2)P2(e)P(1)P1(e)
ห้องสมุดไป่ตู้
如 果 l(x)p p((X X|| 2 1))P P(( 2 1)),
X 1
▪ 在R1区内任一个x值都有P(w2|x)<P(w1|x), ▪ 在R2区内任一个x值都有P(w1|x)<P(w2|x) ▪ 错误率在每个x值处都取小者,因而平均错误率
– 在作出决策时,要考虑所承担的风险。
– 基于最小风险的贝叶斯决策规则正是为了体现这 一点而产生的。
基于最小风险的贝叶斯决策
▪ 最小错误率贝叶斯决策规则
如 果 :P (i|X ) jm 1 ,2 a ,. x ..,c P (j|X ) X i
▪ 实际上,C类中的每一类都有一定的样本的特征向 量取值X,只不过可能性大小不同而已。
模式识别-第2章(1)
M
M M = ∫ ∑ λk 1 p ( x | ωk ) P(ωk ) dx + .... + ∫ ∑ λkM p( x | ωk ) P(ωk ) dx R1 RM k =1 k =1
使上述平均风险达到最小的判决规则成为最小风 险判决规则。
2、最优决策域的构成: 考察特征空间中的所有特征向量。对于任意一 个特征向量x,如果
α ( x) = ωi
因此,为了使r取得最小值,最优判决规则应为: r 如果
M
ri = ∑ λki P (ωk | x) <rj = ∑ λkj P (ωk | x), j = 1,..., M , j ≠ i
k =1 k =1
M
4、两类分类的一个例子:对于观测到的任意一 个特征向量x,计算:
r1 = λ11 P (ω1 | x) + λ21 P (ω2 | x) r2 = λ12 P (ω1 | x) + λ22 P (ω2 | x) 如果r1<r2则判为 ω1,如果r1>r2则判为 ω2 。
寻求一个最优的判决规则,也就是寻求一个最优 的划分R1及R2,使得错误率达到最小。
4、判决规则错误概率的计算:假设判决规则对应 的决策域为R1及R2,则其错误率为:
Pe = P(ω1 ) P( x ∈ R2 | ω1 ) + P (ω2 ) P ( x ∈ R1 | ω2 )
= P(ω1 ) ∫ p( x | ω1 )dx + P(ω2 ) ∫ p ( x | ω2 )dx
3、判决规则的一般描述形式 对特征空间的任意一个划分R1及R2,都对应一个 判决规则。该判决规则为:对于观测到的特征 向量x, 如果 x ∈ R1 则判为 ω1 ,即x属于第一类 如果 x ∈ R2 则判为 ω2 ,即x属于第二类 该判决规则的错误概率为:
模式识别第二章(线性判别函数法)
2类判别区域 d21(x)>0 d23(x)>0 3类判别区域 d31(x)>0 d32(x)>0
0 1 2 3 4 5 6 7 8 9
x1
d23(x)为正
d32(x)为正
d12(x)为正
d21(x)为正
32
i j 两分法例题图示
33
3、第三种情况(续)
d1 ( x) d2 ( x)
12
2.2.1 线性判别函数的基本概念
• 如果采用增广模式,可以表达如下
g ( x) w x
T
x ( x1 , x 2 , , x d ,1)
w ( w1 , w 2 , , w d , w d 1 ) T
T
增广加权向量
2016/12/3
模式识别导论
13
2.1 判别函数(discriminant function) 1.判别函数的定义 直接用来对模式进行分类的准则函数。
模式识别导论
11
2.2.1 线性判别函数的基本概念
• 在一个d维的特征空间中,线性判别函数的
一般表达式如下
g ( x ) w1 x1 w 2 x 2 w d x d w d 1
g ( x ) w x w d 1
T
w为 加 权 向 量
2016/12/3
模式识别导论
1
d1 ( x ) d3 ( x )
2
3
d2 ( x) d3 ( x)
34
多类问题图例(第三种情况)
35
上述三种方法小结:
当c
但是
3 时,i j
法比
i i
法需要更多
模式识别(chapter2)资料
解: 三个判别边界分别为:
dd12((xx))
x1 x2 x1 x2 5
0
0
d3 (x) x2 1 0
13
➢1、第一种情况(续)
结论: 因为
d1(x) 0, d2 (x) 0, d3(x) 0
所以它属于ω2类。
14
➢1、第一种情况(续)
5
dd12((xx))
0 0
d3 ( x) 0
wn1
0
当 x 在 n 背向的半空间中时,w0 x wn1 0
这说明判别函数值的正负表示出特征点位于 哪个半空间中,或者换句话说,表示特征点位于 界面的哪一侧。
34
例2.3.1:利用判别函数的鉴别意义,试分析
d(x1,x2)=x1+x2+1。
x2
d(x1,x2)=0
×××××××××××××
n
开,而 i j法是将 i 类和 j类分开,显然 i j法使模式更容易线性可分,这是它的优点。
方法⑶判别函数的数目和方法⑴相同,但没有不 确定区,分析简单,是最常用的一种方法。
26
2.3 判别函数值的鉴别意义、权空间及解空间
27
.3 判别函数值的鉴别意义、权空间及解空间
此方程表示一超平面 π。它有以下三个性质:
1
x2
1
d1(x) 0
2 3
d1(x) 0
d2 (x) 0
d3 (x) 0
d3(x) 0
x1
d1(x) 0
d
2
(
x)
0
d3
(
x
)
0
d2(x) 0
5
15
16
➢2、第二种情况(续)
模式识别 第二章 聚类分析课件
蜥蜴,蛇, 麻雀,海
金鱼
鸥,青蛙
羊,狗, 猫,
鲨鱼
(c) 生存环境
(d)繁衍后代的方式和是否存在肺
6
2.1 聚类的基本概念
2.1.5 距离测度对聚类结果的影响
数据的粗聚类是两类,细聚类为4类
72.2 ຫໍສະໝຸດ 式相似性测度2.2.1 距 离 测 度 2.2.2 相 似 测 度 2.2.3 匹 配 测 度
r(x1, x2 )
18
(3) 指数相关系数
e(x, y) 1 n exp[ 3 (xi yi )2 ]
n i1
4
2 i
这里假设 x 和 y 的维数n相同、概率分布相同。
2是第i个分量的方差。
i
性质:不受量纲变化的影响。
19
(三) 匹 配 测 度
若特征只有两个状态: 0 => 有此特征;1 => 无此特征。称之为二值特征。
注意,这里只考虑(1-1)匹配,而不考虑(0-0)匹配。 21
(三) 匹 配 测 度
(2) Rao测度
(1-1)匹配特征数目与特征总数之比
s(x, y)
a
x'y
abce n
(3) 简单匹配系数 (1-1)匹配+(0-0)匹配/特征总数
m(x, y) a e n
(4) Dice系数
只对(1-1)匹配加权
取决于分类算法和特征点分布情况的匹配。
x2
x2
w1
w2
W1
b
w1
W2
W1
w2
w3
W2
W3
1.特征选取不当使分类无效。
x1
4
2.特征选取不足可能使不同 类别的模式判为一类。
模式识别第2章 模式识别的基本理论(2)
(步长系数 )
33
算法
1)给定初始权向量a(k) ,k=0;
( 如a(0)=[1,1,….,1]T)
2)利用a(k)对对样本集分类,设错分类样本集为yk 3)若yk是空集,则a=a(k),迭代结束;否则,转4) 或 ||a(k)-a(k-1)||<=θ, θ是预先设定的一个小的阈值 (线性可分, θ =0) ( y) a(k 1) a(k) k J p 4)计算:ρ k, J p (a) y y 令k=k+1 5)转2)
1)g(x)>0, 决策:X∈ ω1 决策面的法向量指向ω1的决 策域R1,R1在H的正侧 2) g(x)<0, 决策:X∈ ω2, ω2的决策域R2在H的负侧
6
X g(X) / ||W|| R0=w0 / ||W|| Xp R2: g<0 H: g=0 r 正侧 R1: g>0 负侧
g(X)、 w0的意义 g(X)是d维空间任一点X到决策面H的距离的代数度量 w0体现该决策面在特征空间中的位置 1) w0=0时,该决策面过特征空间坐标系原点 2)否则,r0=w0/||W||表示坐标原点到决策面的距离
否则,按如下方法确定: 1、 2、 3、 m m ln[ P( ) / P( )]
~ ~
w0
1
2
2
1
2
N1 N 2 2
(P(W1)、P(W2) 已知时)
24
分类规则
25
5 感知准则函数
感知准则函数是五十年代由Rosenblatt提出的一种 自学习判别函数生成方法,企图将其用于脑模型感 知器,因此被称为感知准则函数。 特点:随意确定判别函数的初始值,在对样本分类 训练过程中逐步修正直至最终确定。 感知准则函数:是设计线性分类器的重要方法 感知准则函数使用增广样本向量与增广权向量
第2章模式识别
模板说的应用
模板说在机器的模式识别中得到实际应用: 制作一些特殊的数字,用于支票的银行帐户、 信用卡、提款卡等的编号,计算机可以成功的识 别。 超级市场的商品价格可以用线条的宽度、位 置及空间间隔进行编码,构成一定的模式,通过 模板匹配而由计算机读出。
评
价
• 人必须事先存储相应的模板,才能识别一个模 式。即使存在预处理过程,模板数量仍然是巨 大的。记忆负担、模式识别缺乏灵活性; • 很难解释人何以迅速识别一个新的、不熟悉的 模式?
• 基本思想:模式的识别需要刺激与模板相匹 配,而这种匹配要求两者有最大程度的重叠。 • 如果模式在外形、大小或方位等某一方面有 所变化,要有与之对应的模板,否则不能识 别或发生错误。增加记忆负担?
典型识别失败例子
预加工
在模板匹配模型中,增加了一个预加工过程, 即在模式识别的初期阶段,在匹配之前,将刺 激的外形、大小或方位等加以调整,使之标准 化。这样就可以大大减少模板数量。 问题:依据什么来调整刺激的外形、大小或 方位?
知识经验在知觉中的作用
实验研究
Warren等(1970)的因素恢复效应实验。 实验时:让不同被试分别听一个不同的句子, 如:达尔马提亚狗 (1)It was found that the *eel was on the axle. (2)It was found that the *eel was on the shoe. (3)It was found that the *eel was on the orange. (4)It was found that the *eel was on the table. 在每个句子中, *表示某个字母缺失。
Neisser实验(1964)
第一组 ODUGQR QCDUGO CQOGRD QUGCDR GDQUOC RCGROD UZOGQD DUCGRO …… 第二组 IVMXEW EWVMIX EXWMVI WVZMXI EMWIVX MWXVIE VMWIEX XEMIWV ……
模式识别(2-3)
i
ln P (i )
正态分布概率模型下的最小错误率贝叶 斯决策
决策规则:gi ( x) xT W i x WiT x wi 0 max xT W j x W jT x w j 0 x i
1 j M
对于二类情况: g ( x) g 2 ( x) g1 ( x) 1 1 1 T 1 T 1 ( x 1 ) 1 ( x 1 ) ( x 2 ) 2 ( x 2 ) ln 2 2 2
由于它的主对角元素都是各分量的方差,因此一般情况下 都是大于零的值。
正态分布概率模型下的最小错误率贝叶 斯决策
Ø
判别函数:
1 1 n 1 T x i i x i ln 2 ln 2 2 2
gi ( x)
i
ln P(i )
决策面方程:
gi ( x) g j ( x) 0 1 1 1 x i i x i x j j x j 2 i P (i ) 1 ln ln 0 2 P ( j ) j
正态分布概率模型下的最小错误率贝叶 斯决策
例2设一个二维空间中的两类样本服从正态分布,其参数
分别为
1 (1, 0) ,
t
1 0 1 , 0 1
2 (1, 0) ,
T
2 0 2 0 2
先验概率 P 1 P 2
试证明其基于最小错误率的贝叶斯决策分界面方程 为一圆,并求其方程。
T
7 (0, )T 4
协方差矩阵为 : 2 1 0 3 0 C11 C12 , 1 0 3 2 1 , 1 C C 0 21 22 10 4 1 5 C11 ( x1k x11 )T ( x1k x11 ) 5 1 k 1 1 (1 0) 2 (1 0) 2 (0 0) 2 ( 1 0) 2 ( 1 0) 2 1 4 1 5 C12 ( x1k x11 )( x2 k x12 )T 0 4 k 1 C12 C21
《模式识别》 第二章 2.1
( ) ( ) P ωi x
=
max P
j =1,2 ," ,c
ωj
x
先验概率与类条件概率密度相联系的形式 :
( ) ( ) ( ) ( ) P
x ωi
P ωi
= max P j =1,2,",c
x ωj
P ωj
,则
x ∈ωi
19
小结
贝叶斯公式:
P(ωi | x) =
p(x | ωi )P(ωi )
=
−
ln
p(x
|
ω1 )
+
ln
p(x
|
ω2
)
< ln
>
⎛ ⎜ ⎝
P(ω1) P(ω2 )
⎞ ⎟ ⎠
x ∈ ⎧⎨⎩ωω12
15
基于最小错误率的贝叶斯决策
例:假设在某个局部地区细胞识别中正常和异常两类的先验概率 分别为
正常状态:P(ω1) = 0.9
异常状态:P(ω2 ) = 0.1
现有一待识别的细胞,其观察值为x,类条件概率密度分别
基于最小错误率的贝叶斯决策
鲈鱼/鲑鱼例子
自然状态下,先验的类别状态,ωi, i=1,2
ωi类别状态是一个随机变量, P(ωi) 表示为先验概率。 捕获鲈鱼和鲑鱼的几率相等。
P(ω1) = P(ω2) (先验) P(ω1) + P( ω2) = 1 (排除其它鱼的种类)
基于最小错分布 (先验概率和类条件 概率密度) 是已知的
要决策分类的类别数是一定的
决策
黑色:第一类
粉色:第二类
绿色:哪一类?
统计决策理论就是 根据每一类总体的 概率分布决定未知 类别的样本属于哪 一类!
第二章 模糊模式识别
x1 : 核(拍照)面积; x2 :核周长; x4 : 细胞周长; x3 : 细胞面积;
核内平均光密度;
六个模糊集:
α 1a 2 A:核增大,A( x) = 1 + x , ~ 1
(a为正常核的面积) ;
−1
B ~
α2 B : 核染色体增深: ( x) = 1 + ; x5
R 维模糊矩阵 β 用贴近度公式求:N ( R , R ) β i
判断Rβ 属于哪一类(字)。
5
例2:癌细胞识别问题(钱敏平,陈传娟) 由医学知识,反映细胞特征有七个数据x1 , ……, x7
记
x = ( x1 , ……, x7 )
x 5 : 核内总光密度; x 6 : x7 : 核内平均透光率。
2.3模糊模式识别应用实例 模糊模式识别应用实例
本节提供的几个模糊模式识别应用实例, 供处理实际模式识别时参考。
例1:条码识别方法用于上海市燃气公司燃气用户帐单销帐处理、复 旦大学图书馆的检索工作取得满意效果。 现以阿拉伯数字的识别问题为例给予说明。
第一步:构造模式。将0,1,……,9分别用 m × n 维模糊矩阵表示 用 为10个模式。 如“5”,
RE(u)= 1− ρ
≥ β ≥ γ ≥θ
)
1 ∨ (| α − γ | ,β − θ |) | 180
1 [(α −90) + (β −90) + (γ −90) + (θ −90)] 2 90
1 ∧ (| α + β − 180 | ,β + γ − 180 |) | 180
(3)梯形T: T(u)= 1 − ρ3 (4)菱形RH: RH(u)=1− ρ4
认知心理学 第二章 模式识别
– 特征分析说 —— 模式可分解为诸特征
– 模式识别时,由特征觉察系统对刺激的特征进行分解, 与长时记忆中各种刺激的特征进行比较和匹配
• Lindsay和Norman(1977):构成所有26个英文字母的特征共有 7种,即垂直线、水平线、斜线、直角、锐角、连续曲线和不 连续曲线
第二章 模式识别
25
二、模式识别的理论
– 难题:
• 无法确定一个客观事物模板的数量及其变式 • 大脑中贮存有多少模板?这些模板的检索方式与速度如何?
第二章 模式识别
22
二、模式识别的理论
• 2、原型理论
– 在记忆中贮存的不是与外部模式有一对一关系的模板, 而是原型(Prototype) – 原型是一个类别或范畴的所有个体的概括表征,反映 一类客体具有的基本特征 – 模式识别时,刺激只需与原型近似匹配即可 – Posner等(1967):原型实验 —— 证实原型的存在
– 1990:端点和结合点在图形辨认中的重要性
• 符合格式塔的连续性原则和间隙填充原则
– 局限性:
• 对不规则物体的解释 • 几个物体同时呈现时,边缘信息识别困难
第二章 模式识别
32
二、模式识别的理论
• 6、视觉拓扑学理论
– 陈霖(1982) – 在视觉处理的早期阶段,视觉系统首先检测的是图形
的大范围的拓扑性质,而非局部几何性质;
• 知识表征:已有的知识经验
• 易化作用:加快速度,提高正确率
• 补充作用:填补感觉信息的缺失 • 期待作用:预测环境中将呈现的信息
– 人鼠两歧图
第二章 模式识别
35
三、模式识别的影响因素
第二章 模式识别
提
• 一、知觉与模式识别 • 二、模式识别的理论 • 三、模式识别的影响因素
模式识别课件-第二章 贝叶斯决策理论
立,则将x归于 类。
几种常见的决策规则
判别函数
相对应于贝叶斯决策的判别函数
(1) = |
(2) = (│ )( )
(3) = ln + ln ( )
= , =
= , =
几种常见的决策规则
基于最小风险的贝叶斯决策
利用贝叶斯公式,分别计算后验概率
(│ )( )
=
σ= (│ )( )
. ∗ .
=
= .
. ∗ . + . 4 ∗ . 1
且对应于各类别的 i 出现的先验概率 P(i )
及类条件概率密度 p ( x | i )已知
如果在特征空间已经观察到某一个向量x, 应
该把x分到哪一类?
引言
基本符号与定义
例:医生要根据病人血液中白细胞的浓度来
判断病人是否患血液病。(两分类问题)
根据以往医生的经验知道:
患病的人,白细胞的浓度与正常人不同
正态分布函数定义及性质
概率密度函数应满足下面关系:
≥ 0 −∞ < < +∞
+∞
න
−∞
() = 1
正态分布时的统计决策
正态分布函数定义及性质
多元正态分布
1
−1
−1
=
exp{
(
−
)
Σ ( − )}
/2
1/2
2
(2) |Σ|
其中
= [ , , … , ] 是d维列向量,
= [ , , … , ] 是d维均值向量,
(完整word版)模式识别第二章习题解答
题1:画出给定迭代次数为n的系统聚类法的算法流程框图题2:对如下5个6维模式样本,用最小聚类准则进行系统聚类分析x1: 0, 1, 3, 1, 3, 4 x2: 3, 3, 3, 1, 2, 1 x3: 1, 0, 0, 0, 1, 1 x4: 2, 1, 0, 2, 2, 1x5: 0, 0, 1, 0, 1, 0第1步:将每一样本看成单独一类,得(0)(0)(0)112233(0)(0)4455{},{},{}{},{}G x G x G x Gx Gx =====计算各类之间的欧式距离,可得距离矩阵(0)D第2步:矩阵(0)D (0)3G 和(0)5G 之间的距离,将他们合并为一类,得新的分类为(1)(0)(1)(0)(1)(0)(0)(1)(0)112233544{},{},{,},{}G G G G G G G G G ====计算聚类后的距离矩阵(1)D第3步:由于(1)D ,它是(1)3G 与(1)4G 之间的距离,于是合并(1)3G 和(1)4G ,得新的分类为 (2)(1)(2)(2)(2)(1)(1)1122334{},{},{,}G G G G G G G ===同样,按最小距离准则计算距离矩阵(2)D ,得第4步:同理得(3)(2)(3)(2)(2)11223{},{,}G G G G G ==满足聚类要求,如聚为2类,聚类完毕。
题3:选2k =,11210(1),(1)z x z x ==,用K —均值算法进行聚类分析第一步:选取1121007(1),(1)06z x z x ⎛⎫⎛⎫==== ⎪ ⎪⎝⎭⎝⎭第二步:根据聚类中心进行聚类,得到1123456782910111220(1){,,,,,,,}(1){,,,,}S x x x x x x x x S x x x x x ==第三步:计算新的聚类中心121128(1)1291020(1)2 1.250011(2)() 1.125087.666711(2)()7.333312x S x S z x x x x N z x x x x N ∈∈⎛⎫==+++= ⎪⎝⎭⎛⎫==+++= ⎪⎝⎭∑∑第四步:因(2)(1),1,2j j z z j ≠=,故回到第二步 第二步:根据新的聚类中心重新进行聚类,得到1123456782910111220(2){,,,,,,,}(2){,,,,}S x x x x x x x x S x x x x x ==第三步:计算新的聚类中心121128(2)1291020(2)2 1.250011(3)() 1.125087.666711(3)()7.333312x S x S z x x x x N z x x x x N ∈∈⎛⎫==+++= ⎪⎝⎭⎛⎫==+++= ⎪⎝⎭∑∑第四步:(3)(2),1,2j j z z j ==,所以算法收敛,得聚类中心为121.25007.6667,1.12507.3333z z ⎛⎫⎛⎫== ⎪ ⎪⎝⎭⎝⎭迭代结束。
模式识别第二章DiscriminantFunction资料
❖ 结论: g1(x) <0 , g2(x) >0 , g3(x) <0所以它属于ω2类
➢ 2.第二种情况:
➢每个模式类和其它模式类间可分别用判别平面分开。
❖这样 有 M(M _ 1)/2个判别平面。
❖对于两类问题,M=2,则有一个判别平面。
❖同理,三类问题则有三个判别平面。 g12(x) 0
❖ 判别函数: gij (x) WijT x ❖ 判别边界: gij ( x ) o
x2
2
1
g(x) w1x1 w2 x2 w3
x1
➢2. n维情况
❖ 现n个特征为: x ( x1 , x 2 , x 3 ,... x n ) T
❖ 判别函数:
g (x) w1x1 w2x2 ...... wnxn wn1
W
T 0
x
w n1
W0 (w1, w2 ,..., wn )T 为 权 向 量 ,
g
2
(
x)
0
g3 (x) 0
g2(x) 0
5
➢1.第一种情况(续)
❖ 对于任一模式X如果它的 g1(x) >0 , g2(x) <0 , g3(x) <0
❖ 则该模式属于ω1类。相应ω1类的区域由直线-x2+1=0
的正边、直线-x1+x2-5=0 和直线-x1+x2=0的负边来确定。
5
x2
g23(x) 0
2
gij
( x)
0 0
当x 当x
i i j
j
❖ 判别条件:
若gij ( x) 0 , 则x i
1
3
g13(x) 0
➢ 2. 第二种情况(续)
模式识别 第二章 贝叶斯决策论习题答案
2
= min p (ω1 x ) , p (ω2 x ) max p (ω1 x ) , p (ω2 x )
= p ω1 x p ω2 x
(
) (
)
所以, p ω1 x p ω2 x 能过给出误差率的下界。 d) 因为:
(
) (
)
pβ ( error ) = ∫ β p (ω1 x ) p ( ω2 x ) p ( x ) dx
α 4
∫
Hale Waihona Puke +∞p ( x ) dx <
显而易见: pα ( error ) < p ( error ) ,因此当 α < 2 时,无法得到误差率的上界。 c) 因为:
p ( error x ) ≥ p ( error x ) − p ( error x ) = p ( error x ) 1 − p ( error x )
i =1 ωi ≠ωmax
∑ P (ω x ) p ( x ) d x
i
c
= ∫ 1 − P (ωmax x ) p ( x ) dx = 1 − ∫ P (ωmax x ) p ( x ) dx
d) 续上式:
(
)
P ( error ) = 1 − ∫ P (ωmax x ) p ( x ) dx ≤ 1− ∫ 1 1 c −1 p ( x ) dx = 1 − = c c c
n t
′ ′ ′ Σ′ = ∑ ( x′ k − μ )( x k − μ )
k =1 n
= ∑ Tt ( x 0 k − μ )( x 0 k − μ ) T
t k =1
n t = Tt ∑ ( x 0 k − μ )( x 0 k − μ ) T k =1 = T t ΣT
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
(1)
(0) (1) (1) G1( 0 ) 与 G2(1) ~ G5(1) 之间以及 G2 与 G2 ~ G5 之间的两两
距离,并选用其最小者。
G1(1)
(1) G2
G3(1)
(1) G4
G5(1)
G1(1)
(1) G2
0
6 5 8
0
13 6 8
G3(1)
(1) G4
0
7
0
4
G5(1)
14
11
0
系统聚类算法: 第一步:设初始模式样本共有 N 个,每个样本自
(0) (0) (0) 成一类,即建立 N 类, G1 , G2 , , G N 。
计算各类之间的距离(初始时即为各样本间 的距离),得到一个 N×N 维的距离矩阵 D(0)。这里,标号(0)表示聚类开始运算前的 状态。 第二步:假设前一步聚类运算中已求得距离矩阵 D(n),n 为逐次聚类合并的次数,则求 D(n)中的最小元素。如果它是 Gi(n)和 Gj(n)两
特例:当 m=1 时, D1 ( x i , x j ) |x ik x jk | ,亦
k
称为街坊距离。 角度相似性函数
xTz 表达式: S( x, z) x z ,它表示模式向量
x 和 z 之间夹角的余弦,也称为 x 的单位向量与 z 的单位向量之间的点积。 特例:当特征的取值仅为(0, 1)两个值时,夹 角余弦度量具有特别的含义,即当模式的第 i 个分量为 1 时,认为该模式具有第 i 个特征; 当模式的第 i 个分量为 0 时,认为该模式无此 特征。这时,xTz 的值就等于 x 和 z 这两个向量 共同具有的特征数目。同时,
一般化的明氏距离 模式样本向量 xi 和 xj 之间的明氏距离表示为:
D m ( x i , x j ) ( x ik x jk ) m k
1/ m
其中 xik 和 xjk 分别表示 xi 和 xj 的第 k 各分量。 显然,当 m=2 时,明氏距离即为欧氏距离。
(0) G2 (0) G2
G3( 0 )
(0) G4
G5( 0 )
(0) G6
0
3 15 6
0
6 5 8
G3( 0 )
(0) G4
0
13 6 8
0
7
G5( 0 )
(0) G6
11 21
0
4
14
11
0
2. 矩阵 D(0)中最小距离元素为 3 ,它是 G1( 0) 和
(0) G2 之间的距离,将它们合并为一类,得新的
G1( 2 ) G1( 2 )
( 2) G2 ( 2) G2
G3( 2 )( 2)Fra bibliotekG40
6 5 8
0
13 6
G3( 2 )
( 2) G4
0
7
0
4. 同理,得
( 3) ( 2) ( 3) ( 2) G1(3) {G1( 2 ) , G3( 2 ) } , G2 {G4 } {G2 } , G3
(2)
最长距离法:设 H 和 K 是两个聚类,则两类
间的最长距离定义为:
D H ,K max{d u ,v }, u H, v K
其中 du,v 的含义与上面相同。
递推运算:假若 K 类是由 I 和 J 两类合并而成, 则
DH , I max{d m , n }, m H , n I DH , K max{DH , I , DH , J } DH , J max{d m , n }, m H , n J
求得距离矩阵 D(3)
G1( 3)
( 3) G2
G3(3)
G1( 3)
( 3) G2
0
6 7
0
6
G3(3)
0
此时得到最终分类结果: {x1, x2, x4}、{x3}、{x5, x6}
聚类准则函数 最短距离法:设 H 和 K 是两个聚类,则两类 间的最短距离定义为:
(1)
D H ,K min{d u ,v }, u H, v K
3. 矩阵 D(1)中最小距离元素为 4 ,它是 G4(1) 和
G5(1) 之间的距离,将它们合并为一类,得到新的
分类为
( 2) (1) G1( 2 ) {G1(1) } , G2 {G2 },
( 2) (1) G3 {G3 } , G4
( 2)
(1) {G4 , G5(1) }
同样,按最小距离准则计算距离矩阵 D(2)
降维方法 设有 N 个样本,它们的特征维数是 n,则有 n×n 维的相关矩阵
R = [rij]nxn
其中,rij 是第 i 维与第 j 维特征之间的相关系数:
ij rij ii jj
这里:σii 和 σjj 分别是第 i 个和第 j 个分量的标准差, λij 是第 i 个和第 j 个分量的协方差。 分析: (1)根据相关系数的性质: 0 rij 1 (利 用柯西不等式证明) (2)rij = 0:表示两个分量完全不相关 (3)rij = 1:表示两个分量完全相关
其中,du,v 表示 H 类中的样本 xu 和 K 类中的样 本 xv 之间的距离,DH,K 表示 H 类中的所有样本 和 K 类中的所有样本之间的最小距离。 递推运算:假若 K 类是由 I 和 J 两类合并而成, 则
DH , I min{d m,n }, m H , n I DH , K min{DH , I , DH , J } DH , J min{d m,n }, m H , n J
(3)
中间距离法:设 K 类是由 I 和 J 两类合并而
成,则 H 和 K 类之间的距离为:
D H ,K
1 2 1 1 2 D H ,I D 2 D I ,J H ,J 2 2 4
它介于最长距离和最短距离之间。 (4) 重心法:假设 I 类中有 nI 个样本,J 类中有 nJ 个样本,则 I 和 J 合并后共有 nI+nJ 个样本。 用 nI/(nI+nJ)和 nJ/(nI+nJ)代替中间距离法中的系 数,得到重心法的类间距离计算公式:
1. 将每个样本单独看成一类,得
(0) G1( 0 ) {x1 } , G2 {x 2 } , G3( 0 ) {x3 } ,
(0) (0) {x 6 } G4 {x 4 } , G5( 0 ) {x5 } , G6
计算各类之间的距离,得距离矩阵 D(0)
G1( 0 ) G1( 0 )
到聚类中心 z1, z2, …。 第一步: 任取一样本 xi 作为一个聚类中心的初始值,例如令 z1 = x1 计算 D21 = || x2 - z1 || 若 D21 > T,则确定一个新的聚类中心 z2 = x2 否则 x2 属于以 z1 为中心的聚类 第二步:假设已有聚类中心 z1、z2 计算 D31 = || x3 - z1 || D32 = || x3 - z2 || 若 D31 > T 且 D32 > T,则得一个新的聚类中心 z3 = x3 否则 x3 属于离 z1 和 z2 中的最近者 ······ 如此重复下去,直至将 N 个模式样本分类完毕。
x z ( x T x )(z T z) = {x 中具有的特征数目
和 z 中具有的特征数目的几何 平均} 因此,在特征取值为 0 和 1 的二值情况下,S(x, z)等于 x 和 z 中具有的共同特征数目的相似性测 度。
最近邻规则的试探算法 给定 N 个待分类的模式样本{x1, x2, …, xN},要求按距离阈值 T,将它们分类
D H ,K nJ n In J nI 2 D2 D D2 H ,I H ,J I ,J 2 nI nJ nI nJ (n I n J )
(5)
类平均距离法:若采用样本间所有距离的平
均距离,则有:
D H ,K
1 nH nK
d
iH jK
2 ij
递推运算公式:
D H ,K nJ nI D2 D2 H ,I H ,J nI nJ nI nJ
分类
(1) (0) (0) {G3( 0 ) } , G3(1) {G4 }, G1(1) {G1( 0 ) , G2 } , G2 (1) (0) G4 {G5( 0 ) } , G5(1) {G6 },
计算聚类后的距离矩阵 D(1)。因 G1 为 G1 和
(0) (0) G2 两类合并而成,按最小距离准则,可分别计算
一种聚类准则函数 J 的定义
J x mj
j1 xS j
c
2
其中,c 为聚类类别的数目, Sj 为第 j 个类别的样本集合,
mj 1 Nj
D ( x 1 z1 ) 2 ( x 2 z 2 ) 2
显然,模式 x 和 z 之间的距离越小,它们越 相似。欧氏距离的概念和习惯上距离的概念是 一致的。 马氏距离 设 x 是模式向量,m 是均值向量,C 为模式 总体的协方差矩阵,则马氏距离的表达式:
D 2 ( x m) T C 1 ( x m)
病人的病程 0 ~ 代表病程 <= 1 个月 1 ~ 代表 1 个月< 病程 <= 6 个月 2 ~ 代表 6 个月< 病程 <= 12 个月 3 ~ 代表病程 > 12 个月
欧氏距离 设 x 和 z 为两个模式样本,其欧氏距离定义
为:D = || x - z || 例:x = (x1, x2),z = (z1, z2),则
第五步: 若有 z3 存在,则计算 max{min(Di1, Di2, Di3), i = 1,2,…,N}。若该值超过||z1 - z2 ||的一 定比例,则存在 z4,否则找聚类中心的过程 结束。 在此例中,无 z4 满足条件。 第六步:将模式样本{xi, i = 1,2,…,N}按最近距离 分到最近的聚类中心: z1 = x1:{x1, x3, x4}为第一类 z2 = x6:{x2, x6}为第二类 z3 = x7:{x5, x7, x8, x9, x10}为第三类 最后,还可在每一类中计算各样本的均值,得 到更具代表性的聚类中心。