模式识别习题参考1齐敏-教材第7章
模式识别习题参考1齐敏-教材第7章
第6章 模糊模式识别法习题解答7.1 试分别说明近似性、随机性和含混性与模糊性在概念上的相同处与不同处。
解:(1) 近似性与模糊性的异同① 共同点:描述上的不精确性。
② 区别:不精确性的根源和表现形式不同。
a) 近似性:问题本身有精确解,描述时的不精确性源于认识条件的局限性和认识过程发展的不充分性。
b) 模糊性:问题本身无精确解,描述的不精确性来源于对象自身固有的性态上的不确定性。
(2) 随机性与模糊性的异同 ① 共同点:不确定性。
② 区别:模糊性和随机性所表现出的不确定性的性质不同。
a) 模糊性:表现在质的不确定性。
是由于概念外延的模糊性而呈现出的不确定性。
b) 随机性:是外在的不确定性。
是由于条件不充分,导致条件与事件之间不能出现确定的因果关系,事物本身的性态(性质、状态、特征等)和类属是确定的。
c) 排中律:即事件的发生和不发生必居且仅居其一,不存在第三种现象。
随机性遵守排中律,模糊性不遵守,它存在着多种,甚至无数种中间现象。
(3) 含混性与模糊性的异同 ① 共同点:不确定性。
② 区别:a) 含混性:由信息不充分(二义性)引起,一个含混的命题即是模糊的,又是二义的。
一个命题是否带有含混性与其应用对象或上下文有关。
b) 模糊性:是质的不确定性。
7.2 已知论域}3,2,1,0{=X ,~A 和~B 为X 中的模糊集合,分别为()()()(){}3,5.0,2,4.0,1,3.0,0,2.0~=A()()()(){}3,0,2,3.0,1,4.0,0,5.0~=B(1)求~~B A ,~~B A ,~A 和~B ;(2)求()~~~A B A 。
解:(1)由()()()⎪⎭⎫⎝⎛=x x x B A B A ~~~,max μμμ 有~~B A =()()()(){}3,5.0,2,4.0,1,4.0,0,5.0由()()()⎪⎭⎫⎝⎛=x x x B A B A ~~~,min μμμ 有~~B A ()()()(){}3,0,2,3.0,1,3.0,0,2.0=由()()x x A A ~~1μμ-=有~A ()()()(){}3,5.0,2,6.0,1,7.0,0,8.0= ~B ()()()(){}3,1,2,7.0,1,6.0,0,5.0=(2)()~~~A B A=()()()(){}3,5.0,2,4.0,1,4.0,0,5.0()()()(){}3,5.0,2,6.0,1,7.0,0,8.0()()()(){}3,5.0,2,4.0,1,4.0,0,5.0=7.3 已知两个模糊集合()(){}b a A ,8.0,,5.0~=,()(){}b a B ,2.0,,9.0~=试验证截集的两个性质:1)λλλB A B A =)~~(;2)λλλB A B A =)~~(。
模式识别习题2017杭电模式识别
《模式识别》课后习题注:章和习题编号与《模式识别》(第二版,清华大学出版社)一致,请按内容与其它教材对应,另有部分补充题目单独编号。
第二章 贝叶斯决策理论习题作业2.3 证明:在两类情况下12()()1P x P x ωω+= 2.4 分别写出在以下两种情况 (1)(2)下的最小错误率贝叶斯决策规则。
2.9 写出两类和多类情况下最小风险贝叶斯决策判别函数和决策方程。
2.20 对的特殊情况,证明(1) 若,则超平面靠近先验概率较小的类;(2) 在什么情况下,先验概率对超平面的位置影响不大。
2.24 二维正态分布,写出负对数似然比决策规则。
第三章 概率密度函数的估计3.1设总体分布密度为N (μ,1 ),-∞< μ < +∞,并设 R ={x 1,x 2,…,x N } ,分别用最大似然估计和贝叶斯估计计算求 , 已知μ的先验分布p(μ)~ N (0,1 )。
(3-2)试分析用Parzen 窗法估计的类概率密度函数,窗口尺寸h 过大或过小可能产生的影响,比较Kn 近邻估计较之于Parzen 窗法的优势。
12()()p x p x ωω=12()()P P ωω=2iI σ∑=()()i j P P ωω≠1212111122(1,0) (1,0) 111122T Tμμ⎡⎤⎡⎤-⎢⎥⎢⎥=-=∑=∑=⎢⎥⎢⎥⎢⎥⎢⎥-⎢⎥⎢⎥⎣⎦⎣⎦,,,12()()P P ωω=ˆμ第四章 线性判别函数4.4 对于二维线性判别函数12g()22x x x =+- (1)将判别函数写成0()T g x w x w =+的形式,并画出()0g x =的几何图形。
(2)映射成广义七次线性函数()Tg x a y =;(3)指出上述X 空间实际是Y 空间的一个子空间,且0Ta y =对于X 子空间的划分和原空间中00Tw w +=对原空间的划分相同,并在图上表示出来。
(4-2)两类样本点用感知器算法设计分类器。
模式识别导论习题参考答案-齐敏
④ max{min( D i1 , D i 2 )}
20 D 92 T
1 74 , Z 3 X 9 [7,3]T 2
⑤ 继续判断是否有新的聚类中心出现:
D10,1 65 D21 2 D11 0 74 52 D D , ,… 12 22 D10, 2 13 D13 58 D23 40 D10,3 1
G2 (0)
G 3 ( 0)
G4 ( 0 )
G5 (0)
0 1 2 18 32 0 5 13
25
G3 (0)
G4 (0)
0 10 20 0
2
G5 (0)
0
(2) 将最小距离 1 对应的类 G1 (0) 和 G2 (0) 合并为一类,得到新的分类
G12 (1) G1 (0), G2 (0) , G3 (1) G3 (0), G4 (1) G4 (0) , G5 (1) G5 (0)
2
X3 X 6 ) 3.2, 2.8
T
④ 判断: Z j ( 2) Z j (1) , j 1,2 ,故返回第②步。 ⑤ 由新的聚类中心得:
X1 : X2 :
D1 || X 1 Z 1 ( 2) || X 1 S1 ( 2 ) D2 || X 1 Z 2 ( 2) || D1 || X 2 Z1 ( 2) || X 2 S1 ( 2 ) D2 || X 2 Z 2 ( 2) ||
T
(1)第一步:任意预选 NC =1, Z1 X 1 0,0 ,K=3, N 1 , S 2 , C 4 ,L=0,I=5。 (2)第二步:按最近邻规则聚类。目前只有一类, S1 { X 1 , X 2 , , X 10 },N 1 10 。 (3)第三步:因 N 1 N ,无聚类删除。 (4)第四步:修改聚类中心
模式识别习题集
2.6 简述最小张树算法的优点。
2.7 证明马氏距离是平移不变的、非奇异线性变换不变的。 2.8 设,类 有
p 、 q 的重心分别为 x p 、 xq ,它们分别有样本 n p 、 n q 个。将和 q 合并为 l ,则 l
个样本。另一类
2 Dkl
nl n p nq
k 的重心为 x k 。试证明 k 与 l 的距离平方是
,JH 越(
),说明模式的
)(i=1,2,…,c)时,JH 取极大值。
1.20 Kn 近邻元法较之于 Parzen 窗法的优势在于 ( 上述两种算法的共同弱点主要是( )。 )。
1.21 已知有限状态自动机 Af=(,Q,,q0,F),={0,1};Q={q0,q1}; :(q0,0)= q1,(q0,1)= q1,(q1,0)=q0,(q1,1)=q0;q0=q0;F={q0}。现有输入字符串:(a) 00011101011,(b) 1100110011,(c) 101100111000,(d)0010011,试问,用 Af 对上述字符串进行分类 的结果为( 1.22 句法模式识别中模式描述方法有: (1)符号串 (2)树 (3)图 (4)特征向量 )。 。
《模式识别》习题集
一、基本概念题 1.1 是: 1.2、模式分布为团状时,选用 1.3 欧式距离具有 。 马式距离具有 模 式 识 、 别 的 三 大 、 聚类算法较好。 。 核 心 问 。 题
(1)平移不变性 (2)旋转不变性 (3)尺度缩放不变性 (4)不受量纲影响的特性 1.4 描述模式相似的测度有: (1)距离测度 (2)模糊测度 (3)相似测度 (4)匹配测度 ;(2) 个技术途径。 ; 。
(1)
模式识别习题参考-齐敏-教材第5章
第5章 特征选择与特征提取习题解答5.1 假定i ω类的样本集为},,,{4321X X X X ,它们分别为T 1]2,2[=X , T 2]2,3[=X ,T 3]3,3[=X ,T 4]2,4[=X(1) 求类内散布矩阵;(2) 求类内散布矩阵的特征值和对应的特征向量; (3) 求变换矩阵A ,将二维模式变换为一维模式。
解:(1)∑=⎥⎦⎤⎢⎣⎡=⎭⎬⎫⎩⎨⎧⎥⎦⎤⎢⎣⎡+⎥⎦⎤⎢⎣⎡+⎥⎦⎤⎢⎣⎡+⎥⎦⎤⎢⎣⎡==41493243323224141i i X M类内散布矩阵:∑=-=41TT 41i i i MM X X C[][][][][]49,34932,4243,3332,3232,22241⎥⎦⎤⎢⎣⎡-⎭⎬⎫⎩⎨⎧⎥⎦⎤⎢⎣⎡+⎥⎦⎤⎢⎣⎡+⎥⎦⎤⎢⎣⎡+⎥⎦⎤⎢⎣⎡= ⎥⎦⎤⎢⎣⎡=⎥⎦⎤⎢⎣⎡-⎥⎦⎤⎢⎣⎡=1630021168142742792127273841 (2)① 由0||=-C I λ求特征值。
01630021=--λλ()()016321=--λλ211=λ,1632=λ② 由0)(=-1u C I λ解得1λ对应的特征向量1u 为T ]0,1[=1u 。
由0)(=-2u C I λ解得2λ对应的特征向量2u 为T ]1,0[=2u 。
(3)① 选择较小特征值1632=λ对应的特征向量T ]1,0[=2u 构成变换矩阵。
2u 已为归一化特征向量,直接构成变换矩阵:[]1,0][T2==u A② 变换:222]1,0[1*1=⎥⎦⎤⎢⎣⎡==AX X223]1,0[2*2=⎥⎦⎤⎢⎣⎡==AX X333]1,0[3*3=⎥⎦⎤⎢⎣⎡==AX X224]1,0[3*3=⎥⎦⎤⎢⎣⎡==AX X5.2 给定两类样本,分别为1ω:T 1]5,5[--=X , T 2]4,5[--=X T 3]5,4[--=X ,T 4]6,5[--=XT 5]5,6[--=X2ω:T 6]5,5[=X , T 7]6,5[=XT 8]4,5[=X ,T 9]5,4[=X利用自相关矩阵R 作K-L 变换,进行一维特征提取。
模式识别复习要点和参考习题
复习要点绪论1、举出日常生活或技术、学术领域中应用模式识别理论解决问题的实例。
答:我的本科毕设内容和以后的研究方向为重症监护病人的状态监测与预诊断,其中的第一步就是进行ICU病人的死亡率预测,与模式识别理论密切相关。
主要的任务是分析数据库的8000名ICU病人,统计分析死亡与非死亡的生理特征,用于分析预测新进ICU病人的病情状态。
按照模式识别的方法步骤,首先从数据库中采集数据,包括病人的固有信息,生理信息,事件信息等并分为死亡组和非死亡组,然后分别进行数据的预处理,剔除不正常数据,对数据进行插值并取中值进行第一次特征提取,然后利用非监督学习的方法即聚类分析进行第二次特征提取,得到训练样本集和测试样本集。
分别利用判别分析,人工神经网络,支持向量机的方法进行训练,测试,得到分类器,实验效果比传统ICU 中采用的评价预测系统好一些。
由于两组数据具有较大重叠,特征提取,即提取模式特征就变得尤为重要。
语音识别,图像识别,车牌识别,文字识别,人脸识别,通信中的信号识别;① 文字识别汉字已有数千年的历史,也是世界上使用人数最多的文字,对于中华民族灿烂文化的形成和发展有着不可磨灭的功勋。
所以在信息技术及计算机技术日益普及的今天,如何将文字方便、快速地输入到计算机中已成为影响人机接口效率的一个重要瓶颈,也关系到计算机能否真正在我过得到普及的应用。
目前,汉字输入主要分为人工键盘输入和机器自动识别输入两种。
其中人工键入速度慢而且劳动强度大;自动输入又分为汉字识别输入及语音识别输入。
从识别技术的难度来说,手写体识别的难度高于印刷体识别,而在手写体识别中,脱机手写体的难度又远远超过了联机手写体识别。
到目前为止,除了脱机手写体数字的识别已有实际应用外,汉字等文字的脱机手写体识别还处在实验室阶段。
②语音识别语音识别技术技术所涉及的领域包括:信号处理、模式识别、概率论和信息论、发声机理和听觉机理、人工智能等等。
近年来,在生物识别技术领域中,声纹识别技术以其独特的方便性、经济性和准确性等优势受到世人瞩目,并日益成为人们日常生活和工作中重要且普及的安验证方式。
模式识别习题参考1_齐敏教材第6章
第5章 句法模式识别习题解答6.1 用链码法描述5~9五个数字。
解:用弗利曼链码表示,基元如解图6.1所示:数字5~9的折线化和量化结果如解图6.2所示:各数字的链码表示分别为:“5”的链码表示为434446600765=x ; “6”的链码表示为3444456667012=x ; “7”的链码表示为00066666=x ;0 17解图6.1 弗利曼链码基元解图6.2 数字5~9的折线化和量化结果“8”的链码表示为21013457076543=x ; “9”的链码表示为5445432107666=x 。
6.2 定义所需基本基元,用PDL 法描述印刷体英文大写斜体字母“H ”、“K ”和“Z ”。
解:设基元为:用PDL 法得到“H ”的链描述为)))))(~((((d d c d d x H ⨯+⨯+=;“K ”的链描述为))((b a d d x K ⨯⨯+=; “Z ”的链描述为))((c c g x Z ⨯-=。
6.3 设有文法),,,(S P V V G T N =,N V ,T V 和P 分别为},,{B A S V N =,},{b a V T =:P ①aB S →,②bA S →,③a A →,④aS A →⑤bAA A →,⑥b B →,⑦bS B →,⑧aBB B → 写出三个属于)(G L 的句子。
解:以上句子ab ,abba ,abab ,ba ,baab ,baba 均属于)(G L 。
bcadeabba abbA abS aB S ⇒⇒⇒⇒ ① ⑦ ② ③ab aB S ⇒⇒ ① ⑥ba bA S ⇒⇒② ③ abab abaB abS aB S ⇒⇒⇒⇒ ① ⑦ ① ⑥baab baaB baS bA S ⇒⇒⇒⇒ ② ④ ① ⑥baba babA baS bA S ⇒⇒⇒⇒② ④ ② ③6.4 设有文法),,,(S P V V G T N =,其中},,,{C B A S V N =,}1,0{=T V ,P 的各生成式为①A S 0→,②B S 1→,③C S 1→ ④A A 0→,⑤B A 1→,⑥1→A ⑦0→B ,⑧B B 0→,⑨C C 0→,⑩1→C问00100=x 是否属于语言)(G L ? 解:由可知00100=x 属于语言)(G L 。
模式识别习题及答案
模式识别习题及答案模式识别习题及答案模式识别是人类智能的重要组成部分,也是机器学习和人工智能领域的核心内容。
通过模式识别,我们可以从大量的数据中发现规律和趋势,进而做出预测和判断。
本文将介绍一些模式识别的习题,并给出相应的答案,帮助读者更好地理解和应用模式识别。
习题一:给定一组数字序列,如何判断其中的模式?答案:判断数字序列中的模式可以通过观察数字之间的关系和规律来实现。
首先,我们可以计算相邻数字之间的差值或比值,看是否存在一定的规律。
其次,我们可以将数字序列进行分组,观察每组数字之间的关系,看是否存在某种模式。
最后,我们还可以利用统计学方法,如频率分析、自相关分析等,来发现数字序列中的模式。
习题二:如何利用模式识别进行图像分类?答案:图像分类是模式识别的一个重要应用领域。
在图像分类中,我们需要将输入的图像分为不同的类别。
为了实现图像分类,我们可以采用以下步骤:首先,将图像转换为数字表示,如灰度图像或彩色图像的像素矩阵。
然后,利用特征提取算法,提取图像中的关键特征。
接下来,选择合适的分类算法,如支持向量机、神经网络等,训练模型并进行分类。
最后,评估分类结果的准确性和性能。
习题三:如何利用模式识别进行语音识别?答案:语音识别是模式识别在语音信号处理中的应用。
为了实现语音识别,我们可以采用以下步骤:首先,将语音信号进行预处理,包括去除噪声、降低维度等。
然后,利用特征提取算法,提取语音信号中的关键特征,如梅尔频率倒谱系数(MFCC)。
接下来,选择合适的分类算法,如隐马尔可夫模型(HMM)、深度神经网络(DNN)等,训练模型并进行语音识别。
最后,评估识别结果的准确性和性能。
习题四:如何利用模式识别进行时间序列预测?答案:时间序列预测是模式识别在时间序列分析中的应用。
为了实现时间序列预测,我们可以采用以下步骤:首先,对时间序列进行平稳性检验,确保序列的均值和方差不随时间变化。
然后,利用滑动窗口或滚动平均等方法,将时间序列划分为训练集和测试集。
模式识别习题参考-齐敏-教材第4章
第4章 基于统计决策的概率分类法习题解答4.1 分别写出以下两种情况下,最小错误率贝叶斯决策规则:(1)两类情况,且)|()|(21ωωX X p p =。
(2)两类情况,且)()(21ωωP P =。
解:最小错误率贝叶斯决策规则为:若(){}M j P p P p j j i i ,,2,1),()|(max )|( ==ωωωωX X ,则i ω∈X两类情况时为:若())()|()|(2211ωωωωP p P p X X >,则1ω∈X 若())()|()|(2211ωωωωP p P p X X <,则2ω∈X(1)当)|()|(21ωωX X p p =,变为:若())(21ωωP P >,则1ω∈X 若())(21ωωP P <,则2ω∈X(2)当)()(21ωωP P =时,变为:若)|()|(21ωωX X p p >,则1ω∈X 若)|()|(21ωωX X p p <,则2ω∈X4.2 假设在某个地区的疾病普查中,正常细胞(1ω)和异常细胞(2ω)的先验概率分别为9.0)(1=ωP ,1.0)(2=ωP 。
现有一待识别细胞,其观察值为X ,从类概率密度分布曲线上查得2.0)|(1=ωX p ,4.0)|(2=ωX p ,试对该细胞利用最小错误率贝叶斯决策规则进行分类。
解1: ∑=1)(=2111)(|)()|()|(i iiP X p P X p X P ωωωωω818.01.04.09.02.09.02.0≈⨯+⨯⨯=182.01.04.09.02.01.04.0)|(2≈⨯+⨯⨯=X P ω)|()|(21X P X P ωω> 1ω∈∴X (正常)解2:()18.09.02.0)|(11=⨯=ωωP X p ,()04.01.04.0)|(22=⨯=ωωP X p())()|()|(2211ωωωωP X p P X p > 1ω∈∴X (正常)4.3 设以下模式类具有正态概率密度函数:1ω:T 1]0,0[=X ,T 2]0,2[=X ,[]T 32,2=X ,T 4]2,0[=X2ω:[]T 54,4=X ,[]T 64,6=X ,[]T 76,6=X ,[]T 86,4=X(1)设5.0)()(21==ωωP P ,求两类模式之间贝叶斯判别界面的方程式。
模式识别课后习题答案
– (1) E{ln(x)|w1} = E{ln+1(x)|w2} – (2) E{l(x)|w2} = 1 – (3) E{l(x)|w1} − E2{l(x)|w2} = var{l(x)|w2}(教材中题目有问题) 证∫ 明ln+:1p对(x于|w(12)),dxE={ln∫(x()∫p(|wp(x(1x|}w|w=1)2))∫n)+nl1nd(xx)所p(x以|w∫,1)Ed{xln=(x∫)|w(1p(}p(x(=x|w|Ew1)2{))ln)n+n+11d(xx)又|wE2}{ln+1(x)|w2} = 对于(2),E{l(x)|w2} = l(x)p(x|w2)dx = p(x|w1)dx = 1
对于(3),E{l(x)|w1} − E2{l(x)|w2} = E{l2(x)|w2} − E2{l(x)|w2} = var{l(x)|w2}
• 2.11 xj(j = 1, 2, ..., n)为n个独立随机变量,有E[xj|wi] = ijη,var[xj|wi] = i2j2σ2,计 算在λ11 = λ22 = 0 及λ12 = λ21 = 1的情况下,由贝叶斯决策引起的错误率。(中心极限 定理)
R2
R1
容易得到
∫
∫
p(x|w2)dx = p(x|w1)dx
R1
R2
所以此时最小最大决策面使得P1(e) = P2(e)
• 2.8 对于同一个决策规则判别函数可定义成不同形式,从而有不同的决策面方程,指出 决策区域是不变的。
3
模式识别(第二版)习题解答
模式识别习题及答案-精品资料
第一章绪论1 •什么是模式?具体事物所具有的信息。
模式所指的不是事物本身,而是我们从事物中获得的—信息__。
2. 模式识别的定义? 让计算机来判断事物。
3. 模式识别系统主要由哪些部分组成? 数据获取一预处理一特征提取与选择一分类器设计/分类决策。
第二章贝叶斯决策理论P ( W 2 ) / p ( w 1 ) _,贝V X1. 最小错误率贝叶斯决策过程?答:已知先验概率,类条件概率。
利用贝叶斯公式 得到后验概率。
根据后验概率大小进行决策分析。
2 .最小错误率贝叶斯分类器设计过程?答:根据训练数据求出先验概率P ( W i ), i类条件概率分布p ( x | W i ), i 1 , 2 利用贝叶斯公式得到后验概率P (W i | x)P(X | W j )P(W j )j 1如果输入待测样本 X ,计算X 的后验概率根据后验概率大小进行分类决策分析。
3. 最小错误率贝叶斯决策规则有哪几种常用的表示形式?决策规则的不同形式(董点)C1^ 如vr, | JV ) = max 戶(vr ] WJ A * U vtvEQ 如杲尹a H ; )2^(ir, ) = max |沪0輕』),则x e HpCx |=尸4 "J"匕< 4) 如!4i= — 1IL | /( JV )] = — 111 戸(兀 | w”. ) -+- 11111r a4. 贝叶斯决策为什么称为最小错误率贝叶斯决策?答:最小错误率Bayes 决策使得每个观测值下的条件错误率最小因而保证了 (平均)错误率最小。
Bayes 决策是最优决策:即,能使决策错误率最小。
5 .贝叶斯决策是 由先验概率和(类条件概率)概率,推导(后验概率)概率,然后利用这 个概率进行决策。
6.利用乘法法则和全概率公式证明贝叶斯公式p(AB) p(A|B)p(B) p(B|A)p(A)P (A」B )答:m所以推出贝叶斯公式p(B) p(B|Aj)p(Aj)j 17. 朴素贝叶斯方法的条件独立D (1P (x | W i ) P(W i )i i入)2P(x | W j ) P (w j )j 11 ,2P (x | W i )P(W i )如果 I (x)P(B |A i )P(AJ P ( B ) P ( B | A i ) P ( A i ) 7MP ( B | A j ) P ( A j )2假设是( P(x| 3 i) =P(x1, x2, …,xn | co i)19.=P(x1|3 i) P(x2| 3 i)…P(xn| 3 i))8•怎样利用朴素贝叶斯方法获得各个属性的类条件概率分布?答:假设各属性独立,P(x| 3 i) =P(x1, x2, …,xn |3 i) = P(x1| 3 i) P(x2| 3 i)P(xn| 3 i)后验概率:P( 3 i|x) = P( 3 i) P(x1|3 i) P(x2| 3 i)…P(xn| 3 i)类别清晰的直接分类算,如果是数据连续的,假设属性服从正态分布,算出每个类的均值方 差,最后得到类条件概率分布。
习题
《模式识别》习题第一章.引论思考题:1.模式识别在哪些领域有哪些应用?2.机器能否实现与人相同的模式识别能力?为什么?第二章.线性判别函数1.(1)指出从x 到超平面0)(w x w x g T +=的距离|||||)(|w x g r =是在0)(=q x g 的约束条件下,使 2||||q x x - 达到极小的解。
(2)指出在超平面上的投影是w w x g x x p 2||||)(-= 2.设有一维空间二次判别函数2975)(x x x g ++=(1)试映射成广义齐次线性判别函数(2)总结把高次函数映射成齐次线性函数的方法3.对于二维线性判别函数22)(21-+=x x x g(1)将判别函数写成 0)(w x w x g T += 的形式,并画出0)(=x g 的几何图形。
(2)映射成广义齐次线性判别函数 y a x g T=)((3)指出上述X 空间实际是Y 空间的一个子空间,且 0=y a T 对X 子空间的划分与原空间中 00=+w x w T 对原X 空间的划分相同,并在图上表示出来。
4.编写用感知准则函数和梯度下降法求解权向量的算法程序(用Matlab 或C 语言均可)。
5.编写固定增量法程序,并求两类样本集 1X = {T )1,1,1(-,T )2,1,1(-,T )2,2,1(-}2X = {T )1,1,1(--,T )0,1,1(-,T )1,2,1(--}的解权向量。
6.已知Fisher 准则函数为 wS w w S w w J W T B T =)(, (1)说明是否一般的分数函数都可以用Lagrange 乘子法求极值解;(2)分析)(w J 可用Lagrange 乘子法求解的条件。
7.编写Fisher 准则求投影方向的算法程序。
第三章.Bayes 决策理论1. 利用概率论中的乘法定理和全概率公式证明Bayes 公式:)()()|()|(x p P x p x P i i i ωωω= 2. 证明:在两类情况下1)|()|(21=+x P x P ωω3. 分别写出在以下两种情况下的最小错误率Bayes 决策规则,(1) )|()|(21ωωx P x P =(2) )()(21ωωP P =4. 在图像识别中,假设有灌木丛和坦克两种类型,它们的先验概率分别是0.7和0.3,损失函数如下表所示:其中,1ω和2ω分别表示灌木丛和坦克,决策a1=w1, a2=w2。
模式识别练习题及答案.docx
1=填空题1、模式识别系统的基本构成单元包括:模式采集、特征选择与提取和模式分类。
2、统计模式识别中描述模式的方法一般使用特征矢量;句法模式识别中模式描述方法一般有串、树、网。
3、影响层次聚类算法结果的主要因素有计算模式距离的测度、聚类准则、类间距离门限、预定的类别数目。
4、线性判别函数的正负和数值大小的几何意义是正(负)表示样本点位于判别界面法向量指向的正(负)半空间中;绝对值正比于样本点到判别界面的距离。
5、感知器算法丄。
(1 )只适用于线性可分的情况;(2)线性可分、不可分都适用。
6、在统计模式分类问题中,聂曼-皮尔逊判决准则主要用于某一种判决错误较另一种判决错误更为重愛情况;最小最大判别准则主要用于先验概率未知的情况。
7、“特征个数越多越有利于分类”这种说法正确吗?错误。
特征选择的主要目的是从n个特征中选出最有利于分类的的m个特征(m<n),以降低特征维数。
一般在可分性判据对特征个数具有单调性和(C n m»n )的条件下,可以使用分支定界法以减少计算量。
& 散度Jij越大,说明。
类模式与3j类模式的分布差别越大;当3类模式与(Oj类模式的分布相同时,Jij=_O_.选择题1、影响聚类算法结果的主要因素有(BCD ).A.已知类别的样本质量B.分类准则C.特征选取D.模式相似性测度2、模式识别中,马式距离较之于欧式距离的优点是(CD )。
A.平移不变性B.旋转不变性C.尺度不变性D.考虑了模式的分布3、影响基本K-均值算法的主要因素有(DAB )。
A.样本输入顺序B.模式相似性测度C.聚类准则D.初始类中心的选取4、在统计模式分类问题中,当先验概率未知时,可以使用(BD )。
A.最小损失准则B.最小最大损失准则C.最小误判概率准则D.N-P判决5、散度环是根据(C )构造的可分性判据。
A.先验概率B.后验概率C.类概率密度D.信息燔E.几何距离6、如果以特征向量的相关系数作为模式相似性测度,则影响聚类算法结果的主要因素有(B C )。
2007年《模式识别》试题标准答案及评分标准(B卷)
《模式识别》试题答案及评分标准(B卷)姓名:学号:成绩:一、填空与选择填空(本题答案写在此试卷上,30分)1、模式识别系统的基本构成单元包括:模式采集、特征提取与选择和模式分类。
2、统计模式识别中描述模式的方法一般使用特真矢量;句法模式识别中模式描述方法一般有串、树、网。
3、聚类分析算法属于(1);判别域代数界面方程法属于(3)。
(1)无监督分类 (2)有监督分类(3)统计模式识别方法(4)句法模式识别方法4、若描述模式的特征量为0-1二值特征量,则一般采用(4)进行相似性度量。
(1)距离测度(2)模糊测度(3)相似测度(4)匹配测度5、下列函数可以作为聚类分析中的准则函数的有(1)(3)(4)。
(1)(2) (3)(4)6、Fisher线性判别函数的求解过程是将N维特征矢量投影在(2)中进行。
(1)二维空间(2)一维空间(3)N-1维空间7、下列判别域界面方程法中只适用于线性可分情况的算法有(1);线性可分、不可分都适用的有(3)。
(1)感知器算法(2)H-K算法(3)积累位势函数法8、下列四元组中满足文法定义的有(1)(2)(4)。
(1)({A, B}, {0, 1}, {A→01, A→ 0A1 , A→ 1A0 , B→BA , B→ 0}, A)(2)({A}, {0, 1}, {A→0, A→ 0A}, A)(3)({S}, {a, b}, {S → 00S, S → 11S, S → 00, S → 11}, S)(4)({A}, {0, 1}, {A→01, A→ 0A1, A→ 1A0}, A)二、(15分)简答及证明题(1)影响聚类结果的主要因素有那些?(2)证明马氏距离是平移不变的、非奇异线性变换不变的。
(1)(5分)答:分类准则,模式相似性测度,特征量的选择,量纲。
(2)(10分)证明:(2分)(2分)(1分)设,有非奇异线性变换:(1分)(4分)三、(8分)说明线性判别函数的正负和数值大小在分类中的意义并证明之。
模式识别习题参考-齐敏-教材第2章
2聚类分析习题解答2.1 设有10个二维模式样本,如图2.13所示。
若21=θ,试用最大最小距离算 法对他们进行聚类分析。
解:① 取T 11]0,0[==X Z 。
② 选离1Z 最远的样本作为第二聚类中心2Z 。
()()201012221=-+-=D ,831=D ,5841=D ,4551=D5261=D ,7471=D ,4581=D ,5891=D ,651,10=D ∵ 最大者为D 71,∴T 72]7,5[==X Z742121=-=Z Z θT ③ 计算各样本与{}21,Z Z 间距离,选出其中的最小距离。
7412=D ,5222=D ,3432=D ,…,132,10=D }13,20,17,0,2,5,4,8,2,0{),min(21=i i D D ④ 742120)},max{min(9221=>==T D D D i i ,T 93]3,7[==∴X Z ⑤ 继续判断是否有新的聚类中心出现:⎪⎩⎪⎨⎧===58740131211D D D ,⎪⎪⎩⎪⎪⎨⎧===40522232221D D D ,…⎪⎪⎩⎪⎪⎨⎧===113653,102,101,10D D D13579X 1图2.13 10个二维模式样本}1,0,1,0,2,5,4,8,2,0{),,min(321=i i i D D D 74218)},,max{min(31321=<==T D D D D i i i 寻找聚类中心的步骤结束。
⑥ 按最近距离分到三个聚类中心对应的类别中:3211,,:X X X ω;76542,,,:X X X X ω;10983,,:X X X ω2.2 设有5个二维模式样本如下:T 1]0,0[=X ,T 2]1,0[=X ,[]T30,2=X ,T 4]3,3[=X ,[]T54,4=X定义类间距离为最短距离,且不得小于3。
利用层次聚类法对5个样本进行 分类。
解:(1) 将每一样本看作单独一类,得{}11)0(X =G ,{}22)0(X =G ,{}33)0(X =G ,{}44)0(X =G ,{}55)0(X =G计算各类间欧氏距离:2112)0(X X -=D ()()212221222111][x x x x -+-=[]1101=+=2)0(3113=-=X X D 同理可求得:)0(14D ,)0(15D ;)0(23D ,)0(24D ,)0(25D ; )0(34D ,)0(35D ; )0(45D ; 得距离矩阵D (0)为(2) 将最小距离1对应的类)0(1G 和)0(2G 合并为一类,得到新的分类{})0(),0()1(2112G G G =,{})0()1(33G G =,{})0()1(44G G =,{})0()1(55G G =按最短距离法计算类间距离,由D (0)矩阵递推得到聚类后的距离矩阵D (1)为(3) 将D (1)中最小值2对应的类合并为一类,得D (2)。
模式识别第二版答案完整版
1. 对c类情况推广最小错误率率贝叶斯决策规则; 2. 指出此时使错误率最小等价于后验概率最大,即P (wi|x) > P (wj|x) 对一切j ̸= i
成立时,x ∈ wi。
2
模式识别(第二版)习题解答
解:对于c类情况,最小错误率贝叶斯决策规则为: 如果 P (wi|x) = max P (wj|x),则x ∈ wi。利用贝叶斯定理可以将其写成先验概率和
(2) Σ为半正定矩阵所以r(a, b) = (a − b)T Σ−1(a − b) ≥ 0,只有当a = b时,才有r(a, b) = 0。
(3) Σ−1可对角化,Σ−1 = P ΛP T
h11 h12 · · · h1d
• 2.17 若将Σ−1矩阵写为:Σ−1 = h...12
h22 ...
P (w1) P (w2)
= 0。所以判别规则为当(x−u1)T (x−u1) > (x−u2)T (x−u2)则x ∈ w1,反
之则s ∈ w2。即将x判给离它最近的ui的那个类。
[
• 2.24 在习题2.23中若Σ1 ̸= Σ2,Σ1 =
1
1
2
策规则。
1]
2
1
,Σ2
=
[ 1
−
1 2
−
1 2
] ,写出负对数似然比决
1
6
模式识别(第二版)习题解答
解:
h(x) = − ln [l(x)]
= − ln p(x|w1) + ln p(x|w2)
=
1 2 (x1
−
u1)T
Σ−1 1(x1
−
u1)
−
1 2 (x2
模式识别习题参考1齐敏-教材第3章
第2章 判别函数及几何分类法习题解答3.1 在一个10类的模式识别问题中,有三类单独满足多类情况1,其余的类别满足多类情况2。
问该模式识别问题所需判别函数的最少数目为多少? 答:满足多类情况1的3类问题,需要3个判别函数, 满足多类情况2的7类问题,需要212)17(7=-个判别函数, 3+21=24即共需24个判别函数。
3.2 一个三类问题,其判别函数为()42211-+=x x d X , ()44212+-=x x d X , ()313+-=x d X(1) 设这些函数是在多类情况1条件下确定的,绘出判别界面及每一模式类别的区域。
(2) 设为多类情况2,并使()()X X 112d d =,()()X X 213d d =,()()X X 323d d =,绘出判别界面及每一模式类别的区域。
(3) 设()X 1d ,()X 2d 和()X 3d 是在多类情况3的条件下确定的,绘出其判别界面及每一模式类别的区域。
解:(1)多类情况1时的判别界面及每一模式类别的区域如解图3.1所示。
(2)多类情况2时的判别界面及每一模式类别的区域如解图3.2所示。
(3)多类情况3:三个判别界面方程为:086)44()42()()(2212121=-=+---+=-x x x x x d d X X ,即0432=-x 0722)3()42()()(2112131=-+=+---+=-x x x x x d d X X 0142)3()44()()(2112132=+-=+--+-=-x x x x x d d X X满足0)()(21>-X d X d 且0)()(31>-X d X d 的区域属于1ω类分布区域。
满足0)()(12>-X d X d 且0)()(32>-X d X d 的区域属于2ω类分布区域。
满足0)()(13>-X d X d 且0)()(23>-X d X d 的区域属于3ω类分布区域。
模式识别课后习题答案
• 2.4 分别写出在以下两种情况 1. P (x|w1 ) = P (x|w2 ) 2. P (w1 ) = P (w2 ) 下的最小错误率贝叶斯决策规则。 解: 当P (x|w1 ) = P (x|w2 )时,如果P (w1 ) > P (w2 ),则x ∈ w1 ,否则x ∈ w2 。 当P (w1 ) = P (w2 )时,如果P (x|w1 ) > P (x|w2 ),则x ∈ w1 ,否则x ∈ w2 。 • 2.5 1. 对c类情况推广最小错误率率贝叶斯决策规则; 2. 指出此时使错误率最小等价于后验概率最大,即P (wi |x) > P (wj |x) 对一切j ̸= i 成立时,x ∈ wi 。 2
模式识别(第二版)习题解答
解:对于c类情况,最小错误率贝叶斯决策规则为: 如果 P (wi |x) = max P (wj |x),则x ∈ wi 。利用贝叶斯定理可以将其写成先验概率和
j =1,...,c
类条件概率相联系的形式,即 如果 p(x|wi )P (wi ) = max p(x|wj )P (wj ),则x ∈ wi 。
• 2.16 证明M ahalanobis距离r符合距离定义三定理,即 – (1) r(a, b) = r(b, a) – (2) 当且仅当a = b时,r(a, b) = 0 – (3) r(a, c) ≤ r(a, b) + r(b, c) 证明: (1) r(a, b) = (a − b)T Σ−1 (a − b) = (b − a)T Σ−1 (b − a) = r(b, a) (2) Σ为半正定矩阵所以r(a, b) = (a − b)T Σ−1 (a − b) ≥ 0,只有当a = b时,才有r(a, b) = 0。 (3) Σ−1 可对角化,Σ−1 = P ΛP T • 2.17 若将Σ−1 矩阵写为:Σ−1 h1d h2d ,证明M ahalanobis距离平方为 . . . hdd
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第7章 模糊模式识别法习题解答7.1 试分别说明近似性、随机性和含混性与模糊性在概念上的相同处与不同处。
解:(1) 近似性与模糊性的异同① 共同点:描述上的不精确性。
② 区别:不精确性的根源和表现形式不同。
a) 近似性:问题本身有精确解,描述时的不精确性源于认识条件的局限性和认识过程发展的不充分性。
b) 模糊性:问题本身无精确解,描述的不精确性来源于对象自身固有的性态上的不确定性。
(2) 随机性与模糊性的异同 ① 共同点:不确定性。
② 区别:模糊性和随机性所表现出的不确定性的性质不同。
a) 模糊性:表现在质的不确定性。
是由于概念外延的模糊性而呈现出的不确定性。
b) 随机性:是外在的不确定性。
是由于条件不充分,导致条件与事件之间不能出现确定的因果关系,事物本身的性态(性质、状态、特征等)和类属是确定的。
c) 排中律:即事件的发生和不发生必居且仅居其一,不存在第三种现象。
随机性遵守排中律,模糊性不遵守,它存在着多种,甚至无数种中间现象。
(3) 含混性与模糊性的异同 ① 共同点:不确定性。
② 区别:a) 含混性:由信息不充分(二义性)引起,一个含混的命题即是模糊的,又是二义的。
一个命题是否带有含混性与其应用对象或上下文有关。
b) 模糊性:是质的不确定性。
7.2 已知论域}3,2,1,0{=X ,~A 和~B 为X 中的模糊集合,分别为()()()(){}3,5.0,2,4.0,1,3.0,0,2.0~=A()()()(){}3,0,2,3.0,1,4.0,0,5.0~=B(1)求~~B A ,~~B A ,~A 和~B ;(2)求()~~~A B A 。
解:(1)由()()()⎪⎭⎫⎝⎛=x x x B A B A ~~~,max μμμ 有~~B A =()()()(){}3,5.0,2,4.0,1,4.0,0,5.0由()()()⎪⎭⎫⎝⎛=x x x B A B A ~~~,min μμμ 有~~B A ()()()(){}3,0,2,3.0,1,3.0,0,2.0=由()()x x A A ~~1μμ-=有~A ()()()(){}3,5.0,2,6.0,1,7.0,0,8.0= ~B ()()()(){}3,1,2,7.0,1,6.0,0,5.0=(2)()~~~A B A=()()()(){}3,5.0,2,4.0,1,4.0,0,5.0()()()(){}3,5.0,2,6.0,1,7.0,0,8.0()()()(){}3,5.0,2,4.0,1,4.0,0,5.0=7.3 已知两个模糊集合()(){}b a A ,8.0,,5.0~=,()(){}b a B ,2.0,,9.0~=试验证截集的两个性质:1)λλλB A B A =)~~(;2)λλλB A B A =)~~(。
解:(1)验证λλλB A B A =)~~(左边:()(){}b a B A ,2.08.0,,9.05.0~~∨∨= ()(){}b a ,8.0,,9.0={}b a B A ,)~~(5.0=右边:{}b a A ,5.0=,{}a B =5.0,有{}b a B A ,5.05.0= 所以:左边 = 右边。
(2)验证λλλB A B A =)~~(左边:()(){}b a B A ,2.08.0,,9.05.0~~∧∧= ()(){}b a ,2.0,,5.0={}a B A =3.0)~~(右边:{}b a A ,3.0=,{}a B =3.0,有{}a B A =3.03.0 所以:左边 = 右边。
7.4 判断模糊矩阵⎪⎪⎪⎪⎪⎭⎫ ⎝⎛=13.03.01.02.012.03.01.03.012.02.01.03.01R 是否是传递模糊矩阵。
解:⎪⎪⎪⎪⎪⎭⎫⎝⎛⎪⎪⎪⎪⎪⎭⎫ ⎝⎛=13.03.01.02.012.03.01.03.012.02.01.03.0113.03.01.02.012.03.01.03.012.02.01.03.01R R ⎪⎪⎪⎪⎪⎭⎫⎝⎛∨∨∨∨∨∨∨∨∨∨∨∨∨∨∨= 1.03.02.02.02.01.01.02.02.01.03.01.03.01.03.03.01.01.02.01⎪⎪⎪⎪⎪⎭⎫ ⎝⎛=13.03.03.02.013.03.02.03.013.02.03.03.01 由计算结果可见R R R ⊆ 不成立,故R 不是传递模糊矩阵。
7.5 证明7.5节定理1:对n n ⨯阶模糊等价矩阵R ,当且仅当[]1,0∈∀λ时,λR 都是等价的布尔矩阵。
证明:设()ij r =R ,()λλij r =R(1)证明自反性,即证明由1=ii r 可导出1=λii r 。
∴≤≤,10λ 结论显然成立。
(2)证明对称性,即证明由ji ij r r =可导出λλji ij r r =。
采用反证法:设由ji ij r r =可导出λλji ij r r ≠,则对[]1,0∈∀λ,由λλji ij r r ≠必有ji ij r r ≠,与题设矛盾,得证。
(3)证明传递性(R R R ⊇),即证明由()jk ij n j ik r r r ∧∨≥=1可导出()λλλjk ij nj ik r r r ∧∨≥=1。
布尔矩阵中元素只有0和1,故考虑两种情况。
a) 当1=λik r 时,因为“1”是布尔矩阵中的最大值,故不等式()λλλjkij nj ik r r r ∧∨≥=1必然成立。
b) 当0=λikr 时,有λ<ik r ,即: 由()jk ij nj ik r r r ∧∨≥=1,有(){}n j r r r r r jk ij jk ij nj ik ,,1,max 1=∧>⇒∧∨>⇒>=λλλ()n j r r jk ij ,,1,=∧>∴λ不失一般性,设ij r 为较小者,则()0001=∧∨⇒=∧⇒=⇒>=λλλλλλjk ij nj jk ij ij ij r r r r r r ()λλλjkij nj ik r r r ∧∨≥=1仍成立,即传递性成立。
λR 满足自反性、对称性、传递性, λR ∴是等价的布尔矩阵。
7.6 证明7.5节定理2:若10≤≤≤μλ,则μR 所分出的每一类必是λR 所分出的某一类的子类。
证明:11=⇒≥==⇒≥⇒=≥λλμμλμij ij ij ij r r r r亦即:由1=μij r 可导出1=λij r ,所以μR 所分出的每一类必是λR 所分出的某一类的子类。
7.7 设论域{}321,,x x x X =,在X 中有模糊集合()()(){}321,0.1,,8.0,,6.0~x x x A = ()()(){}321,8.0,,6.0,,4.0~x x x B =求格贴近度。
解:()()⎥⎦⎤⎢⎣⎡∧∨=∈∙i B i A X x x x B A ~~~~μμ 8.08.06.04.0)8.00.1()6.08.0()4.06.0(=∨∨=∧∨∧∨∧=()()⎥⎦⎤⎢⎣⎡∨∧=∈i B i A X x x x B A ~~~~μμ⊙ 6.00.18.06.0)8.00.1()6.08.0()4.06.0(=∧∧=∨∧∨∧∨= ()()[]~~1~~21~,~B A B A B A ⊙-+=∴∙σ()[]6.06.018.021=-+=7.8 设论域为{}4321,,,x x x x X =,~A 和~B 是论域X 上的两个模糊集,X 上每个元素隶属于~A 和~B 的隶属度分别表示为{}43213.0,4.0,7.0,5.0~x x x x A = {}43215.0,7.0,8.0,7.0~x x x x B = 下式为采用内积、外积函数表示的一种贴近度())~~~~()(1~,~B A B A A A B A ⊙-+--=∙σ其中A ,A 分别为模糊集~A 中隶属度的最大值和最小值,求贴近度()~,~B A σ。
解:()()⎥⎦⎤⎢⎣⎡∧∨=∈∙i B i A X x x x B A ~~~~μμ 7.03.04.07.05.0)5.03.0()7.04.0()8.07.0()7.05.0(=∨∨∨=∧∨∧∨∧∨∧=()()⎥⎦⎤⎢⎣⎡∨∧=∈i B i A X x x x B A ~~~~μμ⊙ 5.05.07.08.07.0)5.03.0()7.04.0()8.07.0()7.05.0(=∧∧∧=∨∧∨∧∨∧∨=())~~~~()(1~,~B A B A A A B A ⊙-+--=∙σ8.0)5.07.0()3.07.0(1=-+--=7.9已知三个模糊集合分别为()()()(){}4321,1.0,,5.0,,4.0,,2.0~x x x x A =()()(){}4321,1.0,,3.0,,6.0~x x x B = ()()(){}3212,5.0,,3.0,,2.0~x x x B =(1) 用海明距离和海明贴近度判别~1B ,~2B 哪个与~A 最相近;(2) 用格贴近度判别~1B ,~2B 哪个与~A 最相近。
解:(1) ① 用海明距离判断∑=-=411)()()~,~(~~1i i B i A H x x B A d μμ6.01.01.03.05.06.04.002.0=-+-+-+-=∑=-=412)()()~,~(~~2i i B i A H x x B A d μμ 2.001.05.05.03.04.02.02.0=-+-+-+-=)~,~()~,~(12B A d B A d H H < ∴~2B 与~A 最相近。
② 利用海明贴近度判断⎪⎭⎫ ⎝⎛~,~1B A H σ()()∑=--=41~~1411i i B i A x x μμ85.0)02.02.02.0(411=+++-=⎪⎭⎫ ⎝⎛~,~2B A H σ()()∑=--=41~~2411i i B i A x x μμ 95.0)1.001.00(411=+++-=⎪⎭⎫ ⎝⎛>⎪⎭⎫ ⎝⎛~,~~,~12B A B A H H σσ∴ ~2B 与~A 最相近。
(2) 用格贴近度()()[]~~1~~21~,~B A B A B A ⊙-+=∙σ判断()()⎥⎦⎤⎢⎣⎡∧∨=∈∙i B i A X x x x B A ~~1~~1μμ 4.01.03.04.00)1.01.0()3.05.0()6.04.0()02.0(=∨∨∨=∧∨∧∨∧∨∧=()()⎥⎦⎤⎢⎣⎡∨∧=∈i B i A X x x x B A ~~1~~1μμ⊙ 1.01.05.06.02.0)1.01.0()3.05.0()6.04.0()02.0(=∧∧∧=∨∧∨∧∨∧∨=⎥⎦⎤⎢⎣⎡⎪⎭⎫ ⎝⎛-+=⎪⎭⎫ ⎝⎛∴∙~~1~~21~,~111B A B A B A ⊙σ()[]65.01.014.021=-+=()()⎥⎦⎤⎢⎣⎡∧∨=∈∙i B i A X x x x B A ~~2~~2μμ 5.005.03.02.0)01.0()5.05.0()3.04.0()2.02.0(=∨∨∨=∧∨∧∨∧∨∧=()()⎥⎦⎤⎢⎣⎡∨∧=∈i B i A X x x x B A ~~2~~2μμ⊙ 1.01.05.04.02.0)01.0()5.05.0()3.04.0()2.02.0(=∧∧∧=∨∧∨∧∨∧∨=⎥⎦⎤⎢⎣⎡⎪⎭⎫ ⎝⎛-+=⎪⎭⎫ ⎝⎛∴∙~~1~~21~,~222B A B A B A ⊙σ()[]7.01.015.021=-+= ⎪⎭⎫ ⎝⎛>⎪⎭⎫ ⎝⎛~,~~,~12B A B A σσ ∴ ~2B 与~A 最相近。