图像模式识别的方法介绍(doc 10页)

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

图像模式识别的方法介绍(doc 10页)

2.1图像模式识别的方法

图像模式识别的方法很多,从图像模式识别提取的特征对象来看,图像识别方法可分为以下几种:基于形状特征的识别技术、基于色彩特征的识别技术以及基于纹理特征的识别技术。其中,基于形状特征的识别方法,其关键是找到图像中对象形状及对此进行描述,形成可视特征矢量,以完成不同图像的分类,常用来表示形状的变量有形状的周长、面积、圆形度、离心率等。基于色彩特征的识别技术主要针对彩色图像,通过色彩直方图具有的简单且随图像的大小、旋转变换不敏感等特点进行分类识别。基于纹理特征的识别方法是通过对图像中非常具有结构规律的特征加以分析或者则是对图像中的色彩强度的分布信息进行统计来完成。

从模式特征选择及判别决策方法的不同可将图像模式识别方法大致归纳为两类:统计模式(决策理论)识别方法和句法(结构)模式识别方法。此外,近些年随着对模式识别技术研究的进一步深入,模糊模式识别方法和神经网络模式识别方法也开始得到广泛的应用。在此将这四种方法进行一下说明。

2.1.1句法模式识别

对于较复杂的模式,如采用统计模式识别的方法,所面临的一个困难就是特征提取的问题,它所要求的特征量十分巨大,要把某一个复杂模式准确分类

图2 统计模式识别模型

2.1.2.1几种统计模式识别的方法

统计模式识别根据采用方法的不同可以进行多种形式的分类:通过贝叶斯决策理论对条件密度已知的样本进行分类;对于类条件密度不明的情况,可根据训练样本的类别是否己知将分类问题分为监督学习和非监督学习两大类;监督学习和非监督学习又可根据是否通过参数决策分为参数估计和非参数估计。统计模式识别的另一种分类方法是根据决策界是否直接得到将其分为几何方法和基于概率密度的方法。几何方法经常直接从优化一定的代价函数构造决策界;而基于概率密度的方法要首先估计密度函数然后构造分类函数指定决策界。

1、几何分类法

1) 模板匹配法

它是模式识别中的一个最原始、最基本的方法,它将待识模式分别与各标准模板进行匹配,若某一模板与待识模式的绝大多数单元均相匹配,则称该模板与待识模式“匹配得好”,反之则称“匹配得不好”,并取匹配最好的作为识别结果。

2)距离分类法

距离是一种重要的相似性度量,通常认为空间中两点距离越近,表示实际上两样本越相似。大约有十余种作为相似性度量的距离函数,其中使用最广泛的是欧氏距离。它是使用最为广泛的方法,常用的有平均样本法、平均距离法、最近邻法和K-近邻法。

3)线性判别函数

和上述的方法不同,判决函数法是以判决边界的函数形式的假定为其特性的,而上述的方法都是以所考虑的分布的假定为其特性的。假如我们有理由相信一个线性判决边界取成:

d d x w x w x w x g +++= 2211)(

是合适的话,那么剩下的问题就是要确定它的权系数。权系数可通过感知器算法或最小平方误差算法来实现。但作为一条规则,应用此方法必须注意两点;第一就是方法的可适性问题,第二就是应用判决函数后的误差准则。

4)非线性判别函数

线性判决函数的特点是简单易行,实际应用中许多问题往往是非线性的,一种处理的办法将非线性函数转换为线性判决函数,所以又称为广义线性判决函数。另一种方法借助电场的概念,引入非线性的势函数,它经过训练后即可用来解决模式的分类问题。

2 概率分类法

几何分类法是以模式类几何可分为前提条件的,在某些分类问题中这种条件能得到满足,但这种条件并不经常能得到满足,模式的分布常常不是几何可分的,即在同一区域中可能出现不同的模式,这时,必须借助概率统计这一数学工具。可以说,概率分类法的基石是贝叶斯决策理论。

设有R 类样本,分别为w1, w2 , … , wR,若每类的先验概率为P(wii), i = 1,2 ,3,…R,对于一随机矢量X,每类的条件概率为(又称类概率密度)P(X/Wii),则根据Bayes 公式,后验概率为:

∑==R i i

i i i i w p w X p w p w X p X w p 1)()|()

()|()|(

从后验概率出发,有Bayes 法则:

i

j R j i w X X w p j j i ≠∀=∈=;且,,,,,其中则若 21)],|(max [ arg

2.1.2.2朴素贝叶斯分类器 朴素贝叶斯分类是一种十分简单的分类算法,叫它朴素贝叶斯分类是因为这种方法的思想真的很朴素,朴素贝叶斯的思想基础是这样的:对于给出的待

分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。通俗来说,就好比这么个道理,你在街上看到一个黑人,我问你你猜这哥们哪里来的,你十有八九猜非洲。为什么呢?因为黑人中非洲人的比率最高,当然人家也可能是美洲人或亚洲人,但在没有其它可用信息下,我们会选择条件概率最大的类别,这就是朴素贝叶斯的思想基础。

朴素贝叶斯分类的工作过程如下:

(1)每个数据样本用一个n 维特征向量{}n x x x X ,...,21=表示,分别描述对n 个属性A 1,A 2,…A n 样本的n 个度量。

(2)假定有m 个类C 1,C 2,…C m 。给定一个未知的数据样本X (即没有类标号),分类法将预测X 属于具有最高后验概率(条件X 下)的类。即是说,朴素贝叶斯分类将未知的样本分配给类C i ,当且仅当

()()i j m j X C P X C P j i ≠≤≤>,1, 这样,最大化()X C P i 。其()X C P i 最大的类C i 称为最大后验假定。根据贝叶斯定理

()()()()

X P H P H X P X H P =, ()()()()X P C P C X P X C P i i i =

(3)由于P(X)对于所有类为常数,只需要()()i i C P C X P 最大即可。如果类的先验概率未知,则通常假定这些类是等概率的,即P(C 1)=P(C 2)=…=P(C m )。并据此只对()i C X P 最大化。否则,最大化()()i i C P X P 。注意,类的先验概率可以用()s s C P i i =计算其中s i 是类C i 中的训练样本数,而s 是训练样本总数。

(4)给定具有许多属性的数据集,计算()i C X P 的开销可能非常大。为降低计算()i C X P 的开销,可以做类条件独立的朴素假定。给定样本的类标号,假定属性值相互条件独立,即在属性间,不存在依赖关系。这样,

()()∏==n

k i k i C x p C X P 1 (7.8)

概率()i X P 1,()i C X P 2,…()i n C X P 可以由训练样本估值,其中

相关文档
最新文档