人工智能原理教案03章 不确定性推理方法323证据理论
人工智能 第3章 推理技术2课题PPT课件
2020/11/12
《人工智能》
10
(1)证据肯定存在
P(E|S)=1,证据E肯定存。此时需要计算P(H|E)。
由Bayes公式得:
P(H|E)=P(E|H)×P(H)/P(E)
(1)
P(¬H|E)=P(E|¬H)×P(¬H)/P(E)
(2)
(1)式除以(2)式得:
P(H|E)/P(¬H|E)=P(E|H)/P(E|¬H)×P(H)/P(¬H) 由LS和几率函数的定义得:
可信度的概念
根据经验对一个事物和现象为真的相信程度称为可信度。
可信度带有较大的主观性和经验性,其准确性难以把握。 但人工智能面向的多是结构不良的复杂问题,难以给出精 确的数学模型,先验概率及条件概率的确定又比较困难。 所以可信度方法是一种比较实用的方法。
2020/11/12
《人工智能》
19
1. 知识不确定性的表示 在该模型中,知识是用产生式规则表示的,其一
给定C(E|S)后,P(E|S)计算如下:
P (E|S) C P ((E E )| S()C 5 (P E (|E S )) (5 5)C (E|S))若 若 0 5C (C E (|E S|)S )5 0
5
2020/、组合证据不确定性的算法
可以采用最大最小法。 当组合证据是多个单一证据的合取时,即
(1)不确定性的表示与度量 (2)不确定性匹配算法 (3)组合证据不确定性的算法 (4)不确定性的传递算法 (5)结论不确定性的合成
2020/11/12
《人工智能》
3
3.4 基于概率的推理
经典概率方法
设有如下产生式规则: IF E THEN H
其中,E为前提条件,H为结论。后验概率P(H|E)可以作为在证 据E出现时结论H的确定性程度(可信度)。为了计算后验概率 P(H|E),需要知道条件概率P(E|H),及先验概率P(H),P(E)。
人工智能原理教案03章 不确定性推理方法3.5 贝叶斯网络
3.5 贝叶斯网络贝叶斯网络是一系列变量的联合概率分布的图形表示。
一般包含两个部分,一个就是贝叶斯网络结构图,这是一个有向无环图(DAG),其中图中的每个节点代表相应的变量,节点之间的连接关系代表了贝叶斯网络的条件独立语义。
另一部分,就是节点和节点之间的条件概率表(CPT),也就是一系列的概率值。
如果一个贝叶斯网络提供了足够的条件概率值,足以计算任何给定的联合概率,我们就称,它是可计算的,即可推理的。
3.5.1 贝叶斯网络基础首先从一个具体的实例(医疗诊断的例子)来说明贝叶斯网络的构造。
假设:命题S(moker):该患者是一个吸烟者命题C(oal Miner):该患者是一个煤矿矿井工人命题L(ung Cancer):他患了肺癌命题E(mphysema):他患了肺气肿命题S对命题L和命题E有因果影响,而C对E也有因果影响。
命题之间的关系可以描绘成如右图所示的因果关系网。
因此,贝叶斯网有时也叫因果网,因为可以将连接结点的弧认为是表达了直接的因果关系。
图3-5 贝叶斯网络的实例tp3_5_swf.htm图中表达了贝叶斯网的两个要素:其一为贝叶斯网的结构,也就是各节点的继承关系,其二就是条件概率表CPT。
若一个贝叶斯网可计算,则这两个条件缺一不可。
贝叶斯网由一个有向无环图(DAG)及描述顶点之间的概率表组成。
其中每个顶点对应一个随机变量。
这个图表达了分布的一系列有条件独立属性:在给定了父亲节点的状态后,每个变量与它在图中的非继承节点在概率上是独立的。
该图抓住了概率分布的定性结构,并被开发来做高效推理和决策。
贝叶斯网络能表示任意概率分布的同时,它们为这些能用简单结构表示的分布提供了可计算优势。
假设对于顶点x i,其双亲节点集为P ai,每个变量x i的条件概率P(x i|P ai)。
则顶点集合X={x1,x2,…,x n}的联合概率分布可如下计算:双亲结点。
该结点得上一代结点。
该等式暗示了早先给定的图结构有条件独立语义。
人工智能原理教案03章 不确定性推理方法3.1 概述
3.1 概述一个人工智能系统,由于知识本身的不精确和不完全,采用标准逻辑意义下的推理方法难以达到解决问题的目的。
对于一个智能系统来说,知识库是其核心。
在这个知识库中,往往大量包含模糊性、随机性、不可靠性或不知道等不确定性因素的知识。
为了解决这种条件下的推理计算问题,不确定性推理方法应运而生。
归纳起来,不确定性推理方法研究产生的原因大致如下:·很多原因导致同一结果如多种原因引起同一种疾病。
例如,发烧可能因为感冒,也可能因为得了肺炎,需要进一步的知识才能作出具体判断。
·推理所需的信息不完备如勘探得到的地质分析资料不完备。
·背景知识不足由于人类认识水平的客观限制,客观世界的很多知识仍不为人们所认知。
在智能系统中,表现为所处理的知识的背景知识不完备。
如疾病的发病原因不十分明确。
·信息描述模糊这种现象十分普遍。
如"他不高不矮","今天不冷不热"等等。
在这类描述中,通常无法以一个量化的标准来描述,所描述的事物通常处在一个大致的范围。
比如,认为"身高在165cm-174cm 之间"的男士符合"不高不矮"的描述。
·信息中含有噪声噪声的存在干扰了人们对本源信息的认知,从而加大了认知上的难度。
如语音信号、雷达信号中的噪音干扰带来的信息模糊。
·规划是模糊的当需要对某个问题域进行划分时,可能无法找到一个清晰的标准。
如根据市场需求情况调节公司产品的内容和数量。
·推理能力不足必须考虑到实现的可能性,计算复杂度,系统性能。
如计算机的实现能力,推理算法的规模扩大能力有限等。
·解题方案不唯一没有最优方案,只有相对较优方案。
不实施,不能做出最后判断。
不精确思维并非专家的习惯或爱好所至,而是客观现实的要求。
在人类的知识和思维行为中,精确性只是相对的,不精确性才是绝对的。
知识工程需要各种适应不同类的不精确性特点的不精确性知识描述方法和推理方法。
不确定性推理人工智能原理及其应PPT教案学习
设样本空间D是扑克牌中的54张牌,即D={红桃A,方块A,黑桃A,梅花 A,红桃2,方块2,… ,小王,大王},且有以下两个事件
A={取花脸牌},B={取红桃牌},
求在事件B发生的条件下事件A发生的概率P(A|B)。
解:由于事件B已经发生,因此以下事件{取到红桃A;取到红桃2;取 到红桃3;… ;取到红桃K}中必有一个出现。
CF(H
,
E)
MB(H , 0
E)
0
P(H | E) P(H 1 P(H)
)
0
MD(H
,
E)
பைடு நூலகம்
P(H
) P(H P(H )
|
E)
若P(H | E) > P(H) 若P(H | E) P(H) 若P(H | E) < P(H)
分别解释CF(H,E)>0,CF(H,E)=0,CF(H,E)>0
第20页/共104页
第6页/共104页
7
6.1.2 不确定性推理的类型
非
框架推理
数
值
语义网络推理
不
方
确 定
法
常识推理…
性
确定性理论
推 理
数
基于概率的方法
主观Bayes方法
值 方
证据理论
法
模糊推理
第7页/共104页
8
第6章 不确定性推理
6.1 不确定性推理的基本概念 6.2 不确定性推理的概率论基础
6.2.1 样本空间和随机事件 6.3.2 事件的概率 6.3.3 全概率公式和Bayes公式
第16页/共104页
17
6.3.1 可信度的概念
人工智能原理教案03章 不确定性推理方法3.2.1确定性方法
3.2.1确定性方法以产生式作为知识表示的MYCIN 中,第一次使用了不确定性推理方法,给出了以确定性因子(Certainty Factor)或称可信度作为不确定性的度量。
1. 规则的不确定性度量规则以A →B 表示(认为A 为证据,B 为假设),其中前提A 可以是一些命题的合取或析取。
MYCIN 系统引入可信度CF 作为规则不确定性度量。
CF 表示了增量P (B|A)-P(B)相对于P(B)或P(~B)的比值。
其中P 表概率。
( P(B|A)表示事件A 已发生的条件下事件B 发生的概率) 规定 )()|( )()()|()()|( )()()|(),(B P A B P B P B P A B P B P A B P B P I B P A B P A B CF <-≥--⎩⎨⎧= CF(B,A)表示了证据A 为真时,相对于P(~B)=1-P(B)来说A 对B 为真的支持程度(当CF (B,A )≥0)。
或相对于P(B)来说A 对B 为真的不支持程度(当CF (B,A )<0)。
这种定义形式保证了-1≤CF(B,A)≤1当P(B|A)-P(B)相同时,P(B)小的CF小,P(B)大的CF大。
所以,CF(B,A)表达了证据A对假设B的影响程度。
CF(B,A)的几个特殊值:(1)前提A真,结论B必真的情形:由P(B|A)=1来体现,这时CF(B,A)=1。
(2)前提A与结论B无关的情形:由P(B|A)=P(B)来体现,这时CF(B,A)=0。
(3)前提A真,结论B必假的情形:由P(B|A)=0来体现,这时CF(B,A)= -1。
显然CF(B,A)≥0表示前提A真支持B真。
CF(B,A)<0表示前提A真不支持B真。
不难看出,CF(B,A)的定义借用了概率,但它本身并不是概率。
因为CF(B,A)可取负值,CF(B,A)+CF(B,~A)不必为1甚至可能为0。
实际应用中,A→B的CF(B,A)值是由专家主观确定的,并不是由P(B|A)来计算的。
人工智能原理教案03章 不确定性推理方法3.2.2主观Bayes方法
3.3主观Bayes 方法以语义网络表示的PROSPECTOR 系统,采用了主观Bayes 方法来度量不确定性。
引入两个数值(LS,LN) 作度量,LS 表示规则成立的充分性,LN 表示规则成立的必要性,这种表示既考虑了A 的出现对B 的支持,又考虑了A 的不出现对B 的影响。
3.3.1 对规则的不确定性度量直接使用Bayes 公式来做度量时,在计算P(B|A)时需要已知P(A|B),为避开这个困难,提出了主观Bayes 方法。
对规则A →B 的不确定性f(B,A)以(LS,LN)来描述。
(1)LS 和LN 的定义)|~(~)|(~ )|~()|(B A P B A P LN B A P B A P LS ==(2)建立几率函数)(1)()(X P X P X O -=表示的是证据X 的出现概率与不出现概率之比,显然随P(X)的加大O (X )也加大,而且有P(X)=0时 O(X)=0 (X 为假时)P(X)=1时 O(X)=∞ (X 为真时)这样,取值[0,1]的P(X)放大为取值[0,∞]便得O(X)。
(3)推导修改的Bayes 公式由于)()(~)|~()|(~)()()|()|(A P B P B A P A B P A P B P B A P A B P == 两者相比得)(~)()|~()|()|(~)|(B P B P B A P B A P A B P A B P ∙=这就是O (B|A)=LS ·O(B)相仿地也可得O(B|~A)=LN ·O(B)这两个公式就是修改的Bayes 公式。
称O(B)为结论的先验几率,称O (B|A)为结论的后验几率。
可以看出:● LS 表示A 真时,对B 为真的影响程度,表示规则A →B 成立充分性。
● LN 表A 假对B 为真的影响程度,表示规则A →B 成立的必要性。
(4)LS 和LN 的意义⎪⎩⎪⎨⎧<<>>== O(B),A)|O(B 1 O(B),)|B ( 1 O(B)A)|O(B ,1B A B A A O B A LS 不支持即当,支持即当,没有影响对,即当 ⎪⎩⎪⎨⎧<<>>==B A B A A B A LN 不支持即当,支持即当,没有影响对,即当~ O(B),A)|~O(B1~ O(B),)|~(O(B 1~O(B)A)|~O(B ,1 (5)LS 和LN 的关系由LS ,LN 的定义知,LS ,LN 均≥0,而且LS ,LN 不是独立取值的,只能出现以下3种情况:LS>1,LN<1LS<1,LN>1LS = LN = 1由于A 和~A 不会同时支持或排斥B ,所以不能出现两者同时>1或同时<1。
人工智能及其应用-不确定性推理方法-证据理论
Bel({红,黄}) M ({红}) M ({黄}) M ({红,黄})
0.3 0.2 0.5
Pl({蓝}) 1 Bel({蓝}) 1 Bel({红,黄})=系
因为
Bel( A) +Bel(¬A) =∑M (B) +∑M (C)
则: K 1 M1(x)M 2 ( y) x y 1 [M1({黑})M 2 ({白}) M1({白})M 2 ({黑})]
1 [0.3 0.3 0.5 0.6] 0.61
M ({黑}) K 1 M1(x)M 2 ( y)
0.161x[My{1黑({}黑})M 2 ({黑}) M1 ({黑})M 2 ({黑,白})
Pl(A) :对A为非假的信任程度。
8 A(Bel(A), Pl(A)) :对A信任程度的下限与上限。
8
概率分配函数的正交和(证据的组合)
定义4.4 设 M1和 M 2 是两个概率分配函数;则其正交 和 M =M1⊕M2 : M (Φ) 0
M ( A) K 1
M1(x)M2( y)
x yA
B⊆A
C⊆¬A
≤∑M (E) =1
B⊆D
所以 Pl( A) Bel( A) 1 Bel(A) Bel( A)
1 (Bel(A) Bel( A)) 0
∴所以 Pl( A) ≥Bel( A)
A(0,0);A(0,1)
Bel(A) :对A为真的信任程度。
A(1,1);A(0.25,1) A(0,0.85);A(0.25,0.85)
1981年巴纳特(J. A. Barnett)把该理论引入专家系 统中,同年卡威(J. Garvey)等人用它实现了不确定 性推理。
人工智能原理教案03章 不确定性推理方法3.2 确定性方法
3.2 确定性方法以产生式作为知识表示方法的专家系统MYCIN中,第一次使用了不确定性推理方法,给出了以确定性因子或称可信度作为不确定性的度量。
这种推理方法必须解决几个方面的核心问题,即规则和证据的不确定性度量问题,不确定性的传播与更新问题。
MYCIN系统研制过程中产生了不确定推理方法,该方法是第一个采用了不确定推理逻辑的专家系统,在20世纪70年代非常有名。
这个系统提出该确定性方法时遵循了下面的原则:(1)不采用严格的统计理论。
使用的是一种接近统计理论的近似方法。
(2)用专家的经验估计代替统计数据(3)尽量减少需要专家提供的经验数据,尽量使少量数据包含多种信息。
(4)新方法应适用于证据为增量式地增加的情况。
(5)专家数据的轻微扰动不影响最终的推理结论。
注意:这种方法在理论上实质是以定量法为工具,比较法为原则的相对确认理论。
因此,采用此方法的MYCIN系统的诊断结果不是只给出一个最可信结论及其可信度,而是给出可信度较高的前几位,供人们比较选用。
3.2.1 规则的不确定性度量在逻辑推理过程中,常常以A → B表示规则。
其中A表示前提,可以是一些命题的析取或合取;B表示结论或推论,是在前提A下的直接逻辑结果。
在精确逻辑推理中,通常只有真假的描述:若A真,则B也必为真。
但在不确定推理过程中,通常要考虑的是A为真时对B为真的支持程度,甚至还考虑A为假(不发生)时对B为真的支持程度。
为此,引入规则的不确定性度量。
有规则A → B,其可信度CF(B, A)定义如下:CF(B,A)表示的意义:证据为真是相对于P(~B) = 1 - P(B)来说,A对B为真的支持程度,即A发生更支持B发生,此时CF(B,A)≥ 0。
相对于P(B)来说,A对B为真的不支持程度。
即A发生不支持B发生,此时CF(B,A)< 0。
它总是满足条件-1 ≤ CF(B,A) ≤ 1。
CF(B, A)的特殊值:CF(B, A) = 1,前提真,结论必真CF(B, A) = -1,前提真,结论必假CF(B, A) = 0 ,前提真假与结论无关实际应用中CF(B, A)的值由专家确定,并不是由P(B|A), P(B)计算得到的。
人工智能原理教案03章不确定性推理方法33主观Bayes方法
3.3 主观Bayes方法R.O.Duda等人于1976年提出了一种不确定性推理模型。
在这个模型中,他们称推理方法为主观Bayes方法,并成功的将这种方法应用于地矿勘探系统PROSPECTOR中。
在这种方法中,引入了两个数值(LS,LN),前者体现规则成立的充分性,后者则表现了规则成立的必要性,这种表示既考虑了事件A的出现对其结果B的支持,又考虑了A的不出现对B的影响。
在上一节的CF方法中,CF(A)<0.2就认为规则不可使用,实际上是忽视了A不出现的影响,而主观Bayes方法则考虑了A 不出现的影响。
t3-B方法_swf.htmBayes定理:设事件A1,A2 ,A3 ,…,An中任意两个事件都不相容,则对任何事件B有下式成立:该定理就叫Bayes定理,上式称为Bayes公式。
全概率公式:可写成:这是Bayes定理的另一种形式。
Bayes定理给出了一种用先验概率P(B|A),求后验概率P (A|B)的方法。
例如用B代表发烧,A代表感冒,显然,求发烧的人中有多少人是感冒了的概率P(A|B)要比求因感冒而发烧的概率P(B|A)困难得多。
3.3.1 规则的不确定性为了描述规则的不确定性,引入不确定性描述因子LS, LN:对规则A→B的不确定性度量f(B,A)以因子(LS,LN)来描述:表示A真时对B的影响,即规则成立的充分性表示A假时对B的影响,即规则成立的必要性实际应用中概率值不可能求出,所以采用的都是专家给定的LS, LN值。
从LS,LN的数学公式不难看出,LS表征的是A的发生对B发生的影响程度,而LN表征的是A的不发生对B发生的影响程度。
几率函数O(X):即,表示证据X的出现概率和不出现的概率之比,显然O(X)是P(X)的增函数,且有:P(X)=0,O(X)=0P(X)=0.5,O(X)=1P(X)=1,O(X)=∞,几率函数实际上表示了证据X的不确定性。
几率函数与LS,LN的关系:O(B|A) = LS·O(B)O(B|~A) = LN·O(B)几个特殊值:LS、LN≥0,不独立。
人工智能及其应用-不确定性推理方法-可信度方法
7
7
C-F模型
2. 证据不确定性的表示
静态强度CF(H,E):知识的强度,即当 E 所对应
的证据为真时对 H 的影响程度。 动态强度 CF(E):证据 E 当前的不确定性程度。
8
8
C-F模型
3. 组合证据不确定性的算法
组合证据:多个单一证据的合取
E=E1 AND E2 AND … AND En 则 CF (E)=min{CF (E1), CF (E2 ),..., CF (En )} 组合证据:多个单一证据的析取
0.28
15
CF (H , E):可信度因子(certainty factor),反映前提
条件与结论的联系强度 。
IF 头痛 AND 流涕 THEN 感冒 (0.7)
5 5
C-F模型
1. 知识不确定性的表示
CF(H,E)的取值范围: [-1,1]。 若由于相应证据的出现增加结论 H 为真的可信度, 则 CF(H,E)> 0,证据的出现越是支持 H 为真, 就使CF(H,E) 的值越大。 反之,CF(H,E)< 0,证据的出现越是支持 H 为 假,CF(H,E)的值就越小。 若证据的出现与否与 H 无关,则 CF(H,E)= 0。
不确定性推理方法
• 不确定性推理的基本概念 • 概率方法
可信度方法
• 证据理论 • 主观Bayes方法
1
1
可信度方法
• 1975年肖特里菲(E. H. Shortliffe)等人在 确定性理论(theory of confirmation)的基 础上,结合概率论等提出的一种不确定性 推理方法。
• 优点:直观、简单,且效果好。
H H
人工智能原理教案03章 不确定性推理方法323证据理论
3.4证据理论0. 前言●主观Bayes方法必须给出先验概率。
●Dempster和Shafer提出的证据理论,可用来处理这种由不知道所引起的不确定性。
●证据理论采用信任函数而不是概率作为不确定性度量,它通过对一些事件的概率加以约束来建立信任函数而不必说明精确的难于获得的概率。
●证据理论满足比概率论更弱的公理系统,当这种约束限制为严格的概率时(即概率值已知时),证据理论就退化为概率论了。
1. 证据的不确定性度量(1) 基本理论辨别框概念:设U为假设x的所有可能的穷举集合,且设U 中的各元素间是互斥的,我们称U为辨别框(Frame of discernment)。
设U的元素个数为N,则U的幂集合2U的元素个数为2N,每个幂集合的元素对应于一个关于x取值情况的命题(子集)。
对任一A U,命题A表示了某些假设的集合(这样的命题间不再有互斥性)。
针对医疗诊断问题,U就是所有可能疾病(假设)的集合,诊断结果必是U中确定的元素构成的。
A表示某一种(单元素)或某些种疾病。
医生为了进行诊断所进行的各种检查就称作证据,有的证据所支持的常不只是一种疾病而是多种疾病,即U 的一子集A 。
定义1:基本概率分配函数(Basic probability assignment ):对任一个属于U 的子集A (命题),命它对应于一个数m ∈[0,1],而且满足∑⊆==ΦU A A m m 1)(0)(则称函数m 为幂集2U 上的基本概率分配函数bpa ,称m(A)为A 的基本概率数。
m(A)表示了证据对U 的子集A 成立的一种信任的度量,取值于[0,1],而且2U 中各元素信任的总和为1。
m(A)的意义为● 若A U 且A U ,则m(A)表示对A 的确定信任程度。
● 若A=U ,则m(A)表示这个数不知如何分配(即不知道的情况)。
例如,设U={红,黄,白},2U 上的基本概率分配函数m 为m ({ },{红},{黄},{白},{红,黄},{红,白},{黄,白},{红,黄,白})=(0,0.3,0,0.1,0.2,0.2,0,0.2)其中,m({红})=0.3 表示对命题{红}的确定信任度。
人工智能原理教案03章 不确定性推理方法3.4 证据理论(D-S Theory)
3.4 证据理论(D-S Theory)证据理论由Dempster首先提出,并由他的学生Shafer发展起来,也称D-S理论。
在专家系统的不精确推理中已得到广泛的应用, 也用在模式识别系统中。
证据理论中引入了信任函数,它满足概率论弱公理。
在概率论中,当先验概率很难获得,但又要被迫给出时,用证据理论能区分不确定性和不知道的差别。
所以它比概率论更合适于专家系统推理方法。
当概率值已知时,证据理论就成了概率论。
因此,概率论是证据理论的一个特例,有时也称证据沦为广义概率论。
在:8080/UGAIWWW/lectures/dempster.html 上有关于Dempster-Shafer理论的英文介绍。
在/Dse.htm上有免费的利用证据理论实现的程序Dempster Shafer Engine下载。
有兴趣的读者可以安装这一软件,看看运行效果。
这是我们已经下载下来的程序包:DempsterShaferEngine.zip。
3.4.1 证据的不确定性证据用集合来表示:如U中的每个元素代表一种疾病。
讨论一组疾病A发生的可能性时,A就变成了单元的集合。
U内元素A i间是互斥的,但Ai中元素间是不互斥的。
图3-4证据理论集合空间分布示意图t3-4_swf.htm例如U可以表示疾病空间,而每个Ai可以是一类疾病,各类疾病之间是可以交叉的(同时得多种疾病),但是各类疾病本身是不同的。
证据理论定义了多个函数值来描述证据及规则的不确定性,其中包括:分配函数、信任函数和似然函数,分别定义如下。
·基本概率分配函数m:2U→[0,1]。
m(Φ) = 0 空的为零Σm(A) = 1 全空间的和为1(A属于U)基本概率分配函数是在U的幂集2U 上定义的,取值范围是[0,1]。
基本概率函数的物理意义是:若A属于U,且不等于U,表示对A的精确信任度若A等于U,表示这个数不知如何分配·信任函数Bel:2U→[0,1]。
人工智能原理教案03章 不确定性推理方法3.2.0不确定推理概述7.doc
人工智能原理教案03章不确定性推理方法3.2.0不确定推理概述73.2.0 不确定推理概述1 不确定推理的基本概念所谓不确定推理就是在“公理”(如领域专家给出的规则强度和用户给出的原始证据的不确定性)的基础上,定义一组函数,求出“定理”(非原始数据的命题)的不确定性度量,也就是说,根据原始证据的不确定性和知识的不确定性,求出结论的不确定性。
一般来讲,一个不确定推理模型应当包括如下算法:(1)根据规则前提A的不确定性C(A)和规则强度f(B,A)求出假设B的不确定性C(B),即定义函数g1,使C(B)= g1[C(A),f(B,A)](2)根据分别由独立的证据A1、A2求得的假设B的不确定性C1(B)和C2(B),求出证据A1和A2的组合所导致的假设B 的不确定性C(B),即定义函数g2,使C(B)= g2[C1(B),C2(B)](3)根据两个证据A1和A2的不确定性C(A1)和C(A2),求出证据A1和A2的合取的不确定性,即定义函数g3,使C(A1 AND A2)= g3[C(A1),C(A2)](4)根据两个证据A1和A2的不确定性C(A l)和C(A2),求出证据A1和A2的析取的不确定性,即定义函数g4,使C(A1 OR A2)= g4[C(A1),C(A2)]图1 规则的不确定性表示图2 不确定推理网络示例例如图2所示的推理网络。
设A1、A2和A3为初始证据,即已知证据A1、A2和A3的不确定性分别为C(A1)、C(A2)和C(A3)。
求解A4、A5和A6的不确定性。
在求解之前, A4、A5和A6的不确定性应为单位元(对证据A一无所知的情况下C(A)的取值,称为证据的单位元)。
问题的求解过程为(1)利用证据A1的不确定性C(A1)和规则R1的规则强度f1,根据算法1求出A4新的不确定性C(A4)。
(2)利用证据A2和A3的不确定性C(A2)和C(A3),根据算法4求出A2和A3的析取的不确定性C(A2 OR A3)(3)利用A2和A3的析取的不确定性C(A2OR A3)和规则R2的规则强度f2根据算法1求出A5的新的不确定性C(A5),(4)利用A4的不确定性C(A4)和规则R3的规则强度f3,根据算法1求出A6新的不确定性C’(A6)。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
3.4证据理论0. 前言●主观Bayes方法必须给出先验概率。
●Dempster和Shafer提出的证据理论,可用来处理这种由不知道所引起的不确定性。
●证据理论采用信任函数而不是概率作为不确定性度量,它通过对一些事件的概率加以约束来建立信任函数而不必说明精确的难于获得的概率。
●证据理论满足比概率论更弱的公理系统,当这种约束限制为严格的概率时(即概率值已知时),证据理论就退化为概率论了。
1. 证据的不确定性度量(1) 基本理论辨别框概念:设U为假设x的所有可能的穷举集合,且设U 中的各元素间是互斥的,我们称U为辨别框(Frame of discernment)。
设U的元素个数为N,则U的幂集合2U的元素个数为2N,每个幂集合的元素对应于一个关于x取值情况的命题(子集)。
对任一A U,命题A表示了某些假设的集合(这样的命题间不再有互斥性)。
针对医疗诊断问题,U就是所有可能疾病(假设)的集合,诊断结果必是U 中确定的元素构成的。
A 表示某一种(单元素)或某些种疾病。
医生为了进行诊断所进行的各种检查就称作证据,有的证据所支持的常不只是一种疾病而是多种疾病,即U 的一子集A 。
定义1:基本概率分配函数(Basic probability assignment ):对任一个属于U 的子集A (命题),命它对应于一个数m ∈[0,1],而且满足∑⊆==ΦUA A m m 1)(0)(则称函数m 为幂集2U 上的基本概率分配函数bpa ,称m(A)为A 的基本概率数。
m(A)表示了证据对U 的子集A 成立的一种信任的度量,取值于[0,1],而且2U 中各元素信任的总和为1。
m(A)的意义为● 若A ⊂U 且A ≠U ,则m(A)表示对A 的确定信任程度。
● 若A=U ,则m(A)表示这个数不知如何分配(即不知道的情况)。
例如,设U={红,黄,白},2U 上的基本概率分配函数m 为m ({ },{红},{黄},{白},{红,黄},{红,白},{黄,白},{红,黄,白})=(0,0.3,0,0.1,0.2,0.2,0,0.2)其中,m({红})=0.3 表示对命题{红}的确定信任度。
m({红,黄,白})=0.2 表示不知道这0.2如何分配。
值得注意的是,m({红})+m({黄})+m({白})=0.3+0+0.1=0.4<1因此,m不是概率,因为概率函数P要求P(红)+P(黄)+P(白)=1即有P(A)=1-P(~A)而这里m(A) 1-m(~A)其中:~A=U-A,是A的补集。
小结:bpa不同于Bayes方法,因为Bayes方法仅对U中单个元素赋予一种信任――概率。
而对于bpa来说:●给U的每个子集指派[0,1]中的一个数;●空集的指派为0;●所有子集的指派值之和等于1。
●m(U)只是总可信度的一部分。
在对U中的适当子集分派可信度之后,剩余的可信度就不再分派给其它任何子集,而只分派给U 本身。
即:如果有一证据仅支持U 的一个子集A ,m(A)=S ,而不支持其它任何子集B ,则指派m(U)=1-S ,m(B)=0,B ≠A ,B ⊂U 。
定义2:信任函数(Belief function ):命题A 的信任函数Bel :2U →[0,1]为∑⊆=A B B m A Bel )()( ∀A ⊆U表示对A 的总信任。
即,命题A 的信任函数的值,是A 的所有子集的基本概率之和。
例如,在前面的例子中Bel({红},{白})=m({红})+m({白})+m({红,白})=0.3+0.1+0.2=0.6根据定义可以看出Bel(Φ)=0Bel(U)=1单元素集上m 与Bel 是相等的,例如:Bel({红})=m({红})=0.3。
定义3:似然函数(Plausibility function ):命题A 的似然函数Pl: 2U →[0,1]为∑Φ≠=-=A B B m A Bel A Pl )()(~1)( ∀A ⊆U表示对于不否定A 的信任度,是所有与A 相交的子集的基本概率之和。
其中:~A=U-A ,是A 的补集。
信任函数与似然函数有以下的关系:0≤Bel(A)≤Pl(A)≤1Pl(A)-Bel(A)表示了既不信任A 也不信任~A 的一种度量,可表示对命题A 是真是假不知道的度量。
用记号A[Bel(A),Pl(A)]来综合描述A 的不确定性。
其中,Bel(A)和Pl(A)分别表示命题A 的下限函数和上限函数。
实际上m ,Bel ,Pl 只要知其一,必可求得另两个,但三个函数有不同含义。
例如,在前面的例子中:m({红})=0.3Bel({红})=m({红})+m({ })=0.3+0=0.3Pl({红})=1-Bel({~红})=1-Bel ({黄,白})=1-[ m({黄})+m({白})+m({黄,白})]=1-(0+0.1+0)=0.9所以,{红}[ Bel({红}),Pl({红})] = {红} [0.3,0.9]。
以下列举几个典型值的含义:A[1,1]表示A为真。
因为Bel(A)=1,Bel(~A)= 1- Pl(A)=0。
A[0,0]表示A为假。
因为Bel(A)=0, Bel(~A)= 1- Pl(A)=1。
A[0,1]表示对A一无所知。
因为:Bel(A)=0,说明对A缺少信任;Bel(~A)=1- Pl(A)=0,说明对~A也缺少信任。
A[0.6,1]表示对A部分信任。
因为Bel(A)=0.6,Bel(~A)=0。
A[0,0.4]表示对~A 部分信任。
因为Bel(A)=0, Bel(~A)=0.6。
A[0.3,0.9]表示同时对A 和~A 部分信任。
(2) 证据描述设某个领域的辨别框U={S 1,S 2,…,S n },m 为2U 上定义的基本概率分配函数,在下面描述的算法中,应满足如下条件: a) m({S i })≥0, 对S i ∈Ub) 1})({1≤∑≤≤ni i S mc) m(U)=1-∑≤≤ni i S m 1})({d) m(A)=0, 对A ⊂U ,且|A|≠1(集合A 的元素个数不为1,且又不包括全体元素)例如,U={红,黄,白}时下面的基本概率分配函数:m ({红},{黄},{白},{红,黄,白},{ })=(0.6,0.2,0.1,0.1,0)其中,m ({红,黄})= m ({红,白})= m ({黄,白})= 0。
定义4(证据的信任函数):对任何命题A ⊆U ,其信任函数为Bel(A)=∑∑⊆∈=A B Aa a m B m })({)( ∀A ⊂UBel(U)=∑∑⊆∈=+=U B Ua U m a m B m 1)(})({)(定义5 (证据的似然函数):对任何命题A ⊆U ,其似然函数为Pl(A)=1-Bel(~A)=1-∑∉Aa a m })({ A ⊂U=1-∑∑∈∈-U a Ab b m a m })]({})({[=1-[1-m(U)-Bel(A)]=m(U)+Bel(A)根据以上定义,可以看出命题的信任函数和似然函数之间满足下列关系:● Pl(A)≥Bel(A)● Pl(A)-Bel(A)=m(U)除了以A[Bel(A),Pl(A)]来作为证据A 的不确定性度量外,还可用类概率函数来度量。
定义6(类概率函数):设U 为有限域,对任何命题A ⊆U ,命题A 的类概率函数为 ))()((||||)()(1A Bel A Pl U A A Bel A f -+= 其中|A|、|U|分别表示A 和U 所含元素个数。
类概率函数)(1A f 具有如下性质:1)∑⊂=U a a f 1})({12) Bel(A)≤)(1A f ≤Pl(A), ∀A ⊆U 3))~(1A f =1-)(1A f , ∀A ⊆U根据以上性质,可以得出以下推论:1) 0)(1=Φf2)1)(1=U f3) U A A f ⊆≤≤对 , 1)(01可以看出,类概率函数与概率函数具有非常相似的性质。
(3) 证据的组合对于同样的证据,由于来源不同,会得到不同的概率分配函数。
Dempster 提出用正交和来组合这些函数。
定义7(正交和):设m 1,m 2,…,m n 为2U 上的n 个基本概率分配函数,它们的正交和m(A)=(m 1⊕m 2⊕…⊕m n )(A )为⎪⎭⎪⎬⎫⎪⎩⎪⎨⎧≠•==∑∏=⋂≤≤A A n i i 1i i A ),(A m k m(A)A 0,=) m(φφφ 其中k -1=1-)()(11iA ni i A n i i i A m A m i i ∑∏∑∏≠⋂≤≤=⋂≤≤=φφ 若k -1=0,则m i 之间是矛盾的,没有联合基本概率分配函数。
若k -1≠0,这样的m i 就确定一个基本概率分配函数。
常数k 是根据m 1⊕m 2⊕…⊕m n 需对2U 的所有元素的基本概率分配之和为1来确定的。
(这种规定称作Dempster 组合规则,要求m 1⊕m 2⊕…⊕m n 提供的证据满足某种独立性条件)2. 规则的不确定性度量设某个领域的辨别框U={S 1,…,S n },命题A 、B 、…为U 的子集,推理规则为E →H ,CF其中,E 、H 为命题的逻辑组合,CF 为可信度因子。
命题和可信度因子可表示为A={a 1,…, a k }CF=(c 1,…,c k )其中c i 用来描述a i 的可信度,i=1,2,…,k 。
对任何命题A ,A 的可信度CF 应满足:1) c i ≥0,1≤i ≤k2)11≤∑≤≤k j j c3. 推理计算(1) 当条件部分为命题的逻辑组合时,整个条件部分的确定性计算:)(211A A f ∧=min{)(),(2111A f A f } 合取)(211A A f ∨=max{)(),(2111A f A f } 析取(2) 结论部分的命题的确定性计算:即,已知)(1A f ,A →B (c 1,…,c k ),如何计算)(1B f 。
思路:根据前面介绍的方法,首先计算基本分配函数m(B),然后计算结论部分命题B 的信任函数Bel(B)、似然函数Pl(B),最后计算类概率函数和确定性。
设B={b 1,b 2,…,b k },且U={b 1,b 2,…,b k },则U 上的基本概率分配函数为m({b 1},…,{b k }) = (•)(1A f c 1,…,•)(1 A f c k )∑=⋅-=ki A f U m 11)(1)(c i便可得)(1B f 。
(3) 独立证据导出同一假设如果有n 条规则支持同一命题时,根据Dempster 组合规则,总的基本概率分配函数m 为各规则结论得到的基本概率分配函数的正交和:m=m 1⊕m 2⊕…⊕m n例如,已知 A 1→B (c 1,…, c k )A 2→B ('c ,,'c k 1 )以及)(),(2111A f A f如何计算)(1B f 。