第四章不确定性推理教程以及答案.
不确定性知识的表示与推理技术
由r2可得: CF2(H)=0.8×0.9=0.72
从而 CF1,2(H)=0.32+0.72-0.32×0.72=0.8096
这就是最终求得的H的可信度。
2024/10/13
25
4.3主观贝叶斯方法(1)
简介 主观贝叶斯方法是R.O.Duda等人1976年提出的一种
表示因与前提条件E匹配的证据的出现,使结论H为真的不 信任增长度。MD定义为:
1
当P(H )=0
MD(H ,
E)
min{P( H
| E), P(H P(H )
)}
P(H
)
否则
2024/10/13
15
4.2.1知识的不确定性表示(4)
由MB、MD得到CF(H,E)的计算公式:
1
当P(H )=1
• LS 称为充分性量度,用于指出 E 对 H 的支持程度,取值范围 为 [ 0, ∞ ),其定义为: LS = P(E/H) P(E/H)
LS 的值由领域专家给出,具体情况在下面论述。
• LN 称为必要性量度,用于指出 E 对 H 的支持程度,取值范 围为 [ 0, ∞ ),其定义为:
P( E/H)
若由于相应证据的出现增加结论 H 为真的可信度,则使 CF(H,E)>0,证据的出现越是支持 H 为真,就使CF(H,E)的值越 大;
反之,使CF(H,E)<0,证据的出现越是支持 H 为假,就使CF(H,E) 的值越小;
若证据的出现与否与 H 无关,则使 CF(H,E)=0。
2024/10/13
若 CF1(H) 与 CF2(H) 异号
2024/10/13
人工智能教程习题及答案第4章习题参考解答
第四章不确定性推理习题参考解答4.1 练习题4.1什么是不确定性推理?有哪几类不确定性推理方法?不确定性推理中需要解决的基本问题有哪些?4.2什么是可信度?由可信度因子CF(H,E)的定义说明它的含义。
4.3什么是信任增长度?什么是不信任增长度?根据定义说明它们的含义。
4.4当有多条证据支持一个结论时,什么情况下使用合成法求取结论的可信度?什么情况下使用更新法求取结论可信度?试说明这两种方法实际是一致的。
4.5设有如下一组推理规则:r1:IF E1THEN E2(0.6)r2:IF E2AND E3THEN E4 (0.8)r3:IF E4THEN H (0.7)r4:IF E5THEN H (0.9)且已知CF(E1)=0.5,CF(E3)=0.6,CF(E5)=0.4,结论H的初始可信度一无所知。
求CF(H)=?4.6已知:规则可信度为r1:IF E1THEN H1(0.7)r2:IF E2THEN H1(0.6)r3:IF E3THEN H1(0.4)r4:IF (H1 AND E4) THEN H2(0.2)证据可信度为CF(E1)=CF(E2)=CF(E3)=CF(E4)=CF(E5)=0.5H1的初始可信度一无所知,H2的初始可信度CF0(H2)=0.3计算结论H2的可信度CF(H2)。
4.7设有三个独立的结论H1,H2,H3及两个独立的证据E1与E2,它们的先验概率和条件概率分别为P(H1)=0.4,P(H2)=0.3,P(H3)=0.3P(E1/H1)=0.5,P(E1/H2)=0.6,P(E1/H3)=0.3P(E2/H1)=0.7,P(E2/H2)=0.9,P(E2/H3)=0.1利用基本Bayes方法分别求出:(1)当只有证据E1出现时,P(H1/E1),P(H2/E1),P(H3/E1)的值各为多少?这说明了什么?(2)当E1和E2同时出现时,P(H1/E1E2),P(H2/E1E2),P(H3/E1E2)的值各是多少?这说明了什么?4.8在主观Bayes方法中,请说明LS与LN的意义。
人工智能导论 第2版 第4章 不确定性推理
✓当P(E|S)=0时,证据肯定不存在。
✓当P(E|S)=P(E)时,证据E与观察S无关。由全概率公式得:
P(H|S)=P(H|E)×P(E)+P(H|¬E)×P(¬E)=P(H)
✓当P(E|S)为其它值时,通过
计算P(H|S)
P(H/S) P(H/E)
P(H)
P(H/¬E)
0
P(E)
1 P(E/S)
23
逆概率法的特点
逆概率法在实际中有很多应用。
✓ 比如:把Hi (i=1,2,…,n)当作可能发生的疾病;把Ej ( j=1,2,…,n)当 作相应的症状;P(Hi)是从大量实践中得到的疾病Hi的先验概率; P(Ej|Hi)是疾病Hi发生时观察到症状Ej的条件概率。
➢逆概率法有较强的理论背景和良好的数学特性,当证据及 结论都彼此独立时计算的复杂度比较低。
1 2 n (H) (H)
(H )
36
主观Bayes方法推理示例(1)
☆例. 设有如下知识:
已知:Θ(H1)=0.1, Θ(H2)=0.01, C(E1|S1)=2, C(E2|S2)=1 求: Θ(H2|S1S2)=?
P(H1)=Θ(H1)/(1+Θ(H1))=0.09 P(H1|E1)=Θ(H1|E1)/(1+Θ(H1|E1))= LS1×Θ(H1)/(1+LS1×Θ(H1))=0.17 ∵C(E1|S1)=2>0 ∴P(H1|S1)=P(H1)+[P(H1|E1)-P(H1)]×1/5×C(E1|S1)
6
2. 不确定性推理的基本问题
• 设计一个不确定性匹配算法; • 指定一个匹配阈值。 • 在匹配时,一个简单条件对应于一个单一的证据,
人工智能第4章(不确定性推理方法)
例:容器里的球
现分别有 A,B 两个容器,在容器 A 里分别有 7 个红球和 3 个白球,在容器 B 里有 1 个红球和 9 个白球。
现已知从这两个容器里任意抽出了一个球,且是红球, 问:这个红球是来自容器 A 的概率是多少?
假设已经抽出红球为事件 B,从容器 A 里抽出球为事件 A, 则有:P(B) = 8 / 20 P(A) = 1 / 2 P(B | A) = 7 / 10,
证据(前提)的不确定性表示 规则的不确定性表示 推理计算---结论的不确定性表示
11
证据的不确定性度量
单个证据的不确定性获取方法:两种 初始证据:由提供证据的用户直接指定,用可信度因子对 证据的不确定性进行表示。如证据 E 的可信度表示为 CF(E)。 如对它的所有观测都能肯定为真,则使CF(E)=1;如能肯定 为假,则使 CF(E)=-1 ;若它以某种程度为真,则使其取小 于1的正值,即0< CF(E)<1;若它以某种程度为假,则使其 取大于 -1 的负值,即-1< CF(E)<0; 若观测不能确定其真假, 此时可令CF(E)=0。
P (H | E) - P (H) , 当 P (H | E) P (H) 1 P (H) CF(H, E) P (H | E) - P (H) , 当P (H | E) P (H) P (H)
15
确定性方法
规则
规则的不确定性表示 证据(前提)的不确定性表示 推理计算—结论的不确定性表示
24
规则
(推理计算 4)
CF(E) < =0,
规则E H不可使用,即此计算不必进行。
0 < CF(E) <= 1,
第4章 不确定性推理方法(导论)
条件与结论的联系强度 。
IF 头痛 AND 流涕 THEN 感冒 (0.7)
13
4.2 可信度方法
1. 知识不确定性的表示
▪ CF(H,E)的取值范围: [-1,1]。 ▪ 若由于相应证据的出现增加结论 H 为真的可信度, 则 CF(H,E)> 0,证据的出现越是支持 H 为真, 就使CF(H,E) 的值越大。 ▪ 反之,CF(H,E)< 0,证据的出现越是支持 H 为 假,CF(H,E)的值就越小。 ▪ 若证据的出现与否与 H 无关,则 CF(H,E)= 0。
0.28 0.48 0.280.48 0.63
CF1,2,3
(H
)
1
CF1,2 (H ) min{| CF1,2 (
CF3 (H ) H ) |,| CF3 (H
)
|}
0.63 0.27 1 min{0.63,0.27}
Байду номын сангаас
0.36 0.73
0.49
综合可信度:CF(H) 0.49
求:CF(H )
21
4.2 可信度方法
解:
第一步:对每一条规则求出CF(H)。
r: 4
CF (E1 ) 0.7 max{ 0, CF[E4 AND (E5 OR
E6 )]}
0.7 max{ 0, min{ CF (E4 ), CF (E5 OR E6 )}} 0.7 max{ 0, min{CF (E4 ), max{ CF (E5 ), CF (E6 )}}}
第4章不确定与非单调推理-Read
(2) 对R3: CF(B1∧A3) = min{0.9, 1} = 0.9 CF(B2) = 0.8 × max{0, CF(B1∧A3) } = 0.72
p 132-133 例4.2
l 带有阈值限度的不确定性推理 Ø 知识不确定性的表达 IF A THEN B (CF(B, A),λ) (1)CF(B, A)∈(0, 1] 为规则的可信度因子 (2) λ ∈(0, 1]规定规则可应用的条件,只有 CF(A)≥ λ时,才能使用这条规则。 Ø 证据不确定性的表示 证据A的不确定性用可信度因子CF(A)表示, 其取值范围为[0,1]。
Ø 组合证据不确定性的算法 CF(A1∧A2) = min{CF(A1), CF(A2)} CF(A1∨A2) = max{CF(A1), CF(A2)} CF(~A) = - CF(A)
Ø 推理计算 (1) 已知CF(A), A→B,CF(B,A),求CF(B) CF(B) = CF(B, A) × max{0, CF(A)} (2) 由规则A1→B求得CF(B),又使用规则A2→B 时,如何更新CF(B)。 即已知CF(A1),CF(A2),及CF(B, A1), CF(B, A2)来寻求CF(B)。
Ø 逆概率方法 症状A,可能的疾病B1,B2,…,Bn IF A THEN Bi,i = 1,2,…n
要求Bi之间相互独立, i = 1,2,…n 。 计算可能是比较困难的。
l可信度方法(确定性方法)
以确定性因子或称可信度作为不确定性的度量。 Ø 可信度的概念 根据经验对一个事物或现象为真的相信程度, 称为可信度。 Ø C-F模型 ü 知识不确定性的表示 IF A THEN B (CF(B, A)) 可信度CF描述规则的不确定性。
Ø 证据的不确定性表示 也是用可信度因子表示的。 证据A,可信度因子 -1<=CF(A)<=1 A肯定为真时,CF(A) = 1 A肯定为假时,CF(A) = -1 对A一无所知时,CF(A) = 0 CF(A) > 0 表示A以CF(A)程度为真 CF(A) < 0表示A以-CF(A)程度为假 实际应用中,初始证据的CF值由专家主观给 定,其它证据的CF在推理中算出。
人工智能4不确定性推理
模糊集上的运算主要有:包含、交、并、补等等。
1. 包含运算
定义4.5 设A,B∈F(U),若对任意u∈U,都有
μB(u)≤μA(u) 成立,则称A包含B,记为B A。 2. 交、并、补运算
定义4.6 设A,B∈F(U),以下为扎德算子
A
B : A
B (u)
max{ uU
A
(u
),
B
(u)}
A (u) B (u)
3
模糊集的表示方法(1)
若论域离散且有限,则模糊集A可表示为:
也可写为:
A={μA(u1),μA(u2),…,μA(un)}
或者:
A=μA(u1)/u1+μA(u2)/u2+…+μA(un)/un
n
n
A (u ) / u , 或者A (u ) / u
Ai
i
Ai
i
i 1
i 1
A={μA(u1)/u1,μA(u2)/u2,…,μA(un)/un} A={(μA(u1),u1),(μA(u2),u2),…,(μA(un),un)} 隶属度为0的元素可以不写。
(A, B) 1 [1 (1 0.2)] 0.9 2
即A和B两个模糊集之间的匹配度为0.9。
21
语义距离
如果论域U上两个模糊集A和B的语义距离为d(A,B),则其匹配度为 1-d(A,B)。
曼哈顿距离(Manhattan Distance)或者海明距离(Hamming
Distance)
d (A, B)
A
•
B
{
U
A
(ui
)
B
(ui
)}
A⊙
B
{
人工智能原理及应用第4章 不确定性推理方法
4.2 概率推理
4.2.1 概率的基本性质和计算公式
4.2.1.2 事件间的关系 两个事件A与B可能有以下几种特殊关系: 并事件:对两个事件A与B,如果事件表达的是“事件A与事件B至 少有一个发生”,则称该事件为A与B的并事件,记为AUB。可见, 并事件是由A与B的所有样本点共同构成的事件。 交事件:如果事件表达的是“事件A与事件B同时发生”,则称该 事件为A与B的交事件,记为A∩B。可见,交事件是由既属于A又属 于B的所有样本点构成的事件。 互斥关系:若A与 B不能同时发生,则称A与B互斥,记作AB= Ø 对立关系:若A与B互斥,且必有一个发生,则称A与B对立,又称 A为B的余事件,或B为A的余事件。
并:记C=“A与B中至少有一个发生”,称为事件A与B的并,记
作 C { ห้องสมุดไป่ตู้ A 或 B} 。
差:记C=“A发生而B不发生”,称为事件A与B的差。
求余: ~ A \ A
4.2 概率推理
4.2.1 概率的基本性质和计算公式
4.1.2.3 事件的概率 定义4.5 设Ω为一个随机实验的样本空间,对Ω上的任意事件A,规定 一个实数与之对应且满足以下三条基本性质,记为P(A),称为事件A 发生的概率:
知识
图4-1 不确定性推理
4.1 不确定推理概述
4.1.1 不确定推理的概念
采用不确定性推理是客观问题的需求,其原因包括以下几个方面: (1)所需知识不完备,不精确 (2)所需知识描述模糊 (3)多种原因导致同一结论 (4)解决方案不唯一
4.1 不确定推理概述
4.1.2不确定性推理的基本问题和方法分类
机缘控制
启发式搜索
图4-2 不确定性推理分类
概率方法 主观Bayes方法 可信度方法 证据理论
04不确定性推理
第四章 不确定性推理方法
4.1 概述
在人类的知识和思维行为中,精确性只是相对的,不精确性 才是绝对的。知识工程需要各种适应不同类的不精确性特点的不 精确性知识描述方法和推理方法。
由于以上某种或多种原因,人工智能系统常采用非标准意义 下的不确定性推理方法。
不确定性推理是指建立在不确定性知识和证据的基础上的推 理。它实际上是一种从不确定的初始证据出发,通过运用不确定 性知识,最终推出既保持一定程度的不确定性,又是合理和基本 合理的结论的推理过程。
6
第四章 不确定性推理方法
4.2 确定性方法
4.2.1 规则的不确定性度量
CF(B, A)的特殊值:
CF(B, A) = 1, 前提真,结论必真
CF(B, A) = -1, 前提真,结论必假
CF(B, A) = 0 , 前提真假与结论无关
实际应用中CF(B, A)的值由专家确定,并不是由P(B|A), P(B)
1.知识不确定性的表示 2.证据不确定性的表示 3.组合证据不确定性的算法 4.不确定性的传递算法 5.结论不确定性的合成算法
第四章 不确定性推理方法
4.2 确定性方法
4.2.1 规则的不确定性度量 规则以A→B表示,其中前提A可以是一些命题的合取或析取。
MYCIN系统引入可信度CF作为规则不确定性度量。 在不确定推理过程中,通常要考 虑的是A为真时对B为真的支持 程度,甚至还考 虑A为假(不发生)时对B为真的支持程度。
2
第四章 不确定性推理方法
4.1 概述
由于知识本身的不精确和不完全,采用标准逻辑意义下的推 理方法难以达到解决问题的目的。对于一个智能系统来说,知识 库是其核心。在这个知识库中,往往大量包含模糊性、随机性、 不可靠性或不知道等不确定性因素的知识。为了解决这种条件下 的推理计算问题,不确定性推理方法应运而生。
不确定推理方法(四)
P(H)表示 H 的先验概率;P(H/E)表示在前提条件 E 所对应的证据出 现的情况下,结论 H 的条件概率。
10
分析 1: 由 MB 与 MD 的定义可以看出,当 MB(H, E)>0 时,有 P(H/E)>P(H),这说 明由于 E 所对应的证据出现增加了对 H 的信任程度。另外,当 MD(H, E)>0 时,有 P(H/E)<P(H),这说明由于 E 所对应的证据出现增加了对 H 的不信 任程度。显然,一个证据不可能既增加对 H 的信任程度,又同时增加对 H 的不信任程度,因此 MB(H, E)与 MD(H, E)是互斥的。即 当 MB(H, E)>0 时,MD(H, E)=0。 当 MD(H, E)>0 时,MB(H, E)=0。 MB 和 MD 的值域为[0, 1]。 根据 CF(H, E)的定义及 MB(H, E)与 MD(H, E)的互斥性,可得到 CF(H,E) 的计算公式为:
按它所依据的理论不同分为: 基于概率的方法:所依据的理论是概率论; 模糊推理方法:所依据的理论是模糊理论。 (2)非数值的方法: (指除数值方法外的其它方法,如逻辑法)
说明:(1)纯概率方法有严密的理论体系;要求给出事件的先验概
率和条件概率(应用受到限制) (2)在概率论的基础上, 发展了一些新的处理不确定性方法: 可信度方法、主观 Bayes 方法、证据理论方法。
于观察本身的不确定性,由此所得的初始证据具有不确定性)(2)在推理过程中利用前面 ; 推理出的结论作为新的推理证据(由于在前面推理中,所使用的初始证据的不确定性,以及 在推理过程中所利用知识的不确定性,都导致了所推结果的不确定性) 。 证据不确定性的表示通常为一个数值; 初始证据的值一般由用户或专家给出; 用前面推 理出的结论作为新的推理证据,其值由推理中的不确定性传递算法计算得到。
ch4_不确定性推理
式中,
为先验概率; 为后验概率。 Bayes公式就是从先验概率推导出后验概率的公 式。
概率推理方法—主观Bayes方法
为阐明主观Bayes方法,先引入几个概念: 引入两个数值(LS,LN)来作度量
LS 表现规则成立的充分性 LN 表现规则成立的必要性
这种表示既考虑了 A 的出现对 B 的支持,又 考虑了 A 的不出现对 B 的影响。
可信度方法——确定性方法
知识的不确定性处理 如果规则的条件部分不完全确定,即可信度不 为1时,求知识的可信度方法有两种: (1)取结论可信度为条件可信度系数的乘积。 (2)按照某种概率论的解释,我们假设规则的条 件部分的可信度Cin和其结论部分的可信度Cout 存在某种关系,这种关系可用来代表规则的不 确定性。
主观Bayes方法推理计算
线性插值图
主观Bayes方法推理计算
P(A|A‘)的其它取值下的P(B|A’),可通过线性插 值图求得。 (3)P(A1∧A2|A‘)=min{P(A1|A’),P(A2|A‘)} P(A1∨A2|A’)=max{P(A1|A‘),P(A2|A’)} (4)若A1→B, A2→B而A1,A2相互独立,对 A1,A2的有关观察分别为A1‘,A2’便有:
计算出P(B|A),P(B|~A)。
主观Bayes方法推理计算
(2)当A是不确定的,即P(A)≠1时,需作如下考 虑。 设A‘代表与A有关的所有观察,对规则A→B来 说 Duda 1976年给出公式:
P(B|A')=P(B|A)· P(A|A)'+P(B|~A)· P(~A|A')
问题是当P(B|A'),A→B (LS,LN)以及P(B)已 知时,如何更新P(B)或说寻求P(B|A') 。 当P(A|A‘)=1时,证据A必然出现有下式成立:
人工智能4 不确定性推理 人工智能课程 中国海洋大学
对于初始证据,其值由用户给出; 对推理所得证据,其值由推理中不确定性的传递算法通过计算得到。
3
• 不确定性的量度 对于不同的知识和不同的证据,其不确定性的程度一般是不相同的,需 要用不同的数据表示其不确定性的程度,同时还要事先规定它的取值范围。 例如,在专家系统 MYCIN 中,用可信度表示知识与证据的不确定性,取值 范围为 [-1, 1]。 在确定一种量度及其范围时,应注意以下几点: 1) 量度能充分表达相应知识及证据不确定性的程度。
1. 为什么要研究不确定性推理问题
• 现实世界的问题求解大部分是不良结构;
• 对不良结构的知识描述具有不确定性: 1) 问题证据的不确定性; 2) 专门知识的不确定性。
2. 什么是不确定性推理
不确定性推理是建立在非经典逻辑基础上的一种推理,它是对 不确定性知识的运用和处理。 不确定性推理就是从不确定性的初始证据出发,通过运用不确
定性的知识,最终推出具有一定程度的不确定性但却合理或者近 乎合理的结论的思维过程。
1
3. 不确定性推理中的基本问题
在不确定性推理中,知识和证据都具有某种程度的不确定性,
这就为推理机的设计与实现增加了复杂性和难度。它除了必须解
决推理方向、推理方法、控制策略等基本问题外,一般还需要解 决不确定性的表示和量度、不确定性匹配、不确定性的传递算法 以及不确定性的合成等重要问题。
16
(3) 有多个证据时
对于有多个证据E1, E2, …, Em和多个结论H1, …, H2, Hn,并且每个证据都以 一定的程度支持结论的情况,上面的式子可进一步扩充为: P(Hi/E1 E2…Em)=
P(E1/Hi ) P(E2 /Hi ) ...P(Em /Hi ) P(Hi )
人工智能导论 第4章 不确定性推理方法(导论)42-76
64
4.4.4 模糊关系与模糊关系的合成
2. 模糊关系的合成
▪ 解:
0.5 0.6 0.3
S
Qo
R
0.7 0
1
0.4 0.8 0.2
1 0
o
0.2 0.8
0.9 0.5
1 0.4 0.3
(0.50.2)(0.6 0.8)(0.30.5)
(0.70.2)(0.4 0.8) (10.5)
AB
ABLeabharlann AB584.4.3 模糊集合的运算
▪ 例4.5 设论域U x1, x2 , x3 , x4 , x5 ,A 及 B 是论域上 的两个模糊集合,已知:
A 0.2 x1 0.4 x 2 0.9 x 3 0.5 x5 B 0.1 x1 0.7 x 3 1.0 x 4 0.3 x5
66
4.4.5 模糊推理
2. 对 IF A THEN B 类型的模糊规则的推理
▪若已知输入为 A,则输出为 B ;若现在已知输入为 A',
则输出 B ' 用合成规则求取 B ' A 'oR
其中模糊关系R: R ( x, y) min[ A ( x), B ( y)]
▪ 控制规则库的N 条规则有N 个模糊关系: R1 , R 2 ,
B B (b1), B (b2
61
4.4.4 模糊关系与模糊关系的合成
1. 模糊关系
▪ 例4.7 已知输入的模糊集合A和输出的模糊集合B:
A 1.0 / a1 0.8 / a2 0.5 / a3 0.2 / a4 0.0 / a5
B 0.7 / b1 1.0 / b2 0.6 / b3 0.0 /b4 ▪ 求A到B的模糊关系R。
第四章不确定性推理教程以及答案
这就是证据肯定不存在的情况。
4.4 主观Bayes方法
(3)当P(E/S)=P(E)时,表示E与S无关,利用全概率公式 将公式(4.4.5)变为
P( H / S)=P( H / E ) P( E ) P( H / E ) P(E ) P( H )
1.表示问题
1、知识不确定性的表示 2、证据的不确定性表示
1、不确定性的传递算法 2、结论不确定性的合成 3、组合证据的不确定性算法 1、知识的不确定性度量 2、证据的不确定性度量
2. 计算问题
3. 语义问题
4.2 不确定性推理方法分类
1、模型方法 特点:把不确定的证据和不确定的知识分别与某 种度量标准对应起来,并且给出更新结论不确定性的 算法,从而构成了相应的不确定性推理的模型。 数值方法
L/O/ቤተ መጻሕፍቲ ባይዱ/O
第四章
不确定性推理
本章内容
1 2 3 4 5 不确定性推理中的基本问题 不确定性推理方法分类 概率方法 主观Bayes方法
可信度方法
证据理论
6
4.1 不确定性推理中的基本问题
要实现对不确定性知识的处理,必须要解决不 确定知识的表示问题,不确定信息的计算问题,以 及不确定性表示和计算的语义解释问题。
(4)当P(E/S)为其它值时,通过分段线性插值就可得计 算P(H/S)的公式
P( H ) P( H / E ) P( H / E ) P( E / S ) P( E ) 当0 P( E / S ) P( E ) P( H / S ) P( H ) P( H / E ) P( H ) [ P( E / S ) P( E )] 当P( E ) P( E / S ) 1 1 P( E )
第四章不确定性推理
– 数值方法 • 按其所依据的理论又可分为:基于概率的方 法和基于模糊理论的模糊推理。 – 非数值方法
19
若A1,A2,…,An是彼此独立的事件, P( Ai ) P( B | Ai ) P( Ai | B) n , i 1, 2,..., n P( Aj ) P( B | Aj )
j 1
其中,P(Ai)是事件Ai的先验概率;P(B|Ai)是在事件Ai发生条 件下事件B的条件概率。 如果用产生式规则 IF E THEN Hi 中的前提条件E代替Bayes公式中的B,用Hi代替公式中的Ai , 就可得到 P( H i ) P( E | H i ) P( H i | E ) n , i 1, 2,..., n 20 P( H j ) P( E | H j )
• P(¬ A)=1-P(A) • P(A∪B)=P(A)+P(B)-P(AB) • 如果 A B ,则P(A-B)=P(A)-P(B)
13
• 如果在事件B发生的条件下考虑事件A发生的概率, 就称它为事件A的条件概率,记为P(A|B)。 • 定义4.3 设A,B是两个事件,P(B)>0,则称
P( A | B) P( A B) P( B)
j 1
P ( H i | E1 E2 Em ) P ( H i ) P ( E1 | H i ) P ( E2 | H i ) P ( Em | H i )
P( H
j 1
n
第4讲 不确定性推理
第4章 不确定性推理4.1 不确定性及其类型 4.2 主观Bayes方法 4.3 可信度理论 4.4 证据理论4.1 不确定性及其类型推理的分类: 精确推理 不精确推理(即不确定推理)4.1 不确定性及其类型一、 不确定性的原因:A 证据的不确定性 歧义性: 不完全性: 不精确性: 模糊性: 可信性: 随机性:其它因素引起的不确定性。
4.1 不确定性及其类型B 规则的不确定性前提条件的不确定性:例如“如发高烧则可能感冒”, 发高烧是个模糊的概念。
观察证据的不确定性:如人的体温早晚是不同的。
组合证据的不确定性。
规则自身的不确定性。
在规则的使用过程中含有两种典型的不确定性4.1 不确定性及其类型C 推理的不确定性 推理的不确定性反映了知识不确定性的 动态积累和转播过程。
二、 不确定推理网络中的三种基本模式证据逻辑组合模式已知证据E1、E2、……、En的不确定测度分别为MU1、 MU2、 …… 、MUn,则证据组合后的不确定测度为MU(1) 证据的合取:MU(E1^E2^……^En)=f(MU1,MU2,……,MUn)f是一个函数的名称。
(2) 证据的析取:MU(E1 V E2 V …… V En)=g(MU1,MU2,……,MUn)g是一个函数的名称。
(3) 证据的否定: MU(~Ei)=h(MUi) h是一个函数的名称。
2. 证据的并行规则模式已知每一单条规则 if Ei then h with Mui(i=1,2,……,n),则所有规则都满足 时,h的不确定测度 MU=p(MU1,MU2, … ,MUn) p是一个函数的名称。
3. 证据的顺序规则模式已知规则 if E’ then E with MU0 if E then h with MU1则规则 if E’ then h with MU 中的MU的计算 MU=s(MU0,MU1) s是一个函数的名称4.2 主观Bayes方法1. 主观Bayes公式:a. p(E):证据E的不确定性,为E发生的概率。
第四章 不确定推理方法
观Bayes方法,建立了不确定性推理模型,并在地矿勘探专家 系统PROSPECTOR中得到了成功的应用。
主观Bayes方法:根据证据E的概率,利用知识强度,把结论
H的先验概率P(H)更新为后验概率P(H/E).
先验概率:在获得与期望结果相关的任何信息之前已经被算出的概 率 ,无条件概率。 及证据 Ej的条件概率 P( Ej | Hi):此事件被加上一些新信息后的概率 。
第4章 不确定性推理方法 不确定性推理方法的分类
路线 1 (在推理一级上扩展确定性推理):把不确定的 证据和知识与某种度量标准对应起来,并且不断更新结 论不确定性的算法,从而构成相应不确定推理的模型。
路线 2 (在控制策略一级上处理不确定性):通过识别 领域中引起不确定性的特征和相应的控制策略来限制或 减少不确定性对系统的影响
4.3 主观Bayes方法
4.4 可信度方法
4.5 证据理论
4.6 模糊推理方法
4.1 不确定性推理中的基本问题
已知事实 推理: 某种策略 结 论
(证据)
知识
不确定推理:
不确定证据 不确定知识
某种策略
不确定结 论 (不确定程度)
4.1 不确定性推理中的基本问题 不确定性的表示与量度
概率方法
4.3 主观Bayes方法
4.4 可信度方法 4.5 证据理论 4.6 模糊推理方法
4.2 概率方法
例:特定的目标身份融合问题,
目标身份的可能种类的集合称为假设空间,可以抽象地表 示为一个有限集合,该集合中的每个元素的先验概率P(H) 是已知的。
有若干信息源(如传感器),分别能够从某一角度对所关
人工智能第四章不确定性推理
– 如制导回溯、启发式搜索等等
2016-1-22
史忠植 人工智能:不确定性推理
5
内容提要
4.1 概述 4.2 可信度方法 4.3 主观贝叶斯方法 4.4 证据理论 4.5 模糊逻辑和模糊推理 4.6 小结
2016-1-22
史忠植 人工智能:不确定性推理
6
知识的不确定性表示
• 产生式规则:
If E Then H (CF(H, E))
MB(H,E)= m-a--x-{-P--(-H--1-|-E-P-)-(,-H-P-)-(-H--)-}--–---P--(-H--)--- 否则
• MD的定义:
1
若P(H)=0
MD(H,E)= m-i-n---{-P--(-H---P|-E-(-)H-,-)P--(-H--)-}--–---P--(-H--)--- 否则
信度CF(H)
2016-1-22
史忠植 人工智能:不确定性推理
15
结论不确定性合成算法
• r1: if E1 then H (CF(H,E1))
r2: if E2 then H (CF(H,E2)) 求合成的CF(H)
(ห้องสมุดไป่ตู้)首先对每条知识求出CF(H),即:
CF1(H)=CF(H,E1) max{0, CF(E1)} CF2(H)=CF(H,E2) max{0, CF(E2)}
• 已知C(A), AB f(B,A),如何计算C(B)
• 已知C1(A),又得到C2(A),如何确定C(A)
• 如何由C(A1),C(A2)计算C(A1A2), C(A1A2)
–语义问题: 指的是上述表示和计算的含义是
什么,如何进行解释.
2016-1-22
人工智能不确定性推理部分参考答案
不确定性推理部分参考答案1.设有如下一组推理规则:r1: IF E1THEN E2 (0.6)r2: IF E2AND E3THEN E4 (0.7)r3: IF E4THEN H (0.8)r4: IF E5THEN H (0.9)且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。
求CF(H)=?解:(1) 先由r1求CF(E2)CF(E2)=0.6 × max{0,CF(E1)}=0.6 × max{0,0.5}=0.3(2) 再由r2求CF(E4)CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}}=0.7 × max{0, min{0.3, 0.6}}=0.21(3) 再由r3求CF1(H)CF1(H)= 0.8 × max{0,CF(E4)}=0.8 × max{0, 0.21)}=0.168(4) 再由r4求CF2(H)CF2(H)= 0.9 ×max{0,CF(E5)}=0.9 ×max{0, 0.7)}=0.63(5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H)CF(H)= CF1(H)+CF2(H)+ CF1(H) × CF2(H)=0.6922 设有如下推理规则r1: IF E1THEN (2, 0.00001) H1r2: IF E2THEN (100, 0.0001) H1r3: IF E3THEN (200, 0.001) H2r4: IF H1THEN (50, 0.1) H2且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知:P(E1| S1)=0.84, P(E2|S2)=0.68, P(E3|S3)=0.36请用主观Bayes方法求P(H2|S1, S2, S3)=?解:(1) 由r1计算O(H1| S1)先把H1的先验概率更新为在E1下的后验概率P(H1| E1)P(H1| E1)=(LS1× P(H1)) / ((LS1-1) × P(H1)+1)=(2 × 0.091) / ((2 -1) × 0.091 +1)=0.16682由于P(E1|S1)=0.84 > P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1)P(H1| S1) = P(H1) + ((P(H1| E1) – P(H1)) / (1 - P(E1))) × (P(E1| S1) – P(E1))= 0.091 + (0.16682 –0.091) / (1 – 0.6)) × (0.84 – 0.6)=0.091 + 0.18955 × 0.24 = 0.136492O(H1| S1) = P(H1| S1) / (1 - P(H1| S1))= 0.15807(2) 由r2计算O(H1| S2)先把H1的先验概率更新为在E2下的后验概率P(H1| E2)P(H1| E2)=(LS2×P(H1)) / ((LS2-1) × P(H1)+1)=(100 × 0.091) / ((100 -1) × 0.091 +1)=0.90918由于P(E2|S2)=0.68 > P(E2),使用P(H | S)公式的后半部分,得到在当前观察S2下的后验概率P(H1| S2)和后验几率O(H1| S2)P(H1| S2) = P(H1) + ((P(H1| E2) – P(H1)) / (1 - P(E2))) × (P(E2| S2) – P(E2))= 0.091 + (0.90918 –0.091) / (1 – 0.6)) × (0.68 – 0.6)=0.25464O(H1| S2) = P(H1| S2) / (1 - P(H1| S2))=0.34163(3) 计算O(H1| S1,S2)和P(H1| S1,S2)先将H1的先验概率转换为先验几率O(H1) = P(H1) / (1 - P(H1)) = 0.091/(1-0.091)=0.10011再根据合成公式计算H1的后验几率O(H1| S1,S2)= (O(H1| S1) / O(H1)) × (O(H1| S2) / O(H1)) × O(H1)= (0.15807 / 0.10011) × (0.34163) / 0.10011) × 0.10011= 0.53942再将该后验几率转换为后验概率P(H1| S1,S2) = O(H1| S1,S2) / (1+ O(H1| S1,S2))= 0.35040(4) 由r3计算O(H2| S3)先把H2的先验概率更新为在E3下的后验概率P(H2| E3)P(H2| E3)=(LS3× P(H2)) / ((LS3-1) × P(H2)+1)=(200 × 0.01) / ((200 -1) × 0.01 +1)=0.09569由于P(E3|S3)=0.36 < P(E3),使用P(H | S)公式的前半部分,得到在当前观察S3下的后验概率P(H2| S3)和后验几率O(H2| S3)P(H2| S3) = P(H2 | ¬ E3) + (P(H2) – P(H2| ¬E3)) / P(E3)) × P(E3| S3)由当E3肯定不存在时有P(H2 | ¬ E3) = LN3× P(H2) / ((LN3-1) × P(H2) +1)= 0.001 × 0.01 / ((0.001 - 1) × 0.01 + 1)= 0.00001因此有P(H2| S3) = P(H2 | ¬ E3) + (P(H2) – P(H2| ¬E3)) / P(E3)) × P(E3| S3)=0.00001+((0.01-0.00001) / 0.6) × 0.36=0.00600O(H2| S3) = P(H2| S3) / (1 - P(H2| S3))=0.00604(5) 由r4计算O(H2| H1)先把H2的先验概率更新为在H1下的后验概率P(H2| H1)P(H2| H1)=(LS4× P(H2)) / ((LS4-1) × P(H2)+1)=(50 × 0.01) / ((50 -1) × 0.01 +1)=0.33557由于P(H1| S1,S2)=0.35040 > P(H1),使用P(H | S)公式的后半部分,得到在当前观察S1,S2下H2的后验概率P(H2| S1,S2)和后验几率O(H2| S1,S2)P(H2| S1,S2) = P(H2) + ((P(H2| H1) – P(H2)) / (1 - P(H1))) × (P(H1| S1,S2) – P(H1))= 0.01 + (0.33557 –0.01) / (1 – 0.091)) × (0.35040 – 0.091)=0.10291O(H2| S1,S2) = P(H2| S1, S2) / (1 - P(H2| S1, S2))=0.10291/ (1 - 0.10291) = 0.11472(6) 计算O(H2| S1,S2,S3)和P(H2| S1,S2,S3)先将H2的先验概率转换为先验几率O(H2) = P(H2) / (1 - P(H2) )= 0.01 / (1-0.01)=0.01010再根据合成公式计算H1的后验几率O(H2| S1,S2,S3)= (O(H2| S1,S2) / O(H2)) × (O(H2| S3) / O(H2)) ×O(H2)= (0.11472 / 0.01010) × (0.00604) / 0.01010) × 0.01010=0.06832再将该后验几率转换为后验概率P(H2| S1,S2,S3) = O(H1| S1,S2,S3) / (1+ O(H1| S1,S2,S3))= 0.06832 / (1+ 0.06832) = 0.06395可见,H2原来的概率是0.01,经过上述推理后得到的后验概率是0.06395,它相当于先验概率的6倍多。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2、可信度方法
它 是 MYCIN 专 家 系 统中使用的不确定 推理模型,它以确 定性理论为基础, 方法简单、易用。
3、证据理论
它通过定义信任 函数、似然函数, 把知道和不知道 区别开来。
4.2 不确定性推理方法分类
2、控制方法 特点:通过识别领域中引起不确定性的某些特征及 相应的控制策略来限制或减少不确定性对系统产生的 影响,这类方法没有处理不确定性的统一模型,其效 果极大地依赖于控制策略。
4.2 不确定性推理方法分类
纯概率方法虽然有严密的理论依据,但它通常要求给出事件的先验 概率和条件概率,而这些数据又不易获得,因此其应用受到了限制。为 了解决这这个问题,人们在概率理论的基础上发展起来了一些新的方法 及理论:
1、主观Bayes方法
它是PROSPECTOR专 家系统中使用的不 确定推理模型,是 对Bayes公式修正 后形成的一种不确 定推理方法。
P( H i | E )
P( E | H i ) P( H i )
P( E | H
j 1
n
i=1,2, ,n
(4.3.2)
j
) P( H j )
这就是说,当已知结论Hi 的先验概率,并且已知结论Hi(i=1,2,…) 成立时前提条件 E 所对应的证据出现的条件概率 P(E|Hi) ,就可以用上
数值方法是对不确定性的一种定量表示和 处理方法。
非数值 方法
非数值方法是指出数值方法外的其他各种处 理不确定性的方法 ,它采用集合来描述和处 理不确定性,而且满足概率推理的性质。
4.2 不确定性推理方法分类
对于数值方法,按其依据的理论不同又可分为 以下两类: 分类
数值方法
1、基于概 率的方法
2、模糊推理
i
(4.3.1)
Bayes公式容易由条件概率的定义、乘法公式和全 概率公式得到。在Bayes公式中,称为先验概率,而称 为后验概率,也就是条件概率。
4.3 概率方法
4.3.3 逆概率方法的基本思想 1.单个证据的情况
如果用产生式规则 IF E THEN Hi i =1, 2, , n 其中前提条件E 代替Bayes公式中B,用Hi 代替公式中的Ai 就可得到
1.表示问题
1、知识不确定性的表示 2、证据的不确定性表示
1、不确定性的传递算法 2、结论不确定性的合成 3、组合证据的不确定性算法 1、知识的不确定性度量 2、证据的不确定性度量
2. 计算问题
3. 语义问题
4.2 不确定性推理方法分类
1、模型方法 特点 : 把不确定的证据和不确定的知识分别与某 种度量标准对应起来,并且给出更新结论不确定性的 算法,从而构成了相应的不确定性推理的模型。 数值方法
式求出相应证据出现时结论Hi
的条件概率P(Hi|E)。
4.3 概率方法
2.多个证据的情况 对于有多个证据 E1 , E2 , , Em 和多个结论 H , H , , H 并且每个证据都以一定程度支持结论的情况,上面的 式子可进一步扩充为
1 2 n
P( H i / E1E2
Em )
P( E1 / H i ) P( E2 / H i )
i j
4.4 主观Bayes方法
4.4.1 知识不确定性的表示
在主观Bayes方法中,知识是用产生式规则表示的,具体 形式为
IF E THEN (LS,LN) H
(P(H))
其中 ( 1 ) E 是该知识的前提条件。它既可以是一个简单条件,也可 以是复合条件。 (2)H 是结论。P(H)是 H 的先验概率,它指出在没有任何证据 情况下的结论 H 为真的概率,即 H 的一般可பைடு நூலகம்性。其值由领 域专家根据以往的实践及经验给出。 ( 3)( LS,LN) 为规则强度。其值由领域专家给出。 LS, LN相 当于知识的静态强度。
4.3 概率方法
4.3.2 Bayes定理 设 A, B1 , B2 , Bn 为一些事件, P ( A) 0, B1 , B2 , Bn 互不 相交,P(Bi)>0,i=1,2,…,n,且 P ( Bi 1) 则对于
k 1, 2, n, 有,
i
P( Bk ) P( A | Bk ) P( Bk | A) P( Bi ) P( A | Bi )
相关性制 导回溯
机缘控制
启发式 搜索
4.3 概率方法
4.3.1 经典概率方法
设有如下产生式规则: IF E THEN H 其中,E为前提条件,H为结论,具有随机性。 根据概率论中条件概率的含义,我们可以用条件概率 表示上述产生式规则的不确定性程度,即表示为在证据 出现的条件下,结论H成立的确定性程度。 对于复合条件 E = E1 AND E2 AND … AND En 可以用条件概率作为在证据出现时结论的确定程度。
P ( Em / H i ) P ( H i ) P ( Em / H j ) P ( H j )
(4.3.3)
P( E / H ) P( E
j 1 1 j
n
2
/ H j)
4.3 概率方法
4.3.4 逆概率方法的优缺点 逆概率公式的优点是它有较强的理论背景和良好 的数学特征,当证据及结论彼此独立时计算的复杂度 比较低。其缺点是要求给出结论 H i 的先验概率P ( H i ) 及 证据 E j 的条件概率 P( E j / H i ) ,尽管有些时候 P( E j / H i ) 比 P( H / E ) 相对容易得到,但总的来说,要想得到这 些数据仍然是一件相当困难的工作。另外,Bayes公式 的应用条件是很严格的,它要求各事件互相独立等, 如若证据间存在依赖关系,就不能直接使用这个方法。
L/O/G/O
第四章
不确定性推理
本章内容
1 2 3 4 5 不确定性推理中的基本问题 不确定性推理方法分类 概率方法 主观Bayes方法
可信度方法
证据理论
6
4.1 不确定性推理中的基本问题
要实现对不确定性知识的处理,必须要解决不 确定知识的表示问题,不确定信息的计算问题,以 及不确定性表示和计算的语义解释问题。
4.4 主观Bayes方法
4.4.2 证据不确定性的表示
若以O(A) 或P(A)表示证据A的不确定性,则转换公式 是:
当A为假时 0 P( A) O( A) 当A为真时 1 P( A) 0, 当A介于真假之间时