不确定性推理部分参考答案

合集下载

(完整word版)不确定性推理部分参考答案

(完整word版)不确定性推理部分参考答案

第6章不确定性推理部分参考答案6.8 设有如下一组推理规则:r1: IF E1THEN E2 (0.6)r2: IF E2AND E3THEN E4 (0.7)r3: IF E4THEN H (0.8)r4: IF E5THEN H (0.9)且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。

求CF(H)=?解:(1) 先由r1求CF(E2)CF(E2)=0.6 × max{0,CF(E1)}=0.6 × max{0,0.5}=0.3(2) 再由r2求CF(E4)CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}}=0.7 × max{0, min{0.3, 0.6}}=0.21(3) 再由r3求CF1(H)CF1(H)= 0.8 × max{0,CF(E4)}=0.8 × max{0, 0.21)}=0.168(4) 再由r4求CF2(H)CF2(H)= 0.9 ×max{0,CF(E5)}=0.9 ×max{0, 0.7)}=0.63(5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H)CF(H)= CF1(H)+CF2(H)+ CF1(H) × CF2(H)=0.6926.10 设有如下推理规则r1: IF E1THEN (2, 0.00001) H1r2: IF E2THEN (100, 0.0001) H1r3: IF E3THEN (200, 0.001) H2r4: IF H1THEN (50, 0.1) H2且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知:P(E1| S1)=0.84, P(E2|S2)=0.68, P(E3|S3)=0.36请用主观Bayes方法求P(H2|S1, S2, S3)=?解:(1) 由r1计算O(H1| S1)先把H1的先验概率更新为在E1下的后验概率P(H1| E1)P(H1| E1)=(LS1× P(H1)) / ((LS1-1) × P(H1)+1)=(2 × 0.091) / ((2 -1) × 0.091 +1)=0.16682由于P(E1|S1)=0.84 > P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1)P(H1| S1) = P(H1) + ((P(H1| E1) – P(H1)) / (1 - P(E1))) × (P(E1| S1) – P(E1))= 0.091 + (0.16682 –0.091) / (1 – 0.6)) × (0.84 – 0.6)=0.091 + 0.18955 × 0.24 = 0.136492O(H1| S1) = P(H1| S1) / (1 - P(H1| S1))= 0.15807(2) 由r2计算O(H1| S2)先把H1的先验概率更新为在E2下的后验概率P(H1| E2)P(H1| E2)=(LS2× P(H1)) / ((LS2-1) × P(H1)+1)=(100 × 0.091) / ((100 -1) × 0.091 +1)=0.90918由于P(E2|S2)=0.68 > P(E2),使用P(H | S)公式的后半部分,得到在当前观察S2下的后验概率P(H1| S2)和后验几率O(H1| S2)P(H1| S2) = P(H1) + ((P(H1| E2) – P(H1)) / (1 - P(E2))) × (P(E2| S2) – P(E2))= 0.091 + (0.90918 –0.091) / (1 – 0.6)) × (0.68 – 0.6)=0.25464O(H1| S2) = P(H1| S2) / (1 - P(H1| S2))=0.34163(3) 计算O(H1| S1,S2)和P(H1| S1,S2)先将H1的先验概率转换为先验几率O(H1) = P(H1) / (1 - P(H1)) = 0.091/(1-0.091)=0.10011再根据合成公式计算H1的后验几率O(H1| S1,S2)= (O(H1| S1) / O(H1)) × (O(H1| S2) / O(H1)) × O(H1)= (0.15807 / 0.10011) × (0.34163) / 0.10011) × 0.10011= 0.53942再将该后验几率转换为后验概率P(H1| S1,S2) = O(H1| S1,S2) / (1+ O(H1| S1,S2))= 0.35040(4) 由r3计算O(H2| S3)先把H2的先验概率更新为在E3下的后验概率P(H2| E3)P(H2| E3)=(LS3× P(H2)) / ((LS3-1) × P(H2)+1)=(200 × 0.01) / ((200 -1) × 0.01 +1)=0.09569由于P(E3|S3)=0.36 < P(E3),使用P(H | S)公式的前半部分,得到在当前观察S3下的后验概率P(H2| S3)和后验几率O(H2| S3)P(H2| S3) = P(H2 | ¬ E3) + (P(H2) – P(H2| ¬E3)) / P(E3)) × P(E3| S3)由当E3肯定不存在时有P(H2 | ¬ E3) = LN3× P(H2) / ((LN3-1) × P(H2) +1)= 0.001 × 0.01 / ((0.001 - 1) × 0.01 + 1)= 0.00001因此有P(H2| S3) = P(H2 | ¬ E3) + (P(H2) – P(H2| ¬E3)) / P(E3)) × P(E3| S3)=0.00001+((0.01-0.00001) / 0.6) × 0.36=0.00600O(H2| S3) = P(H2| S3) / (1 - P(H2| S3))=0.00604(5) 由r4计算O(H2| H1)先把H2的先验概率更新为在H1下的后验概率P(H2| H1)P(H2| H1)=(LS4× P(H2)) / ((LS4-1) × P(H2)+1)=(50 × 0.01) / ((50 -1) × 0.01 +1)=0.33557由于P(H1| S1,S2)=0.35040 > P(H1),使用P(H | S)公式的后半部分,得到在当前观察S1,S2下H2的后验概率P(H2| S1,S2)和后验几率O(H2| S1,S2)P(H2| S1,S2) = P(H2) + ((P(H2| H1) – P(H2)) / (1 - P(H1))) × (P(H1| S1,S2) – P(H1))= 0.01 + (0.33557 –0.01) / (1 – 0.091)) × (0.35040 – 0.091)=0.10291O(H2| S1,S2) = P(H2| S1, S2) / (1 - P(H2| S1, S2))=0.10291/ (1 - 0.10291) = 0.11472(6) 计算O(H2| S1,S2,S3)和P(H2| S1,S2,S3)先将H2的先验概率转换为先验几率O(H2) = P(H2) / (1 - P(H2) )= 0.01 / (1-0.01)=0.01010再根据合成公式计算H1的后验几率O(H2| S1,S2,S3)= (O(H2| S1,S2) / O(H2)) × (O(H2| S3) / O(H2)) ×O(H2)= (0.11472 / 0.01010) × (0.00604) / 0.01010) × 0.01010=0.06832再将该后验几率转换为后验概率P(H2| S1,S2,S3) = O(H1| S1,S2,S3) / (1+ O(H1| S1,S2,S3))= 0.06832 / (1+ 0.06832) = 0.06395可见,H2原来的概率是0.01,经过上述推理后得到的后验概率是0.06395,它相当于先验概率的6倍多。

不确定性推理

不确定性推理
理不确定性,而且满足概率推理的性质。
2021/5/15
14
不确定性推理方法分类
对于数值方法,按其依据的理论不同又可分为以下两类: 1、基于概率的方法:是基于概率论的有关理论发展起来的 方法,如可信度方法、主观Bayes方法、证据理论等; 2、模糊推理:是基于模糊逻辑理论发展起来的可能性理论 方法
2021/5/15
24
可信度方法---CF模型
CF是由称为信任增长度MB和不信任增长度MD 相减而来的。即
CF(H,E)=MB(H,E)-MD(H,E)
1 MB(H,E) max(P(H E),P(H))P(H)
1P(H)
当P(H)=1 否则
1 MD(H,E) min(P(H E),P(H))P(H)
P(H)
2021/5/15
当P(H)=0 否则
25
可信度方法---CF模型
当MB(H,E)>0,表示由于证据E的出现增加了 对H的信任程度。当MD(H,E)>0,表示由于证 据E的出现增加了对H的不信任程度。由于对同 一个证据E,它不可能既增加对H的信任程度又 增 加 对 H 的 不 信 任 程 度 , 因 此 , MB(H,E) 与 MD(H,E)是互斥的,即
H 表示规则的结论部分,即假设 C F( H, E ) 表示规则的精确程度或可信度。 任何一个不确定性推理模型必须解决三个问题:
前提(证据,事实)的不确定性描述 规则(知识)的不确定性描述 不确定性的更新算法
2021/5/15
17
不确定性推理模型基本结构
证据的不确定性 C F( E ) ,表示证据E为真的程度。需 定义其在三种典型情况下的取值: E 为真 E 为假 对 E 一无所知 ( 该情况下的取值称为证据的单位元 e(E) )

不确定性简介基本机率论贝氏推理

不确定性简介基本机率论贝氏推理

13
聯合機率
n
n
p A Bi p A Bi p Bi
i 1
i 1
B4
A
B1
B3
B2
14
如果事件A的發生僅取決於兩個相互排斥的事件, 即B和非B, 可得:
p(A) = p(AB) p(B) + p(A B) p(B)
其中 是邏輯函數非。 同理,
p(B) = p(B A) p(A) + p(BA) p(A)
0.3 0.6 0.40+ 0.8 0.7 0.35+ 0.5
現在認為假設H2是最有可能的一個。
0.29 0.25
24
同樣觀察證據E2,專家系統計算所有假設最終的事後機率:
p Hi E1E2E3
p E1 Hi p E2 Hi p E3 Hi p Hi
3
,
p E1 Hk p E2 Hk p E3 Hk p Hk
事前和條件機率
假設
i=1
i=2
i=3
0.40
0.35
0.25
0.3
0.8
0.5
0.9
0.0
0.7
0.6
0.7
0.9
假設首先觀察證據E3。專家系統根據公式(3-19)計 算所有假設的事後機率:
22
p Hi E3
p E3 Hi p Hi
3
,
p E3 Hk p H k
k 1
i = 1, 2, 3
Naïve Bayesian classifiers assume that the effect of an attribute value on a given class is independent of values of the other attributes. (class conditional independence)

确定性与不确定性推理主要方法-人工智能导论

确定性与不确定性推理主要方法-人工智能导论

确定性与不确定性推理主要方法1.确定性推理:推理时所用的知识与证据都是确定的,推出的结论也是确定的,其真值或者为真或者为假。

2.不确定性推理:从不确定性的初始证据出发,通过运用不确定性的知识,最终推出具有一定程度的不确定性但却是合理或者近乎合理的结论的思维过程。

3.演绎推理:如:人都是会死的(大前提)李四是人(小前提)所有李四会死(结论)4.归纳推理:从个别到一般:如:检测全部产品合格,因此该厂产品合格;检测个别产品合格,该厂产品合格。

5.默认推理:知识不完全的情况下假设某些条件已经具备所进行的推理;如:制作鱼缸,想到鱼要呼吸,鱼缸不能加盖。

6.不确定性推理中的基本问题:①不确定性的表示与量度:1)知识不确定性的表示2)证据不确定性的表示3)不确定性的量度②不确定性匹配算法及阈值的选择1)不确定性匹配算法:用来计算匹配双方相似程度的算法。

2)阈值:用来指出相似的“限度”。

③组合证据不确定性的算法最大最小方法、Hamacher方法、概率方法、有界方法、Einstein方法等。

④不确定性的传递算法1)在每一步推理中,如何把证据及知识的不确定性传递给结论。

2)在多步推理中,如何把初始证据的不确定性传递给最终结论。

⑤结论不确定性的合成6.可信度方法:在确定性理论的基础上,结合概率论等提出的一种不确定性推理方法。

其优点是:直观、简单,且效果好。

可信度:根据经验对一个事物或现象为真的相信程度。

可信度带有较大的主观性和经验性,其准确性难以把握。

C-F模型:基于可信度表示的不确定性推理的基本方法。

CF(H,E)的取值范围: [-1,1]。

若由于相应证据的出现增加结论 H 为真的可信度,则 CF(H,E)> 0,证据的出现越是支持 H 为真,就使CF(H,E) 的值越大。

反之,CF(H,E)< 0,证据的出现越是支持 H 为假,CF(H,E)的值就越小。

若证据的出现与否与 H 无关,则 CF(H,E)= 0。

人工智能第十二讲不确定性推理-可信度方法

人工智能第十二讲不确定性推理-可信度方法
当用不同的知识进行推理得到了 相同的结 论,但不确定性的程度却不同,这样就需要对 这些不确定性程度进行合成。(注意:如果推 出的结论不同就产生 冲突,无法进行合成)
基本概念 --不确定性推理方法的分类
? 沿着两条路线发展:一是 模型方法 ,与控制策略 无关;二是控制方法,没有统一模型,依赖于控 制策略。我们只讨论模型方法。
? 例如: IF 发热38 °以上 AND 四肢关节疼痛无力 AND 胸闷咳嗽 THEN 患SARS (0.7) 表示病人如有上述症状则有七成把握认为他患 SARS
可信度方法
--C-F模型
? 定义: CF(H,E) = MB(H,E) -MD(H,E), 其中CF(H,E) ∈[-1,1] MB(Measure Belief )--信任增长度 ,表示因 与E匹配的证据的出现,使 H为真的信任增长度。
不确定性推理
--可信度方法
内容简介
一. 不确定性推理的基本概念与原理 二. 可信度方法的基本模型和三个扩展方法
基本概念
--不确定性推理的定义
? 从不确定性的初始证据出发,通过运用不 确定性的知识,最终推出具有一定程度的 不确定性但却是合理或者近乎合理的结论 的思维过程。
? 事实和知识是构成推理的两个基本要素。 已知事实称为证据(E),用以指出推理 的出发点及推理时应该使用的知识;而知 识是推理得以向前推进,并逐步达到最终 目标(H)的依据。
基本概念
-- 一些基本问题
1. 不确定性的表示与量度
a. 知识不确定性的表示
? 制定表示方法时需要考虑:一是要能根据领域 问题的特征把其不确定性比较准确地描述出来, 满足问题求解的需要;另一是要便于推理过程 中对不确定性的推算。
? 一般由领域专家给出,称为知识的 静态强度 。 静态强度可以是相应知识在应用中成功的概率, 也可以是该条知识的可信程度或其他。

人工智能教程习题及答案第4章习题参考解答

人工智能教程习题及答案第4章习题参考解答

第四章不确定性推理习题参考解答4.1 练习题4.1什么是不确定性推理?有哪几类不确定性推理方法?不确定性推理中需要解决的基本问题有哪些?4.2什么是可信度?由可信度因子CF(H,E)的定义说明它的含义。

4.3什么是信任增长度?什么是不信任增长度?根据定义说明它们的含义。

4.4当有多条证据支持一个结论时,什么情况下使用合成法求取结论的可信度?什么情况下使用更新法求取结论可信度?试说明这两种方法实际是一致的。

4.5设有如下一组推理规则:r1:IF E1THEN E2(0.6)r2:IF E2AND E3THEN E4 (0.8)r3:IF E4THEN H (0.7)r4:IF E5THEN H (0.9)且已知CF(E1)=0.5,CF(E3)=0.6,CF(E5)=0.4,结论H的初始可信度一无所知。

求CF(H)=?4.6已知:规则可信度为r1:IF E1THEN H1(0.7)r2:IF E2THEN H1(0.6)r3:IF E3THEN H1(0.4)r4:IF (H1AND E4) THEN H2(0.2)证据可信度为CF(E1)=CF(E2)=CF(E3)=CF(E4)=CF(E5)=0.5H1的初始可信度一无所知,H2的初始可信度CF0(H2)=0.3计算结论H2的可信度CF(H2)。

4.7设有三个独立的结论H1,H2,H3及两个独立的证据E1与E2,它们的先验概率和条件概率分别为P(H1)=0.4,P(H2)=0.3,P(H3)=0.394P(E1/H1)=0.5,P(E1/H2)=0.6,P(E1/H3)=0.3P(E2/H1)=0.7,P(E2/H2)=0.9,P(E2/H3)=0.1利用基本Bayes方法分别求出:方法分别求出:(1)当只有证据E1出现时,P(H1/E1),P(H2/E1),P(H3/E1)的值各为多少?这说明了什么?么?(2)当E1和E2同时出现时,P(H1/E1E2),P(H2/E1E2),P(H3/E1E2)的值各是多少?这说明了什么?明了什么?4.8在主观Bayes方法中,请说明LS与LN的意义。

ai7不确定性推理_tmp

ai7不确定性推理_tmp

主观Bayes方法 提出:1976年 杜达(R.O.Duda) 应用:地矿勘探专家系统PROSPECTOR
知识不确定性的表示 在主观Bayes方法中,知识(规则)就是推理网络中 的一条弧,它的不确定性是以一个数值对 (LS,LN)来进行描述的。 若以产生式规则的形式表示,其形式为: IF E THEN (LS,LN) H (P(H)) 其中各项含义如下 ①E是该知识的前提条件,既可以是单个的条件, 也可以是由AND或OR把多个简单条件连接而成的 复合条件。 ②H是结法 当证据E是由多个单一证据的合取组合而成时,即 E=E1E2…En 如果已知P(E1/S),P(E2/S),…,P(En/S),则 P(E/S)=min{P(E1/S),P(E2/S),…,P(En/S)} 当证据E是由多个单一证据的析取组合而成时,即 E=E1E2…En 如果已知P(E1/S),P(E2/S),…,P(En/S),则 P(E/S)=max{P(E1/S),P(E2/S),…,P(En/S)}
不确定性的推理计算 回顾1:Bayes公式
例1:设H1,H2,H3分别是三个结论,E是支持这些 结论的证据,且已知: P(H1)=0.4 P(H2)=0.5 P(H3)=0.2 P(E/H1)=0.3 P(E/H2)=0.4 P(E/H3)=0.5 求P(H1/E),P(H2/E),P(H3/E)的值
③(LS,LN)表示该知识的规则强度,度量知识的不 确定性。 LS:表示规则成立的充分性,体现前提为真对结论 的影响程度。 LN:表示规则成立的必要性,体现前提为假对结论 的影响程度。
证据不确定性的表示 1.单个证据不确定性的表示方法 在主观Bayes方法中,证据的不确定性是用概率表 示的。例如对于初始证据E,其先验概率为P(E) ,也可由用户根据观察S给出它的后验P(E/S)。 证据的不确定性也可用几率来表示。 概率与几率的关系

第8章不确定性知识的表示与推理

第8章不确定性知识的表示与推理

一般地,
A→(B, C(B|A))
(8-1)
其中C(B|A)表示规那么的结论B在前提A为真的情况下为真的信
度。 例如, 对上节中给出的两个不确定性命题, 假设采用(8-1)式,
假如乌云密布同时电闪雷鸣, 那么天要下暴雨(0.95)。 假如头痛发烧, 那么患了感冒(0.8)。
那个地方的0.95和0.8确实是对应规那么结论的信度。它们代替 了原命题中的“很可能”和“大概”, 可视为规那么前提与结论 之间的一种关系强度。
(2) 非完全知识库。随着知识的不断获取, 知识数目渐增, 那么可能出现非单调现象。例如, 设初始知识库有规那么:
x(bird(x)→fly(x)) 即“所有的鸟都能飞”。 后来得到了事实:
需要指出的是, 程度语言值中的程度也能够转化为命题的 真度。 例如, 我们能够把命题“小明个子比较高”用程度元组
(小明, 身高, (高, 0.9)) 那个地方的0.9是小明高的程度。
((小明, 身高, 高), 真实性, (真, 0.9)) 那个地方的0.9是命题“小明个子高”的真实程度, 即真度。 如 此, 我们就把小明的个子高的程度, 转化为命题“小明个子高” 的真度, 而且二者在数值上是相等的。
(2) 不确定性推理中一个规那么的触发,不仅要求其前提能匹 配成功,而且前提条件的总信度还必须至少达到阈值。
(3) 不确定性推理中所推得的结论是否有效, 也取决于其 信度是否达到阈值。
(4) 不确定性推理还要求有一套关于信度的计算方法, 包括 “与”关系的信度计算、“或”关系的信度计算、“非”关 系的信度计算和推理结果信度的计算等等。 这些计算也确实 是在推理过程中要反复进行的计算。
在非单调逻辑中, 假设由某假设出发进行的推理中一旦出 现不一致, 即出现与假设矛盾的命题, 那么允许撤消原来的假 设及由它推出的全部结论。基于非单调逻辑的推理称为非单 调逻辑推理, 或非单调推理。

人工智能导论 第4章 不确定性推理方法(导论) 1-41

人工智能导论 第4章 不确定性推理方法(导论) 1-41
(1)分别对每一条知识求出CF(H):
CF1(H ) =CF(H , E1)× max{0,CF(E1)} CF2(H ) =CF (H , E2 )× max{0,CF (E2 )}
19
4.2 可信度方法
5. 结论不确定性的合成算法
(2)求出E1与E2对H的综合影响所形成的可信度 CF1,2(H ):
教材:
王万良《人工智能导论》(第4版) 高等教育出版社,2017. 7
第4章 不确定性推理方法
现实世界中由于客观上存在的随机性、模糊性,反 映到知识以及由观察所得到的证据上来,就分别 形 成了不确定性的知识及不确定性的证据。因而 还必 须对不确定性知识的表示及推理进行研究。 这就是 本章将要讨论的不确定性推理。
3
第4章 不确定性推理方法
✓4.1 不确定性推理中的基本问题
4.2 可信度方法 4.3 证据理论 4.4 模糊推理方法
4
4.1 不确定性推理中的基本问题
推理:从已知事实(证据)出发,通过运用相 关 知识逐步推出结论或者证明某个假设成立或 不成 立的思维过程。
不确定性推理:从不确定性的初始证据出发, 通 过运用不确定性的知识,最终推出具有一定 程度 的不确定性但却是合理或者近乎合理的结 论的思 维过程。
r1 : CF1(H ) 0.8 max{0,CF(E1 )}
0.8 max{0,0.35} 0.28
23
4.2 可信度方法
解: 第一步:对每一条规则求出CF(H)。
r2 : CF2 (H ) 0.6 max{0,CF(E2 )}
0.6 max{0,0.8} 0.48
r3 : CF3(H ) 0.5 max{0,CF(E3 )}
4. 不确定性的传递算法

判断推理(4)――逻辑判断参考答案

判断推理(4)――逻辑判断参考答案

判断推理(4)――逻辑判断参考答案快读快解应用集锦一、条件有矛盾真假好分辨公务员考试中有这样的试题:试题1:某仓库失窃,四个保管员因涉嫌而被传讯。

四人的供述如下:甲:我们四人都没作案;乙:我们中有人作案;丙:乙和丁至少有一人没作案;丁:我没作案。

如果四人中有两人说的是真话,有两人说的是假话,则以下哪项断定成立?( )A.说真话的是甲和丁B.说真话的是乙和丙C.说真话的是甲和丙D.说真话的是乙和丁这是典型的利用分析矛盾解析的试题。

历年至今,在全国各地公务员考试中屡见鲜见。

解析这类试题,关键要找到条件之间的逻辑矛盾,然后真假自明。

什么是逻辑矛盾?简明地说,两个不同的断定,必有一个真,一个假。

比如:“这马是白的”和“这马不是白的”就构成了逻辑矛盾。

两者不能同真也不能同假。

而“这马是白的”和“这马是黄的”就不是逻辑矛盾。

虽然它们不能同真,但有可能都是假的一一如果它是一匹红色的马呢?了解了这些常识,可以利用分析矛盾的方法,解答上题。

[解析](1)四人中,两人诚实,两人说谎。

(2)甲和乙的话有矛盾!甲:我们四人都没作案;乙:我们中有人作案;可断定:甲和乙两人一个诚实一个撒谎。

剩余丙、丁两人中也必然是一个诚实一个撒谎。

(3)假设:丁说的是真话,那么,可推出丙说的话也真!丙:乙和丁至少有一人没作案;丁:我没作案。

显然,丁说真话不成立,于是推出:丁说假话,丙说真话。

(4)断定了丁说假话,就推出甲说的也是假话,乙说真话。

答案B。

即:说真话的是乙和丙。

试题2:军训最后一天,一班学生进行实弹射击。

几位教官谈论一班的射击成绩。

张教官说:“这次军训时间太短,这个班没有人射击成绩会是优秀。

”孙教官说:“不会吧,有几个人以前训练过,他们的射击成绩会是优秀。

”周教官说:“我看班长或是体育委员能打出优秀成绩。

”结果发现三位教官中只有一人说对了。

由此可以推出以下哪一项肯定为真?( )A.全班所有人的射击成绩都不是优秀B.班里所有人的射击成绩都是优秀C.班长的射击成绩是优秀D.体育委员的射击成绩不是优秀[解析](1)三人中只有一个说的对。

4_2 不确定性推理

4_2 不确定性推理

不确定性推理的问题
(3) 不确定性的传递算法
在每一步推理中,如何把证据及知识的不确定性传递给 结论 在多步推理中,如何把初始证据的不确定性传递给最终 结论

把当前推出的结论及其不确定性程度作为证据放入数 据库中,在以后的推理中,它又作为证据推出进一步 的结论,由此一步步进行推理,把初始证据的不确定 性传递给最终结论。
2) 量度范围的指定应便于领域专家及用户对不确定性的估 计的程度。
3) 要便于对不确定性的传递进行计算,而且对结论算出的 不确定性量度不能超出量度规定的范围。 4) 量度的确定应是直观的且有理论依据。
不确定性推理的问题
(2) 不确定性匹配算法及阈值的选择
如何确定是否匹配?
• 不确定性匹配算法:计算匹配双方相似程度的算法 • 阈值:相似的“限度”
(5) People were demonstrating and seniors were asked, on campus, to stop them .
(6)People were demonstrating and seniors were asked, to stop them from doing so on campus (although they could do it elsewhere)
模 型 方 法
非 数 值 方 法
框架推理 语义网络推理 常识推理 … 可信度方法
数 值 方 法 控制方法
基于概率的方法
主观Bayes方法
证据理论
模糊推理
不确定性推理方法的类型
1) 主观 Bayes 方法
利用新的信息将先验概率P(H)更新为后验概率P(H|E)的 一种计算方法
由 Duda 等人于 1976 年提出,其首先在Prospector专家 系统中使用,它以概率论中的 Bayes公式为基础。 核心思想: 根据证据的概率P(E),利用规则的(LS,LN),把结 论 H 的先验概率更新为后验概率 P(H|E)

不确定性知识表示及推理

不确定性知识表示及推理

一般地,
A→(B, C(B|A))
(8-1)
其中C(B|A)表示规则的结论B在前提A为真的情况下为真的信度。 例如, 对上节中给 出的两个不确定性命题, 若采用(8-1)式,
如果乌云密布并且电闪雷鸣, 则天要下暴雨(0.95)。 如果头痛发烧, 则患了感冒(0.8)。
这里的0.95和0.8就是对应规则结论的信度。它们代替了原命题中的“很可能”和 “大概”, 可视为规则前提与结论之间的一种关系强度。
8.1.2
对于不确定性知识, 其表示的关键是如何描述不确定性。 一般的做法是把不 确定性用量化的方法加以描述, 而其余部分的表示模式与前面介绍的(确定性)知 识基本相同。对于不同的不确定性, 人们提出了不同的描述方法和推理方法。下 面我们主要介绍(狭义)不确定性和不确切性知识的表示与推理方法,对于不完全性 和不一致性知识的表示, 简介几种非标准逻辑。
这几个命题中就含有不确切性, 因为其中的言词“高”、 “好朋友”、“稍 倾”等的涵义都是不确切的。我们无妨称这种涵义不确切的言词所代表的概念为 软概念(soft concept)。
(注: 在模糊集合(fuzzy set)的概念出现以后, 有些文献中(包括本书的第一、 二版)将这里的不确切性称为模糊性(fuzziness), 将含义不确切的言词所代表的 概念称为模糊概念, 但笔者认为将这种概念称为软概念似乎更为合理和贴切。 )
可以看出,不确定性推理与通常的确定性推理相比, 区别在于多了个信度计算 过程。然而, 正是因为含有信度及其计算, 所以不确定性推理与通常的确定性推 理就存在显著差别。
(1) 不确定性推理中规则的前件要与证据事实匹配成功, 不但要求两者的符 号模式能够匹配(合一), 而且要求证据事实所含的信度必须达“标”, 即必须达 到一定的限度。这个限度一般称为“阈值”。

人工智能导论 第4章 不确定性推理方法(导论)42-76

人工智能导论 第4章 不确定性推理方法(导论)42-76
0.5 0.3
64
4.4.4 模糊关系与模糊关系的合成
2. 模糊关系的合成
▪ 解:
0.5 0.6 0.3
S
Qo
R
0.7 0
1
0.4 0.8 0.2
1 0
o
0.2 0.8
0.9 0.5
1 0.4 0.3
(0.50.2)(0.6 0.8)(0.30.5)
(0.70.2)(0.4 0.8) (10.5)
AB
ABLeabharlann AB584.4.3 模糊集合的运算
▪ 例4.5 设论域U x1, x2 , x3 , x4 , x5 ,A 及 B 是论域上 的两个模糊集合,已知:
A 0.2 x1 0.4 x 2 0.9 x 3 0.5 x5 B 0.1 x1 0.7 x 3 1.0 x 4 0.3 x5
66
4.4.5 模糊推理
2. 对 IF A THEN B 类型的模糊规则的推理
▪若已知输入为 A,则输出为 B ;若现在已知输入为 A',
则输出 B ' 用合成规则求取 B ' A 'oR
其中模糊关系R: R ( x, y) min[ A ( x), B ( y)]
▪ 控制规则库的N 条规则有N 个模糊关系: R1 , R 2 ,
B B (b1), B (b2
61
4.4.4 模糊关系与模糊关系的合成
1. 模糊关系
▪ 例4.7 已知输入的模糊集合A和输出的模糊集合B:
A 1.0 / a1 0.8 / a2 0.5 / a3 0.2 / a4 0.0 / a5
B 0.7 / b1 1.0 / b2 0.6 / b3 0.0 /b4 ▪ 求A到B的模糊关系R。

(完整版)不确定性推理推理方法

(完整版)不确定性推理推理方法
H:是结论,它可以是一个单一结论,也可以是多 个结论。
CF(H,E):是该条知识的可信度,称为可信度因子或 规则强度,静态强度。
CH(H,E) 在[-1,1]上取值,它指出当前提条件 E 所 对应的证据为真时,它对结论为真的支持程度。
例如: if 头痛 and 流涕 then 感冒(0.7)
表示当病人确有“头痛”及“流涕”症状时,则有7 成的把握认为 他患了感冒。
MD:称为不信任增长度,它表示因与前提条件E匹 配的证据的出现,使结论H为真的不信任增长度。
在 C-F 模型中,把CF(H,E)定义为:
CF(H,E)=MB(H,E) – MD(H,E)
MB:称为信任增长度,它表示因与前提条件 E 匹 配的证据的出现,使结论H为真的信任增长度。
MB定义为:
MB(H,E)=
1 Max{P(H/E), P(H)} – P(H)
1 – P(H)
若P(H)=1 否则
性。
3. 可信度方法
(1) 可信度 根据经验对一个事物或现象为真的相信程度。
(2) C-F模型 C-F 模型是基于可信度表示的不确定性推理的基本方法。
Ⅰ. 知识不确定性的表示
在C-F模型中,知识是用产生式规则表示的,其一般 形式是:
if E then H (CF(H, E)) 其中,
E:是知识的前提条件,它既可以是一个单个条件, 也可以是用 and 及 or 连接起来的复合条件;
* 证据的不确定性表示方法应与知识的不确定性表 示方法保持一致,以便于推理过程中对不确定性进行统 一处理。
• 不确定性的量度
对于不同的知识和不同的证据,其不确定性的程度 一般是不相同的,需要用不同的数据表示其不确定性的 程度,同时还要事先规定它的取值范围。

不确定性推理

不确定性推理
若CF(H,E) < 0,则P(H|E) < P(H)。这说明由于证据E的出现减少了H为真的概率,即增加了H为假的可信度,CF(H,E)的值越小,增加H为假的可信度就越大。
知识的不确定性通常是用一个数值来描述的,该数值表示相应知识的确定性程度,也称为知识的静态强度。知识的静态强度可以是该知识在应用中成功的概率,也可以是该知识的可信程度等。如果用概率来表示静态强度,则其取值范围为[0,1],该值越接近于1,说明该知识越接近于“真”;其值越接近于0,说明该知识越接近于“假”。如果用可信度来表示静态强度,则其取值范围一般为[−1,1]。当该值大于0时,值越大,说明知识越接近于“真”;当其值小于0时,值越小,说明知识越接近于“假”。在实际应用中,知识的不确定性是由领域专家给出的。
6.1.2 不确定性推理的基本问题
在不确定性推理中,除了需要解决在确定性推理中所提到的推理方向、推理方法、控制策略等基本问题外,一般还需要解决不确定性的表示与度量、不确定性的匹配、不确定性的合成和不确定性的更新等问题。
1.不确定性的表示
不确定性的表示包括知识的不确定性表示和证据的不确定性表示。
1.知识不确定性的表示
在CF模型中,知识是用产生式规则表示的,其一般形式为
IF E THEN H (CF(H,E))
其中,E是知识的前提证据;H是知识的结论;CF(H,E)是知识的可信度。对它们简单说明如下。
(1)前提证据E可以是一个简单条件,也可以是由合取和析取构成的复合条件。例如
(3)多种原因导致同一结论。所谓多种原因导致同一结论是指知识的前提条件不同而结论相同。在现实世界中,可由多种不同原因导出同一结论的情况有很多。例如,引起人体低烧的原因至少有几十种,如果每种原因都作为一条知识,那就可以形成几十条前提条件不同而结论相同的知识。当然,在不确定性推理中,这些知识的静态强度可能是不同的。

第四章不确定性推理教程以及答案

第四章不确定性推理教程以及答案
P( H / S ) P( H / E ) LN P( H ) ( LN 1) P( H ) 1
这就是证据肯定不存在的情况。
4.4 主观Bayes方法
(3)当P(E/S)=P(E)时,表示E与S无关,利用全概率公式 将公式(4.4.5)变为
P( H / S)=P( H / E ) P( E ) P( H / E ) P(E ) P( H )
1.表示问题
1、知识不确定性的表示 2、证据的不确定性表示
1、不确定性的传递算法 2、结论不确定性的合成 3、组合证据的不确定性算法 1、知识的不确定性度量 2、证据的不确定性度量
2. 计算问题
3. 语义问题
4.2 不确定性推理方法分类
1、模型方法 特点:把不确定的证据和不确定的知识分别与某 种度量标准对应起来,并且给出更新结论不确定性的 算法,从而构成了相应的不确定性推理的模型。 数值方法
L/O/ቤተ መጻሕፍቲ ባይዱ/O
第四章
不确定性推理
本章内容
1 2 3 4 5 不确定性推理中的基本问题 不确定性推理方法分类 概率方法 主观Bayes方法
可信度方法
证据理论
6
4.1 不确定性推理中的基本问题
要实现对不确定性知识的处理,必须要解决不 确定知识的表示问题,不确定信息的计算问题,以 及不确定性表示和计算的语义解释问题。
(4)当P(E/S)为其它值时,通过分段线性插值就可得计 算P(H/S)的公式
P( H ) P( H / E ) P( H / E ) P( E / S ) P( E ) 当0 P( E / S ) P( E ) P( H / S ) P( H ) P( H / E ) P( H ) [ P( E / S ) P( E )] 当P( E ) P( E / S ) 1 1 P( E )

第四章不确定性推理

第四章不确定性推理
– 在推理一级上扩展确定性推理。其特点是把不确定的 证据和不确定的知识分别与某种度量标准对应起来, 并且给出更新结论不确定的算法。这类方法与控制策 略一般无关,即无论用何种控制策略,推理的结果都 是唯一的。模型方法分为:
– 数值方法 • 按其所依据的理论又可分为:基于概率的方 法和基于模糊理论的模糊推理。 – 非数值方法
19
若A1,A2,…,An是彼此独立的事件, P( Ai ) P( B | Ai ) P( Ai | B) n , i 1, 2,..., n P( Aj ) P( B | Aj )
j 1
其中,P(Ai)是事件Ai的先验概率;P(B|Ai)是在事件Ai发生条 件下事件B的条件概率。 如果用产生式规则 IF E THEN Hi 中的前提条件E代替Bayes公式中的B,用Hi代替公式中的Ai , 就可得到 P( H i ) P( E | H i ) P( H i | E ) n , i 1, 2,..., n 20 P( H j ) P( E | H j )
• P(¬ A)=1-P(A) • P(A∪B)=P(A)+P(B)-P(AB) • 如果 A B ,则P(A-B)=P(A)-P(B)
13
• 如果在事件B发生的条件下考虑事件A发生的概率, 就称它为事件A的条件概率,记为P(A|B)。 • 定义4.3 设A,B是两个事件,P(B)>0,则称
P( A | B) P( A B) P( B)
j 1
P ( H i | E1 E2 Em ) P ( H i ) P ( E1 | H i ) P ( E2 | H i ) P ( Em | H i )
P( H
j 1
n

第4讲 不确定性推理

第4讲 不确定性推理

第4章 不确定性推理4.1 不确定性及其类型 4.2 主观Bayes方法 4.3 可信度理论 4.4 证据理论4.1 不确定性及其类型推理的分类: 精确推理 不精确推理(即不确定推理)4.1 不确定性及其类型一、 不确定性的原因:A 证据的不确定性 歧义性: 不完全性: 不精确性: 模糊性: 可信性: 随机性:其它因素引起的不确定性。

4.1 不确定性及其类型B 规则的不确定性前提条件的不确定性:例如“如发高烧则可能感冒”, 发高烧是个模糊的概念。

观察证据的不确定性:如人的体温早晚是不同的。

组合证据的不确定性。

规则自身的不确定性。

在规则的使用过程中含有两种典型的不确定性4.1 不确定性及其类型C 推理的不确定性 推理的不确定性反映了知识不确定性的 动态积累和转播过程。

二、 不确定推理网络中的三种基本模式证据逻辑组合模式已知证据E1、E2、……、En的不确定测度分别为MU1、 MU2、 …… 、MUn,则证据组合后的不确定测度为MU(1) 证据的合取:MU(E1^E2^……^En)=f(MU1,MU2,……,MUn)f是一个函数的名称。

(2) 证据的析取:MU(E1 V E2 V …… V En)=g(MU1,MU2,……,MUn)g是一个函数的名称。

(3) 证据的否定: MU(~Ei)=h(MUi) h是一个函数的名称。

2. 证据的并行规则模式已知每一单条规则 if Ei then h with Mui(i=1,2,……,n),则所有规则都满足 时,h的不确定测度 MU=p(MU1,MU2, … ,MUn) p是一个函数的名称。

3. 证据的顺序规则模式已知规则 if E’ then E with MU0 if E then h with MU1则规则 if E’ then h with MU 中的MU的计算 MU=s(MU0,MU1) s是一个函数的名称4.2 主观Bayes方法1. 主观Bayes公式:a. p(E):证据E的不确定性,为E发生的概率。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第6章不确定性推理部分参考答案6.8 设有如下一组推理规则:r1: IF E1THEN E2 (0.6)r2: IF E2AND E3THEN E4 (0.7)r3: IF E4THEN H (0.8)r4: IF E5THEN H (0.9)且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。

求CF(H)=?解:(1) 先由r1求CF(E2)CF(E2)=0.6 × max{0,CF(E1)}=0.6 × max{0,0.5}=0.3(2) 再由r2求CF(E4)CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}}=0.7 × max{0, min{0.3, 0.6}}=0.21(3) 再由r3求CF1(H)CF1(H)= 0.8 × max{0,CF(E4)}=0.8 × max{0, 0.21)}=0.168(4) 再由r4求CF2(H)CF2(H)= 0.9 ×max{0,CF(E5)}=0.9 ×max{0, 0.7)}=0.63(5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H)CF(H)= CF1(H)+CF2(H)+ CF1(H) × CF2(H)=0.6926.10 设有如下推理规则r1: IF E1THEN (2, 0.00001) H1r2: IF E2THEN (100, 0.0001) H1r3: IF E3THEN (200, 0.001) H2r4: IF H1THEN (50, 0.1) H2且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知:P(E1| S1)=0.84, P(E2|S2)=0.68, P(E3|S3)=0.36请用主观Bayes方法求P(H2|S1, S2, S3)=?解:(1) 由r1计算O(H1| S1)先把H1的先验概率更新为在E1下的后验概率P(H1| E1)P(H1| E1)=(LS1× P(H1)) / ((LS1-1) × P(H1)+1)=(2 × 0.091) / ((2 -1) × 0.091 +1)=0.16682由于P(E1|S1)=0.84 > P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1)P(H1| S1) = P(H1) + ((P(H1| E1) – P(H1)) / (1 - P(E1))) × (P(E1| S1) – P(E1))= 0.091 + (0.16682 –0.091) / (1 – 0.6)) × (0.84 – 0.6)=0.091 + 0.18955 × 0.24 = 0.136492O(H1| S1) = P(H1| S1) / (1 - P(H1| S1))= 0.15807(2) 由r2计算O(H1| S2)先把H1的先验概率更新为在E2下的后验概率P(H1| E2)P(H1| E2)=(LS2×P(H1)) / ((LS2-1) × P(H1)+1)=(100 × 0.091) / ((100 -1) × 0.091 +1)=0.90918由于P(E2|S2)=0.68 > P(E2),使用P(H | S)公式的后半部分,得到在当前观察S2下的后验概率P(H1| S2)和后验几率O(H1| S2)P(H1| S2) = P(H1) + ((P(H1| E2) – P(H1)) / (1 - P(E2))) × (P(E2| S2) – P(E2))= 0.091 + (0.90918 –0.091) / (1 – 0.6)) × (0.68 – 0.6)=0.25464O(H1| S2) = P(H1| S2) / (1 - P(H1| S2))=0.34163(3) 计算O(H1| S1,S2)和P(H1| S1,S2)先将H1的先验概率转换为先验几率O(H1) = P(H1) / (1 - P(H1)) = 0.091/(1-0.091)=0.10011再根据合成公式计算H1的后验几率O(H1| S1,S2)= (O(H1| S1) / O(H1)) × (O(H1| S2) / O(H1)) × O(H1)= (0.15807 / 0.10011) × (0.34163) / 0.10011) × 0.10011= 0.53942再将该后验几率转换为后验概率P(H1| S1,S2) = O(H1| S1,S2) / (1+ O(H1| S1,S2))= 0.35040(4) 由r3计算O(H2| S3)先把H2的先验概率更新为在E3下的后验概率P(H2| E3)P(H2| E3)=(LS3× P(H2)) / ((LS3-1) × P(H2)+1)=(200 × 0.01) / ((200 -1) × 0.01 +1)=0.09569由于P(E3|S3)=0.36 < P(E3),使用P(H | S)公式的前半部分,得到在当前观察S3下的后验概率P(H2| S3)和后验几率O(H2| S3)P(H2| S3) = P(H2 | ¬ E3) + (P(H2) – P(H2| ¬E3)) / P(E3)) × P(E3| S3)由当E3肯定不存在时有P(H2 | ¬ E3) = LN3× P(H2) / ((LN3-1) × P(H2) +1)= 0.001 × 0.01 / ((0.001 - 1) × 0.01 + 1)= 0.00001因此有P(H2| S3) = P(H2 | ¬ E3) + (P(H2) – P(H2| ¬E3)) / P(E3)) × P(E3| S3)=0.00001+((0.01-0.00001) / 0.6) × 0.36=0.00600O(H2| S3) = P(H2| S3) / (1 - P(H2| S3))=0.00604(5) 由r4计算O(H2| H1)先把H2的先验概率更新为在H1下的后验概率P(H2| H1)P(H2| H1)=(LS4× P(H2)) / ((LS4-1) × P(H2)+1)=(50 × 0.01) / ((50 -1) × 0.01 +1)=0.33557由于P(H1| S1,S2)=0.35040 > P(H1),使用P(H | S)公式的后半部分,得到在当前观察S1,S2下H2的后验概率P(H2| S1,S2)和后验几率O(H2| S1,S2)P(H2| S1,S2) = P(H2) + ((P(H2| H1) – P(H2)) / (1 - P(H1))) × (P(H1| S1,S2) – P(H1))= 0.01 + (0.33557 –0.01) / (1 – 0.091)) × (0.35040 – 0.091)=0.10291O(H2| S1,S2) = P(H2| S1, S2) / (1 - P(H2| S1, S2))=0.10291/ (1 - 0.10291) = 0.11472(6) 计算O(H2| S1,S2,S3)和P(H2| S1,S2,S3)先将H2的先验概率转换为先验几率O(H2) = P(H2) / (1 - P(H2) )= 0.01 / (1-0.01)=0.01010再根据合成公式计算H1的后验几率O(H2| S1,S2,S3)= (O(H2| S1,S2) / O(H2)) × (O(H2| S3) / O(H2)) ×O(H2)= (0.11472 / 0.01010) × (0.00604) / 0.01010) × 0.01010=0.06832再将该后验几率转换为后验概率P(H2| S1,S2,S3) = O(H1| S1,S2,S3) / (1+ O(H1| S1,S2,S3))= 0.06832 / (1+ 0.06832) = 0.06395可见,H2原来的概率是0.01,经过上述推理后得到的后验概率是0.06395,它相当于先验概率的6倍多。

6.11设有如下推理规则r1:IF E1THEN (100, 0.1) H1r2: IF E2THEN (50, 0.5) H2r3: IF E3THEN (5, 0.05) H3且已知P(H1)=0.02, P(H2)=0.2, P(H3)=0.4,请计算当证据E1,E2,E3存在或不存在时P(H i | E i)或P(H i |﹁E i)的值各是多少(i=1, 2, 3)?解:(1) 当E1、E2、E3肯定存在时,根据r1、r2、r3有P(H1 | E1) = (LS1× P(H1)) / ((LS1-1) × P(H1)+1)= (100 × 0.02) / ((100 -1) × 0.02 +1)=0.671P(H2 | E2) = (LS2× P(H2)) / ((LS2-1) × P(H2)+1)= (50 × 0.2) / ((50 -1) × 0.2 +1)=0.9921P(H3 | E3) = (LS3× P(H3)) / ((LS3-1) × P(H3)+1)= (5 × 0.4) / ((5 -1) × 0.4 +1)=0.769(2) 当E1、E2、E3肯定存在时,根据r1、r2、r3有P(H1 | ¬E1) = (LN1× P(H1)) / ((LN1-1) × P(H1)+1)= (0.1 × 0.02) / ((0.1 -1) × 0.02 +1)=0.002P(H2 | ¬E2) = (LN2× P(H2)) / ((LN2-1) × P(H2)+1)= (0.5 × 0.2) / ((0.5 -1) × 0.2 +1)=0.111P(H3 | ¬E3) = (LN3× P(H3)) / ((LN3-1) × P(H3)+1)= (0.05 × 0.4) / ((0.05 -1) × 0.4 +1)=0.0326.13 设有如下一组推理规则:r1: IF E1 AND E2 THEN A={a} (CF={0.9})r2: IF E2 AND (E3 OR E4) THEN B={b1, b2} (CF={0.8, 0.7})r3: IF A THEN H={h1, h2, h3} (CF={0.6, 0.5, 0.4})r4: IF B THEN H={h1, h2, h3} (CF={0.3, 0.2, 0.1})且已知初始证据的确定性分别为:CER(E1)=0.6, CER(E2)=0.7, CER(E3)=0.8, CER(E4)=0.9。

相关文档
最新文档