不确定性推理部分参考答案

合集下载

【新】北师大版小学数学四年级上册第八单元第一课 《不确定性 》说课稿附板书含反思及课堂练习和答案

【新】北师大版小学数学四年级上册第八单元第一课 《不确定性 》说课稿附板书含反思及课堂练习和答案

(4)组织全班交流:说一说通过刚才的活动,你有什么感受和发现。 硬币落地只有两种可能,不是正面向上就是反面向上;掷了很多次
后,可能每一面朝上的次数会大致相等。还可以怎样讲?也可以说: 落地后出现的那一种情况结果是随机的,不确定的。
2、说说下面事情发生的情况。 (1)猜一猜“明天会下雨吗”不一定吧,可能不会吧,电视里已 经播报了不会下雨的,有的说:会下雨的,天气预报不会那么准吧, 有时候也会有变动的,因为天气时多变的。所有无法确定。
(2)猜测“我能中一等奖吗”,先让学生发表意见,讨论得出:每抽一 次奖,可能会发生三种结果:中奖但不是一等奖、中一等奖、没有中奖。 说明十前无法预料到哪一种情况会发生,都是随机的。
(3)猜测“下一个路口我会遇到红灯吗?”(方法同上,讨论、分析各 种因数,最后明确:下一个路口是否遇到红灯这件事是随机的,无法预料。
《 不确定性》说课稿
北师大版小学数学四年级上册
大家好,今天我说课的内容是北师大版小学数学四年级 上册第八单元第一课时《不确定性》。下面我将从说教材、 说学情、说教学目标、说教学重难点、说教法学法、说教学 过程、课堂练习和板书设计及教学反思这九个方面展开。接 下来开始我的说课。恳请大家批评指正!
一、说教材
(三)、课堂小结 通过这节课的学习,你学到了什么?
七、课堂练习
1.爸爸的年龄在十年以后( )比儿子的年龄小。
A.可能
B.一定
C.不可能
2. 说一说,每个盒子里可能摸出什么颜色的球?有几种可能?连一连。
分析与解答:左边的盒子里全是黄球,只能摸出黄球,所以要连“一定是黄球”。 中间的盒子里全是白球,只能摸出白球,所以要连“不可能是黄球”。右边的 盒子里既有白球,又有黄球,可能摸出白球,也可能摸出黄球,所以要连“可能是 黄球”。

不确定性推理

不确定性推理
理不确定性,而且满足概率推理的性质。
2021/5/15
14
不确定性推理方法分类
对于数值方法,按其依据的理论不同又可分为以下两类: 1、基于概率的方法:是基于概率论的有关理论发展起来的 方法,如可信度方法、主观Bayes方法、证据理论等; 2、模糊推理:是基于模糊逻辑理论发展起来的可能性理论 方法
2021/5/15
24
可信度方法---CF模型
CF是由称为信任增长度MB和不信任增长度MD 相减而来的。即
CF(H,E)=MB(H,E)-MD(H,E)
1 MB(H,E) max(P(H E),P(H))P(H)
1P(H)
当P(H)=1 否则
1 MD(H,E) min(P(H E),P(H))P(H)
P(H)
2021/5/15
当P(H)=0 否则
25
可信度方法---CF模型
当MB(H,E)>0,表示由于证据E的出现增加了 对H的信任程度。当MD(H,E)>0,表示由于证 据E的出现增加了对H的不信任程度。由于对同 一个证据E,它不可能既增加对H的信任程度又 增 加 对 H 的 不 信 任 程 度 , 因 此 , MB(H,E) 与 MD(H,E)是互斥的,即
H 表示规则的结论部分,即假设 C F( H, E ) 表示规则的精确程度或可信度。 任何一个不确定性推理模型必须解决三个问题:
前提(证据,事实)的不确定性描述 规则(知识)的不确定性描述 不确定性的更新算法
2021/5/15
17
不确定性推理模型基本结构
证据的不确定性 C F( E ) ,表示证据E为真的程度。需 定义其在三种典型情况下的取值: E 为真 E 为假 对 E 一无所知 ( 该情况下的取值称为证据的单位元 e(E) )

人工智能第十二讲不确定性推理-可信度方法

人工智能第十二讲不确定性推理-可信度方法
当用不同的知识进行推理得到了 相同的结 论,但不确定性的程度却不同,这样就需要对 这些不确定性程度进行合成。(注意:如果推 出的结论不同就产生 冲突,无法进行合成)
基本概念 --不确定性推理方法的分类
? 沿着两条路线发展:一是 模型方法 ,与控制策略 无关;二是控制方法,没有统一模型,依赖于控 制策略。我们只讨论模型方法。
? 例如: IF 发热38 °以上 AND 四肢关节疼痛无力 AND 胸闷咳嗽 THEN 患SARS (0.7) 表示病人如有上述症状则有七成把握认为他患 SARS
可信度方法
--C-F模型
? 定义: CF(H,E) = MB(H,E) -MD(H,E), 其中CF(H,E) ∈[-1,1] MB(Measure Belief )--信任增长度 ,表示因 与E匹配的证据的出现,使 H为真的信任增长度。
不确定性推理
--可信度方法
内容简介
一. 不确定性推理的基本概念与原理 二. 可信度方法的基本模型和三个扩展方法
基本概念
--不确定性推理的定义
? 从不确定性的初始证据出发,通过运用不 确定性的知识,最终推出具有一定程度的 不确定性但却是合理或者近乎合理的结论 的思维过程。
? 事实和知识是构成推理的两个基本要素。 已知事实称为证据(E),用以指出推理 的出发点及推理时应该使用的知识;而知 识是推理得以向前推进,并逐步达到最终 目标(H)的依据。
基本概念
-- 一些基本问题
1. 不确定性的表示与量度
a. 知识不确定性的表示
? 制定表示方法时需要考虑:一是要能根据领域 问题的特征把其不确定性比较准确地描述出来, 满足问题求解的需要;另一是要便于推理过程 中对不确定性的推算。
? 一般由领域专家给出,称为知识的 静态强度 。 静态强度可以是相应知识在应用中成功的概率, 也可以是该条知识的可信程度或其他。

人工智能与未来教育自测试题与答案

人工智能与未来教育自测试题与答案

人工智能与未来教育自测单选题(共30题,每题2分)1 .为了解决如何模拟人类的感性思维,例如视觉理解、直觉思维、悟性等,研究者找到一个重要的信息处理的机制是()。

•A.专家系统•B.人工神经网络•C.模式识别•D.智能代理参考答案:B答案解析:暂无2 .专家系统是以()为基础,以推理为核心的系统。

•A.专家•B.软件•C.知识•D.解决问题参考答案:C答案解析:暂无3 .神经网络研究属于下列()学派•A.符号主义•B.连接主义•C.行为主义•D.都不是参考答案:B答案解析:暂无4 .下列使用投影机的不正确操作有()•A.同时切断投影机电源和投影机灯泡的电源•B.投影机灯泡上的污迹可以用透镜纸擦拭•C.较长时间不使用投影机,应切断投影机电源•D.严禁搬动处于工作状态的投影机参考答案:A答案解析:暂无5 .人工智能的含义最早由一位科学家于1950年提出,并且同时提出一个机器智能的测试模型,请问这个科学家是()•A.明斯基•B.扎德•C.图林•D.冯.诺依曼参考答案:C答案解析:暂无6 .关于概念图下列说法不恰当的是()•A.概念图也叫思维图•B.概念图是一种评价工具•C.概念图可以作为一种认知工具•D.概念图的使用对发展学生的思维能力没有帮助参考答案:D答案解析:暂无7 .下列关于人工智能的叙述不正确的有()。

•A.人工智能技术它与其他科学技术相结合极大地提高了应用技术的智能化水平。

•B.人工智能是科学技术发展的趋势。

•C.因为人工智能的系统研究是从上世纪五十年代才开始的,非常新,所以十分重要。

•D.人工智能有力地促进了社会的发展。

参考答案:C答案解析:暂无8 .属于认知主义理论观点的是( )•A.学习是刺激——反应的联结•B.学习是主动地形成认知结构的过程•C.学习是尝试错误的过程•D.学习就是及时强化参考答案:B答案解析:暂无9 .人工智能的目的是让机器能够(),以实现某些脑力劳动的机械化。

•A.具有智能•B.和人一样工作•C.完全代替人的大脑•D.模拟、延伸和扩展人的智能参考答案:D答案解析:暂无10 . AI的英文缩写是•A.Automatic Intelligence•B.Artifical Intelligence•C.Automatice Information参考答案:B答案解析:暂无11 .在政府报告中,( )的报告使用“机器智能”这个词汇。

ai7不确定性推理_tmp

ai7不确定性推理_tmp

主观Bayes方法 提出:1976年 杜达(R.O.Duda) 应用:地矿勘探专家系统PROSPECTOR
知识不确定性的表示 在主观Bayes方法中,知识(规则)就是推理网络中 的一条弧,它的不确定性是以一个数值对 (LS,LN)来进行描述的。 若以产生式规则的形式表示,其形式为: IF E THEN (LS,LN) H (P(H)) 其中各项含义如下 ①E是该知识的前提条件,既可以是单个的条件, 也可以是由AND或OR把多个简单条件连接而成的 复合条件。 ②H是结法 当证据E是由多个单一证据的合取组合而成时,即 E=E1E2…En 如果已知P(E1/S),P(E2/S),…,P(En/S),则 P(E/S)=min{P(E1/S),P(E2/S),…,P(En/S)} 当证据E是由多个单一证据的析取组合而成时,即 E=E1E2…En 如果已知P(E1/S),P(E2/S),…,P(En/S),则 P(E/S)=max{P(E1/S),P(E2/S),…,P(En/S)}
不确定性的推理计算 回顾1:Bayes公式
例1:设H1,H2,H3分别是三个结论,E是支持这些 结论的证据,且已知: P(H1)=0.4 P(H2)=0.5 P(H3)=0.2 P(E/H1)=0.3 P(E/H2)=0.4 P(E/H3)=0.5 求P(H1/E),P(H2/E),P(H3/E)的值
③(LS,LN)表示该知识的规则强度,度量知识的不 确定性。 LS:表示规则成立的充分性,体现前提为真对结论 的影响程度。 LN:表示规则成立的必要性,体现前提为假对结论 的影响程度。
证据不确定性的表示 1.单个证据不确定性的表示方法 在主观Bayes方法中,证据的不确定性是用概率表 示的。例如对于初始证据E,其先验概率为P(E) ,也可由用户根据观察S给出它的后验P(E/S)。 证据的不确定性也可用几率来表示。 概率与几率的关系

第四章不确定性推理教程以及答案

第四章不确定性推理教程以及答案

这是把先验概率P(H)更新为后验概率P(H/E)的计算公式。
4.4 主观Bayes方法
2.证据肯定不存在的情况 在证据E肯定不存在时,把先验几率O(H)更新为后验 几率O(H/﹁E)的计算公式为
O( H / E ) LN O( H )
如果将上式换成概率,就可得到
(4.4.3)
LN P( H ) (4.4.4) P( H / E ) ( LN 1) P( H ) 1
4.4 主观Bayes方法
4.4.2 证据不确定性的表示
若以O(A) 或P(A)表示证据A的不确定性,则转换公式 是:
当A为假时 0 P( A) O( A) 当A为真时 1 P( A) 0, 当A介于真假之间时
4.4 主观Bayes方法
4.4.3 不确定性的遗传算法
1.表示问题
1、知识不确定性的表示 2、证据的不确定性表示
1、不确定性的传递算法 2、结论不确定性的合成 3、组合证据的不确定性算法 1、知识的不确定性度量 2、证据的不确定性度量
2. 计算问题
3. 语义问题
4.2 不确定性推理方法分类
1、模型方法 特点:把不确定的证据和不确定的知识分别与某 种度量标准对应起来,并且给出更新结论不确定性的 算法,从而构成了相应的不确定性推理的模型。 数值方法
Si
i
O( H / S1 , S2 , Sn )
O( H / S n ) O( H / S1 ) O( H / S2 ) O( H ) O( H ) O( H ) O( H ) O( H / S1 , S2 , Sn ) P( H / S1 , S2, Sn ) 1 O( H / S1, S2 , , Sn )

人工智能教程习题及答案第4章习题参考解答

人工智能教程习题及答案第4章习题参考解答

第四章不确定性推理习题参考解答4.1 练习题4.1什么是不确定性推理?有哪几类不确定性推理方法?不确定性推理中需要解决的基本问题有哪些?4.2什么是可信度?由可信度因子CF(H,E)的定义说明它的含义。

4.3什么是信任增长度?什么是不信任增长度?根据定义说明它们的含义。

4.4当有多条证据支持一个结论时,什么情况下使用合成法求取结论的可信度?什么情况下使用更新法求取结论可信度?试说明这两种方法实际是一致的。

4.5设有如下一组推理规则:r1:IF E1THEN E2(0.6)r2:IF E2AND E3THEN E4 (0.8)r3:IF E4THEN H (0.7)r4:IF E5THEN H (0.9)且已知CF(E1)=0.5,CF(E3)=0.6,CF(E5)=0.4,结论H的初始可信度一无所知。

求CF(H)=?4.6已知:规则可信度为r1:IF E1THEN H1(0.7)r2:IF E2THEN H1(0.6)r3:IF E3THEN H1(0.4)r4:IF (H1 AND E4) THEN H2(0.2)证据可信度为CF(E1)=CF(E2)=CF(E3)=CF(E4)=CF(E5)=0.5H1的初始可信度一无所知,H2的初始可信度CF0(H2)=0.3计算结论H2的可信度CF(H2)。

4.7设有三个独立的结论H1,H2,H3及两个独立的证据E1与E2,它们的先验概率和条件概率分别为P(H1)=0.4,P(H2)=0.3,P(H3)=0.3P(E1/H1)=0.5,P(E1/H2)=0.6,P(E1/H3)=0.3P(E2/H1)=0.7,P(E2/H2)=0.9,P(E2/H3)=0.1利用基本Bayes方法分别求出:(1)当只有证据E1出现时,P(H1/E1),P(H2/E1),P(H3/E1)的值各为多少?这说明了什么?(2)当E1和E2同时出现时,P(H1/E1E2),P(H2/E1E2),P(H3/E1E2)的值各是多少?这说明了什么?4.8在主观Bayes方法中,请说明LS与LN的意义。

第4章 不确定性推理方法(导论)

第4章 不确定性推理方法(导论)
2643证据理论431概率分配函数432信任函数433似然函数434概率分配函数的正交和证据的组合435基于证据理论的不确定性推理27431概率分配函数是变量x所有可能取值的集合且d中的元素是互斥的在任一时刻x都取且只能取d中的某一个在证据理论中d的任何一个子集a都对应于一个关于x的命题称该命题为x或者是红色或者是蓝色
条件与结论的联系强度 。
IF 头痛 AND 流涕 THEN 感冒 (0.7)
13
4.2 可信度方法
1. 知识不确定性的表示
▪ CF(H,E)的取值范围: [-1,1]。 ▪ 若由于相应证据的出现增加结论 H 为真的可信度, 则 CF(H,E)> 0,证据的出现越是支持 H 为真, 就使CF(H,E) 的值越大。 ▪ 反之,CF(H,E)< 0,证据的出现越是支持 H 为 假,CF(H,E)的值就越小。 ▪ 若证据的出现与否与 H 无关,则 CF(H,E)= 0。
0.28 0.48 0.280.48 0.63
CF1,2,3
(H
)

1

CF1,2 (H ) min{| CF1,2 (
CF3 (H ) H ) |,| CF3 (H
)
|}
0.63 0.27 1 min{0.63,0.27}
Байду номын сангаас
0.36 0.73
0.49
综合可信度:CF(H) 0.49
求:CF(H )
21
4.2 可信度方法
解:
第一步:对每一条规则求出CF(H)。
r: 4
CF (E1 ) 0.7 max{ 0, CF[E4 AND (E5 OR
E6 )]}
0.7 max{ 0, min{ CF (E4 ), CF (E5 OR E6 )}} 0.7 max{ 0, min{CF (E4 ), max{ CF (E5 ), CF (E6 )}}}

第五章不确定性推理方法(简s1)

第五章不确定性推理方法(简s1)
福州大学陈昭炯
《人工智能原理》第五章 不确定性推理
LS、LN满足: LS、LN≥0,不独立。 LS, LN不能同时 >1或 <1 LS, LN可同时=1 例1: PROSPECTOR中的规则; IF 有石英硫矿带 (LS=300,LN=0.2)THEN 必有钾矿带 IF 有玻璃褐铁矿 (LS=1000000,LN=0.01)THEN 有最佳 的矿产结构
生的概率作进一步估计 • 贝叶斯决策:在已知 P( Bm ) 先验概率的情况下,做试验。 再通过试验中事件A(证据)的具体情况得到的新信 息,获得在A出现的情况下各种因素 发生情况的新知 识。
福州大学陈昭炯
Bm
《人工智能原理》第五章 不确定性推理
主观Bayes方法
• 1976年提出的,应用于地矿勘探专家系统Prospector • 不确定推理系统包括: – 不确定性的表示: • 规则/知识 • 事实/证据 – 不确定性的计算 • 组合证据的不确定算法 • 不确定性的传递算法 • 结论的不确定算法
第五章 不确定性推理
• 概述 • 概率论基础 • 主观Bayes方法 • 确定性方法(可信度方法) • 证据理论 • Bayes网络
福州大学陈昭炯
《人工智能原理》第五章 不确定性推理
概述
初始证据 不确定推理: (均不确定)→ 结论(不确定但合理) 知识
B
R4 R3
f4 f3
R1:A1∨ A2→B2(f1) R2:A2 ∧ A3→B1(f2) R3:B1→B(f3) R4:B2→B(f4)
P(B) − P(B / ¬A) ⎧ × P( A / A' ) P( A / A' ) ∈[0, P( A)] P(B / ¬A) + ⎪ ⎪ P( A) P(B / A' ) = ⎨ P(B / A) − P(B) ⎪P(B) + ×[P( A / A' ) − P( A)] P( A / A' ) ∈[P( A),1] ⎪ 1− P( A) ⎩

不确定性推理

不确定性推理

2,
…,则称{An,
n=1,
2,
…}为
▪ 完备事件族与基本事件族有如下的性质: 定理:若{An, n=1, 2, …}为一完备事件族,则
▪ 有n P若(An{)A 1n,, n且=1对, 2于, …一}事为件一B基有本事P件(B)族 ,n P则(An B)
P(B) P( An ) An B
15
作或,又称A为B的余事件,或B为A的余事件。
▪ 任意两个事件不一定会是上述几种关系中的一种 。
11
▪ 设A,B,A1,A2,…An为一些事件,它们有下 述的运算:
– 交:记C=“A与B同时发生”,称 为事件A与B的交, C={ω|ω∈A且ω∈B},记作或。 类似地用来表示事件“n个事件A1, A2, …An同时发生” 。
C
交通事故
A
B
橙色桶
T
交通缓慢
L
闪光灯
24
考虑,如果交通缓慢,那么 是由道路施工引起的概率有 多少?即P(C|T)=?
▪ 对任意事件A,有
0 P( A) 1
▪ 必 然 事 件 Ω 的 概 率 P(Ω) =1,不 可 能 事 件 φ 的 概 率
P(φ) = 0
▪ 对任意事件A,有
P(~ A) 1 P( A)
▪ 设事件A1,A2,…An(k≤n)是两两互不相容的事件
,即有,则
k
P( Ai ) P( A1 ) P( A2 ) ... P( Ak )
C(H)=f1(C(E),f(H,E))
6
(2)结论不确定性合成 即已知由两个独立的证据E1和E2,求得的假设H的 不确定性度量C1(H)和C2(H),求证据E1和E2的组 合导致的假设H的不确定性C(H),即定义函数f2, 使得: C(H)=f2(C1(H),C2(H))

人工智能4不确定性推理

人工智能4不确定性推理

模糊集上的运算主要有:包含、交、并、补等等。
1. 包含运算
定义4.5 设A,B∈F(U),若对任意u∈U,都有
μB(u)≤μA(u) 成立,则称A包含B,记为B A。 2. 交、并、补运算
定义4.6 设A,B∈F(U),以下为扎德算子
A
B : A
B (u)
max{ uU
A
(u
),
B
(u)}
A (u) B (u)
3
模糊集的表示方法(1)
若论域离散且有限,则模糊集A可表示为:
也可写为:
A={μA(u1),μA(u2),…,μA(un)}
或者:
A=μA(u1)/u1+μA(u2)/u2+…+μA(un)/un
n
n
A (u ) / u , 或者A (u ) / u
Ai
i
Ai
i
i 1
i 1
A={μA(u1)/u1,μA(u2)/u2,…,μA(un)/un} A={(μA(u1),u1),(μA(u2),u2),…,(μA(un),un)} 隶属度为0的元素可以不写。
(A, B) 1 [1 (1 0.2)] 0.9 2
即A和B两个模糊集之间的匹配度为0.9。
21
语义距离
如果论域U上两个模糊集A和B的语义距离为d(A,B),则其匹配度为 1-d(A,B)。
曼哈顿距离(Manhattan Distance)或者海明距离(Hamming
Distance)
d (A, B)
A

B
{
U
A
(ui
)
B
(ui
)}
A⊙
B
{

4_2 不确定性推理

4_2 不确定性推理

不确定性推理的问题
(3) 不确定性的传递算法
在每一步推理中,如何把证据及知识的不确定性传递给 结论 在多步推理中,如何把初始证据的不确定性传递给最终 结论

把当前推出的结论及其不确定性程度作为证据放入数 据库中,在以后的推理中,它又作为证据推出进一步 的结论,由此一步步进行推理,把初始证据的不确定 性传递给最终结论。
2) 量度范围的指定应便于领域专家及用户对不确定性的估 计的程度。
3) 要便于对不确定性的传递进行计算,而且对结论算出的 不确定性量度不能超出量度规定的范围。 4) 量度的确定应是直观的且有理论依据。
不确定性推理的问题
(2) 不确定性匹配算法及阈值的选择
如何确定是否匹配?
• 不确定性匹配算法:计算匹配双方相似程度的算法 • 阈值:相似的“限度”
(5) People were demonstrating and seniors were asked, on campus, to stop them .
(6)People were demonstrating and seniors were asked, to stop them from doing so on campus (although they could do it elsewhere)
模 型 方 法
非 数 值 方 法
框架推理 语义网络推理 常识推理 … 可信度方法
数 值 方 法 控制方法
基于概率的方法
主观Bayes方法
证据理论
模糊推理
不确定性推理方法的类型
1) 主观 Bayes 方法
利用新的信息将先验概率P(H)更新为后验概率P(H|E)的 一种计算方法
由 Duda 等人于 1976 年提出,其首先在Prospector专家 系统中使用,它以概率论中的 Bayes公式为基础。 核心思想: 根据证据的概率P(E),利用规则的(LS,LN),把结 论 H 的先验概率更新为后验概率 P(H|E)

人工智能导论 第4章 不确定性推理方法(导论)42-76

人工智能导论 第4章 不确定性推理方法(导论)42-76
0.5 0.3
64
4.4.4 模糊关系与模糊关系的合成
2. 模糊关系的合成
▪ 解:
0.5 0.6 0.3
S
Qo
R
0.7 0
1
0.4 0.8 0.2
1 0
o
0.2 0.8
0.9 0.5
1 0.4 0.3
(0.50.2)(0.6 0.8)(0.30.5)
(0.70.2)(0.4 0.8) (10.5)
AB
ABLeabharlann AB584.4.3 模糊集合的运算
▪ 例4.5 设论域U x1, x2 , x3 , x4 , x5 ,A 及 B 是论域上 的两个模糊集合,已知:
A 0.2 x1 0.4 x 2 0.9 x 3 0.5 x5 B 0.1 x1 0.7 x 3 1.0 x 4 0.3 x5
66
4.4.5 模糊推理
2. 对 IF A THEN B 类型的模糊规则的推理
▪若已知输入为 A,则输出为 B ;若现在已知输入为 A',
则输出 B ' 用合成规则求取 B ' A 'oR
其中模糊关系R: R ( x, y) min[ A ( x), B ( y)]
▪ 控制规则库的N 条规则有N 个模糊关系: R1 , R 2 ,
B B (b1), B (b2
61
4.4.4 模糊关系与模糊关系的合成
1. 模糊关系
▪ 例4.7 已知输入的模糊集合A和输出的模糊集合B:
A 1.0 / a1 0.8 / a2 0.5 / a3 0.2 / a4 0.0 / a5
B 0.7 / b1 1.0 / b2 0.6 / b3 0.0 /b4 ▪ 求A到B的模糊关系R。

(完整版)不确定性推理推理方法

(完整版)不确定性推理推理方法
H:是结论,它可以是一个单一结论,也可以是多 个结论。
CF(H,E):是该条知识的可信度,称为可信度因子或 规则强度,静态强度。
CH(H,E) 在[-1,1]上取值,它指出当前提条件 E 所 对应的证据为真时,它对结论为真的支持程度。
例如: if 头痛 and 流涕 then 感冒(0.7)
表示当病人确有“头痛”及“流涕”症状时,则有7 成的把握认为 他患了感冒。
MD:称为不信任增长度,它表示因与前提条件E匹 配的证据的出现,使结论H为真的不信任增长度。
在 C-F 模型中,把CF(H,E)定义为:
CF(H,E)=MB(H,E) – MD(H,E)
MB:称为信任增长度,它表示因与前提条件 E 匹 配的证据的出现,使结论H为真的信任增长度。
MB定义为:
MB(H,E)=
1 Max{P(H/E), P(H)} – P(H)
1 – P(H)
若P(H)=1 否则
性。
3. 可信度方法
(1) 可信度 根据经验对一个事物或现象为真的相信程度。
(2) C-F模型 C-F 模型是基于可信度表示的不确定性推理的基本方法。
Ⅰ. 知识不确定性的表示
在C-F模型中,知识是用产生式规则表示的,其一般 形式是:
if E then H (CF(H, E)) 其中,
E:是知识的前提条件,它既可以是一个单个条件, 也可以是用 and 及 or 连接起来的复合条件;
* 证据的不确定性表示方法应与知识的不确定性表 示方法保持一致,以便于推理过程中对不确定性进行统 一处理。
• 不确定性的量度
对于不同的知识和不同的证据,其不确定性的程度 一般是不相同的,需要用不同的数据表示其不确定性的 程度,同时还要事先规定它的取值范围。

第4讲 不确定性推理

第4讲 不确定性推理

第4章 不确定性推理4.1 不确定性及其类型 4.2 主观Bayes方法 4.3 可信度理论 4.4 证据理论4.1 不确定性及其类型推理的分类: 精确推理 不精确推理(即不确定推理)4.1 不确定性及其类型一、 不确定性的原因:A 证据的不确定性 歧义性: 不完全性: 不精确性: 模糊性: 可信性: 随机性:其它因素引起的不确定性。

4.1 不确定性及其类型B 规则的不确定性前提条件的不确定性:例如“如发高烧则可能感冒”, 发高烧是个模糊的概念。

观察证据的不确定性:如人的体温早晚是不同的。

组合证据的不确定性。

规则自身的不确定性。

在规则的使用过程中含有两种典型的不确定性4.1 不确定性及其类型C 推理的不确定性 推理的不确定性反映了知识不确定性的 动态积累和转播过程。

二、 不确定推理网络中的三种基本模式证据逻辑组合模式已知证据E1、E2、……、En的不确定测度分别为MU1、 MU2、 …… 、MUn,则证据组合后的不确定测度为MU(1) 证据的合取:MU(E1^E2^……^En)=f(MU1,MU2,……,MUn)f是一个函数的名称。

(2) 证据的析取:MU(E1 V E2 V …… V En)=g(MU1,MU2,……,MUn)g是一个函数的名称。

(3) 证据的否定: MU(~Ei)=h(MUi) h是一个函数的名称。

2. 证据的并行规则模式已知每一单条规则 if Ei then h with Mui(i=1,2,……,n),则所有规则都满足 时,h的不确定测度 MU=p(MU1,MU2, … ,MUn) p是一个函数的名称。

3. 证据的顺序规则模式已知规则 if E’ then E with MU0 if E then h with MU1则规则 if E’ then h with MU 中的MU的计算 MU=s(MU0,MU1) s是一个函数的名称4.2 主观Bayes方法1. 主观Bayes公式:a. p(E):证据E的不确定性,为E发生的概率。

不确定性推理部分参考答案

不确定性推理部分参考答案

第6章不确定性推理部分参考答案6.8设有如下一组推理规则:r1:IFE1THENE2(0.6)r2:IFE2ANDE3THENE4(0.7)r3:IFE4THENH(0.8)r4:IFE5THENH(0.9)且已知CF(EJ=0.5,CF(E3)=0.6,CF(E5)=0.7。

求CF(H)=?解:⑴先由r1求CF(E2)CF(E2)=0.6X max{O,CF(EJ}=0.6X max{0,0.5}=0.3(2)再由r2求CF(E4)CF(E4)=0.7X max{0,min{CF(E2),CF(E3)}}=0.7X max{0,min{0.3,0.6}}=0.21(3)再由r3求CF1(H)CF1(H)=0.8X max{0,CF(E4)}=0.8X max{0,0.21)}=0.168⑷再由r4求CF2(H)CF2(H)=0.9X max{0,CF(E5)}=0.9X max{0,0.7)}=0.63(5)最后对CF1(H)和CF2(H)进行合成,求出CF(H)CF(H)=CF1(H)+CF2(H)+CF1(H)X CF2(H)=0.6926.10设有如下推理规则r 1:IFE1 THEN (2,0.00001) H1r 2:IFE2 THEN (100,0.0001) H1r 3:IFE3 THEN (200,0.001) H2r 4:IFH1 THEN (50,0.1)H2且已知P(E1)=P(E2)=P(H3)=0.6,P(HJ=0.091,P(H2)=0.01,又由用户告知:P(E1|S1)=0.84,P(E2|S2)=0.68,P(E3|S3)=0.36请用主观Bayes方法求P(H2IS],S2,S3)=?解:(1)由片计算O(HJS1)先把H1的先验概率更新为在E1下的后验概率P(H1|E1) P(H1IE1)=(LS1X P(H1))/((LS1-1)X P(H1)+1)=(2X0.091)/((2-1)X0.091+1)=0.16682 由于P(E]IS])=0.84>P(E1),使用P(H|S)公式的后半部分,得到在当前观察S1下的后验概率P(H1|S1)和后验几率O(HJS1)P(H]IS1)=P(HJ+((P(H]IE1)-P(H]))/(1-P©)))X(P(EJSJ-P(EJ)=0.091+(0.16682-0.091)/(1—0.6))X(0.84—0.6)=0.091+0.18955X0.24=0.136492 O(H1IS1)=P(H1IS1)/(1-P(H1IS1))=0.15807⑵由r2计算O(HJS2)先把H1的先验概率更新为在E2下的后验概率P(H1IE2)P(H1IE2)=(LS2X P(H1))/((LS2-1)X P(H1)+1)=(100X0.091)/((100-1)X0.091+1)=0.90918 由于P(E2IS2)=0.68>P(E2),使用P(HIS)公式的后半部分,得到在当前观察S2下的后验概率P(H1IS2)和后验几率O(HJS2)P(H1IS2)=P(H1)+((P(H1IE2)-P(H1))/(1-P(E2)))X(P(E2IS2)-P(E2))=0.091+(0.90918-0.091)/(1-0.6 ))X(0.68-0.6)=0.25464O(H1IS2)=P(H1IS2)/(1-P(H1IS2))=0.34163(3)计算O(HJS],S2)和P(H1IS],S2)先将斗的先验概率转换为先验几率O(H1)=P(H1)/(1-P(H1))=0.091/(1-0.091)=0.10011再根据合成公式计算H]的后验几率O(H1IS1,S2)=(O(H1IS1)/O(H1))X(O(H1IS2)/O(H1))X O(H1)=(0.15807/0.10011)X(0.34163)/0.10011)X0.10011=0.53942再将该后验几率转换为后验概率P(H1IS1,S2)=O(H1IS1,S2)/(1+O(H1IS1,S2))=0.35040⑷由r3计算O(H2IS3)先把H2的先验概率更新为在E3下的后验概率P(H2I E3)P(H2IE3)=(LS3X P(H2))/((LS3-1)X P(H2)+1)=(200X0.01)/((200-1)X0.01+1)=0.09569由于P(E3IS3)=0.36<P(E3),使用P(HIS)公式的前半部分,得到在当前观察S3下的后验概率P(H2Is3)和后验几率O(H2I s3)P(H2IS3)=P(H2I-E3)+(P(H2)—P(H2I-E3))/P(E3))X P(E3IS3)由当E3肯定不存在时有P(H2IE3)=LN3X P(H2)/((LN3-1)X P(H2)+1)=0.001X0.01/((0.001-1)X0.01+1)=0.00001因此有P(H2IS3)=P(H2I-E3)+(P(H2)-P(H2I-E3))/P(E3))x P(E3IS3)=0.00001+((0.01-0.00001)/0.6)X0.36=0.00600O(H2IS3)=P(H2IS3)/(1-P(H2IS3))=0.00604(5)由r4计算O(H2IHJ先把H2的先验概率更新为在H1下的后验概率P(H2IH1)P(H2IH1)=(LS4x P(H2))/((LS4-1)x P(H2)+1)=(50x0.01)/((50-1)x0.01+1)=0.33557由于P(H1IS],S2)=0.35040>P(H1),使用P(HIS)公式的后半部分,得到在当前观察S],S2下H2的后验概率P(H2IS],S2)和后验几率O(H2IS],S2)P(H2IS1,S2)=P(H2)+((P(H2IH1)-P(H2))/(1-P(H1)))x(P(H1IS1,S2)-P(H1))=0.01+(0.33557-0.01)/(1 -0.091))x(0.35040-0.091)=0.10291O(H2IS1,S2)=P(H2IS1,S2)/(1-P(H2IS1,S2))=0.10291/(1-0.10291)=0.11472(6)计算O(H2I S],S2,S3)和P(H2IS],S2,S3)先将H2的先验概率转换为先验几率O(H2)=P(H2)/(1-P(H2))=0.01/(1-0.01)=0.01010再根据合成公式计算H]的后验几率O(H2IS1,S2,S3)=(O(H2IS1,S2)/O(H2))x(O(H2IS3)/O(H2))x O(H2)=(0.11472/0.01010)x(0.00604)/0.01010)x0.01010=0.06832再将该后验几率转换为后验概率P(H2IS1,S2,S3)=O(H1IS1,S2,S3)/(1+O(H1IS1,S2,S3))=0.06832/(1+0.06832)=0.06395 可见,H2原来的概率是0.01,经过上述推理后得到的后验概率是0.06395,它相当于先验概率的6倍多。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第6章不确定性推理部分参考答案6.8 设有如下一组推理规则:r1: IF E1THEN E2 (0.6)r2: IF E2AND E3THEN E4 (0.7)r3: IF E4THEN H (0.8)r4: IF E5THEN H (0.9)且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。

求CF(H)=?解:(1) 先由r1求CF(E2)CF(E2)=0.6 × max{0,CF(E1)}=0.6 × max{0,0.5}=0.3(2) 再由r2求CF(E4)CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}}=0.7 × max{0, min{0.3, 0.6}}=0.21(3) 再由r3求CF1(H)CF1(H)= 0.8 × max{0,CF(E4)}=0.8 × max{0, 0.21)}=0.168(4) 再由r4求CF2(H)CF2(H)= 0.9 ×max{0,CF(E5)}=0.9 ×max{0, 0.7)}=0.63(5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H)CF(H)= CF1(H)+CF2(H)+ CF1(H) × CF2(H)=0.6926.10 设有如下推理规则r1: IF E1THEN (2, 0.00001) H1r2: IF E2THEN (100, 0.0001) H1r3: IF E3THEN (200, 0.001) H2r4: IF H1THEN (50, 0.1) H2且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知:P(E1| S1)=0.84, P(E2|S2)=0.68, P(E3|S3)=0.36请用主观Bayes方法求P(H2|S1, S2, S3)=?解:(1) 由r1计算O(H1| S1)先把H1的先验概率更新为在E1下的后验概率P(H1| E1)P(H1| E1)=(LS1× P(H1)) / ((LS1-1) × P(H1)+1)=(2 × 0.091) / ((2 -1) × 0.091 +1)=0.16682由于P(E1|S1)=0.84 > P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1)P(H1| S1) = P(H1) + ((P(H1| E1) – P(H1)) / (1 - P(E1))) × (P(E1| S1) – P(E1))= 0.091 + (0.16682 –0.091) / (1 – 0.6)) × (0.84 – 0.6)=0.091 + 0.18955 × 0.24 = 0.136492O(H1| S1) = P(H1| S1) / (1 - P(H1| S1))= 0.15807(2) 由r2计算O(H1| S2)先把H1的先验概率更新为在E2下的后验概率P(H1| E2)P(H1| E2)=(LS2×P(H1)) / ((LS2-1) × P(H1)+1)=(100 × 0.091) / ((100 -1) × 0.091 +1)=0.90918由于P(E2|S2)=0.68 > P(E2),使用P(H | S)公式的后半部分,得到在当前观察S2下的后验概率P(H1| S2)和后验几率O(H1| S2)P(H1| S2) = P(H1) + ((P(H1| E2) – P(H1)) / (1 - P(E2))) × (P(E2| S2) – P(E2))= 0.091 + (0.90918 –0.091) / (1 – 0.6)) × (0.68 – 0.6)=0.25464O(H1| S2) = P(H1| S2) / (1 - P(H1| S2))=0.34163(3) 计算O(H1| S1,S2)和P(H1| S1,S2)先将H1的先验概率转换为先验几率O(H1) = P(H1) / (1 - P(H1)) = 0.091/(1-0.091)=0.10011再根据合成公式计算H1的后验几率O(H1| S1,S2)= (O(H1| S1) / O(H1)) × (O(H1| S2) / O(H1)) × O(H1)= (0.15807 / 0.10011) × (0.34163) / 0.10011) × 0.10011= 0.53942再将该后验几率转换为后验概率P(H1| S1,S2) = O(H1| S1,S2) / (1+ O(H1| S1,S2))= 0.35040(4) 由r3计算O(H2| S3)先把H2的先验概率更新为在E3下的后验概率P(H2| E3)P(H2| E3)=(LS3× P(H2)) / ((LS3-1) × P(H2)+1)=(200 × 0.01) / ((200 -1) × 0.01 +1)=0.09569由于P(E3|S3)=0.36 < P(E3),使用P(H | S)公式的前半部分,得到在当前观察S3下的后验概率P(H2| S3)和后验几率O(H2| S3)P(H2| S3) = P(H2 | ¬ E3) + (P(H2) – P(H2| ¬E3)) / P(E3)) × P(E3| S3)由当E3肯定不存在时有P(H2 | ¬ E3) = LN3× P(H2) / ((LN3-1) × P(H2) +1)= 0.001 × 0.01 / ((0.001 - 1) × 0.01 + 1)= 0.00001因此有P(H2| S3) = P(H2 | ¬ E3) + (P(H2) – P(H2| ¬E3)) / P(E3)) × P(E3| S3)=0.00001+((0.01-0.00001) / 0.6) × 0.36=0.00600O(H2| S3) = P(H2| S3) / (1 - P(H2| S3))=0.00604(5) 由r4计算O(H2| H1)先把H2的先验概率更新为在H1下的后验概率P(H2| H1)P(H2| H1)=(LS4× P(H2)) / ((LS4-1) × P(H2)+1)=(50 × 0.01) / ((50 -1) × 0.01 +1)=0.33557由于P(H1| S1,S2)=0.35040 > P(H1),使用P(H | S)公式的后半部分,得到在当前观察S1,S2下H2的后验概率P(H2| S1,S2)和后验几率O(H2| S1,S2)P(H2| S1,S2) = P(H2) + ((P(H2| H1) – P(H2)) / (1 - P(H1))) × (P(H1| S1,S2) – P(H1))= 0.01 + (0.33557 –0.01) / (1 – 0.091)) × (0.35040 – 0.091)=0.10291O(H2| S1,S2) = P(H2| S1, S2) / (1 - P(H2| S1, S2))=0.10291/ (1 - 0.10291) = 0.11472(6) 计算O(H2| S1,S2,S3)和P(H2| S1,S2,S3)先将H2的先验概率转换为先验几率O(H2) = P(H2) / (1 - P(H2) )= 0.01 / (1-0.01)=0.01010再根据合成公式计算H1的后验几率O(H2| S1,S2,S3)= (O(H2| S1,S2) / O(H2)) × (O(H2| S3) / O(H2)) ×O(H2)= (0.11472 / 0.01010) × (0.00604) / 0.01010) × 0.01010=0.06832再将该后验几率转换为后验概率P(H2| S1,S2,S3) = O(H1| S1,S2,S3) / (1+ O(H1| S1,S2,S3))= 0.06832 / (1+ 0.06832) = 0.06395可见,H2原来的概率是0.01,经过上述推理后得到的后验概率是0.06395,它相当于先验概率的6倍多。

6.11设有如下推理规则r1:IF E1THEN (100, 0.1) H1r2: IF E2THEN (50, 0.5) H2r3: IF E3THEN (5, 0.05) H3且已知P(H1)=0.02, P(H2)=0.2, P(H3)=0.4,请计算当证据E1,E2,E3存在或不存在时P(H i | E i)或P(H i |﹁E i)的值各是多少(i=1, 2, 3)?解:(1) 当E1、E2、E3肯定存在时,根据r1、r2、r3有P(H1 | E1) = (LS1× P(H1)) / ((LS1-1) × P(H1)+1)= (100 × 0.02) / ((100 -1) × 0.02 +1)=0.671P(H2 | E2) = (LS2× P(H2)) / ((LS2-1) × P(H2)+1)= (50 × 0.2) / ((50 -1) × 0.2 +1)=0.9921P(H3 | E3) = (LS3× P(H3)) / ((LS3-1) × P(H3)+1)= (5 × 0.4) / ((5 -1) × 0.4 +1)=0.769(2) 当E1、E2、E3肯定存在时,根据r1、r2、r3有P(H1 | ¬E1) = (LN1× P(H1)) / ((LN1-1) × P(H1)+1)= (0.1 × 0.02) / ((0.1 -1) × 0.02 +1)=0.002P(H2 | ¬E2) = (LN2× P(H2)) / ((LN2-1) × P(H2)+1)= (0.5 × 0.2) / ((0.5 -1) × 0.2 +1)=0.111P(H3 | ¬E3) = (LN3× P(H3)) / ((LN3-1) × P(H3)+1)= (0.05 × 0.4) / ((0.05 -1) × 0.4 +1)=0.0326.13 设有如下一组推理规则:r1: IF E1 AND E2 THEN A={a} (CF={0.9})r2: IF E2 AND (E3 OR E4) THEN B={b1, b2} (CF={0.8, 0.7})r3: IF A THEN H={h1, h2, h3} (CF={0.6, 0.5, 0.4})r4: IF B THEN H={h1, h2, h3} (CF={0.3, 0.2, 0.1})且已知初始证据的确定性分别为:CER(E1)=0.6, CER(E2)=0.7, CER(E3)=0.8, CER(E4)=0.9。

相关文档
最新文档