人工智能不确定性推理部分参考答案教学提纲

合集下载

人工智能原理教案03章 不确定性推理方法3.1 概述

人工智能原理教案03章 不确定性推理方法3.1 概述

3.1 概述一个人工智能系统,由于知识本身的不精确和不完全,采用标准逻辑意义下的推理方法难以达到解决问题的目的。

对于一个智能系统来说,知识库是其核心。

在这个知识库中,往往大量包含模糊性、随机性、不可靠性或不知道等不确定性因素的知识。

为了解决这种条件下的推理计算问题,不确定性推理方法应运而生。

归纳起来,不确定性推理方法研究产生的原因大致如下:·很多原因导致同一结果如多种原因引起同一种疾病。

例如,发烧可能因为感冒,也可能因为得了肺炎,需要进一步的知识才能作出具体判断。

·推理所需的信息不完备如勘探得到的地质分析资料不完备。

·背景知识不足由于人类认识水平的客观限制,客观世界的很多知识仍不为人们所认知。

在智能系统中,表现为所处理的知识的背景知识不完备。

如疾病的发病原因不十分明确。

·信息描述模糊这种现象十分普遍。

如"他不高不矮","今天不冷不热"等等。

在这类描述中,通常无法以一个量化的标准来描述,所描述的事物通常处在一个大致的范围。

比如,认为"身高在165cm-174cm 之间"的男士符合"不高不矮"的描述。

·信息中含有噪声噪声的存在干扰了人们对本源信息的认知,从而加大了认知上的难度。

如语音信号、雷达信号中的噪音干扰带来的信息模糊。

·规划是模糊的当需要对某个问题域进行划分时,可能无法找到一个清晰的标准。

如根据市场需求情况调节公司产品的内容和数量。

·推理能力不足必须考虑到实现的可能性,计算复杂度,系统性能。

如计算机的实现能力,推理算法的规模扩大能力有限等。

·解题方案不唯一没有最优方案,只有相对较优方案。

不实施,不能做出最后判断。

不精确思维并非专家的习惯或爱好所至,而是客观现实的要求。

在人类的知识和思维行为中,精确性只是相对的,不精确性才是绝对的。

知识工程需要各种适应不同类的不精确性特点的不精确性知识描述方法和推理方法。

第四章不确定性推理教程以及答案

第四章不确定性推理教程以及答案

这是把先验概率P(H)更新为后验概率P(H/E)的计算公式。
4.4 主观Bayes方法
2.证据肯定不存在的情况 在证据E肯定不存在时,把先验几率O(H)更新为后验 几率O(H/﹁E)的计算公式为
O( H / E ) LN O( H )
如果将上式换成概率,就可得到
(4.4.3)
LN P( H ) (4.4.4) P( H / E ) ( LN 1) P( H ) 1
4.4 主观Bayes方法
4.4.2 证据不确定性的表示
若以O(A) 或P(A)表示证据A的不确定性,则转换公式 是:
当A为假时 0 P( A) O( A) 当A为真时 1 P( A) 0, 当A介于真假之间时
4.4 主观Bayes方法
4.4.3 不确定性的遗传算法
1.表示问题
1、知识不确定性的表示 2、证据的不确定性表示
1、不确定性的传递算法 2、结论不确定性的合成 3、组合证据的不确定性算法 1、知识的不确定性度量 2、证据的不确定性度量
2. 计算问题
3. 语义问题
4.2 不确定性推理方法分类
1、模型方法 特点:把不确定的证据和不确定的知识分别与某 种度量标准对应起来,并且给出更新结论不确定性的 算法,从而构成了相应的不确定性推理的模型。 数值方法
Si
i
O( H / S1 , S2 , Sn )
O( H / S n ) O( H / S1 ) O( H / S2 ) O( H ) O( H ) O( H ) O( H ) O( H / S1 , S2 , Sn ) P( H / S1 , S2, Sn ) 1 O( H / S1, S2 , , Sn )

人工智能第4章(不确定性推理方法)

人工智能第4章(不确定性推理方法)
28
例:容器里的球
现分别有 A,B 两个容器,在容器 A 里分别有 7 个红球和 3 个白球,在容器 B 里有 1 个红球和 9 个白球。
现已知从这两个容器里任意抽出了一个球,且是红球, 问:这个红球是来自容器 A 的概率是多少?
假设已经抽出红球为事件 B,从容器 A 里抽出球为事件 A, 则有:P(B) = 8 / 20 P(A) = 1 / 2 P(B | A) = 7 / 10,
证据(前提)的不确定性表示 规则的不确定性表示 推理计算---结论的不确定性表示
11
证据的不确定性度量
单个证据的不确定性获取方法:两种 初始证据:由提供证据的用户直接指定,用可信度因子对 证据的不确定性进行表示。如证据 E 的可信度表示为 CF(E)。 如对它的所有观测都能肯定为真,则使CF(E)=1;如能肯定 为假,则使 CF(E)=-1 ;若它以某种程度为真,则使其取小 于1的正值,即0< CF(E)<1;若它以某种程度为假,则使其 取大于 -1 的负值,即-1< CF(E)<0; 若观测不能确定其真假, 此时可令CF(E)=0。
P (H | E) - P (H) , 当 P (H | E) P (H) 1 P (H) CF(H, E) P (H | E) - P (H) , 当P (H | E) P (H) P (H)
15
确定性方法
规则
规则的不确定性表示 证据(前提)的不确定性表示 推理计算—结论的不确定性表示
24
规则
(推理计算 4)
CF(E) < =0,
规则E H不可使用,即此计算不必进行。
0 < CF(E) <= 1,

人工智能教程习题及答案第4章习题参考解答

人工智能教程习题及答案第4章习题参考解答

第四章不确定性推理习题参考解答4.1 练习题4.1什么是不确定性推理?有哪几类不确定性推理方法?不确定性推理中需要解决的基本问题有哪些?4.2什么是可信度?由可信度因子CF(H,E)的定义说明它的含义。

4.3什么是信任增长度?什么是不信任增长度?根据定义说明它们的含义。

4.4当有多条证据支持一个结论时,什么情况下使用合成法求取结论的可信度?什么情况下使用更新法求取结论可信度?试说明这两种方法实际是一致的。

4.5设有如下一组推理规则:r1:IF E1THEN E2(0.6)r2:IF E2AND E3THEN E4 (0.8)r3:IF E4THEN H (0.7)r4:IF E5THEN H (0.9)且已知CF(E1)=0.5,CF(E3)=0.6,CF(E5)=0.4,结论H的初始可信度一无所知。

求CF(H)=?4.6已知:规则可信度为r1:IF E1THEN H1(0.7)r2:IF E2THEN H1(0.6)r3:IF E3THEN H1(0.4)r4:IF (H1 AND E4) THEN H2(0.2)证据可信度为CF(E1)=CF(E2)=CF(E3)=CF(E4)=CF(E5)=0.5H1的初始可信度一无所知,H2的初始可信度CF0(H2)=0.3计算结论H2的可信度CF(H2)。

4.7设有三个独立的结论H1,H2,H3及两个独立的证据E1与E2,它们的先验概率和条件概率分别为P(H1)=0.4,P(H2)=0.3,P(H3)=0.3P(E1/H1)=0.5,P(E1/H2)=0.6,P(E1/H3)=0.3P(E2/H1)=0.7,P(E2/H2)=0.9,P(E2/H3)=0.1利用基本Bayes方法分别求出:(1)当只有证据E1出现时,P(H1/E1),P(H2/E1),P(H3/E1)的值各为多少?这说明了什么?(2)当E1和E2同时出现时,P(H1/E1E2),P(H2/E1E2),P(H3/E1E2)的值各是多少?这说明了什么?4.8在主观Bayes方法中,请说明LS与LN的意义。

人工智能不确定知识表示及推理讲义

人工智能不确定知识表示及推理讲义

15.07.2021
人工智能不确定知识表示 及推理
1.3 主观Bayes方法
15.07.2021
人工智能不确定知识表示 及推理
一、不确定性的表示 1、知识的不确定性表示
IF E THEN (LS,LN) H (P(H))
P(E)
P(H)
LS,LN
E
H
LS,LN(0)分别称为充分性量度和必要性量度,这两个数值由 领域专家给出。
E
H
规则的不确定性通常用一个数值f(E,H)表示,称为规则强度。
规则的假设(结论)H也可以作为其他规则的证据,其不确定用 C(H)表示,C(H)必须通过不确定性的更新算法来计算。
15.07.2021
人工智能不确定知识表示 及推理
在确定一种量度方法及其范围时,应注意以下几点:
✓ 量度要能充分表达相应的知识和证据的不确定性程度。 ✓ 量度范围的指定应便于领域专家及用户对不确定性的估计。 ✓ 量度要便于对不确定性的更新进行计算,而且对结论算出 的不确定性量度不能超出量度的范围
Bayes方法用于不精确推理的条件是已知:P(E),P(H) ,P(E | H)
对于一般的不精确推理网络,必须做如下约定:
①若一组证据E1,E2,En同时支持假设H时,则: 对于H,E1,E2,En之间相互独立
②当一个证据E支持多个假设H1,H2,Hn时, 则: 假设H1,H2,Hn 之间互不相容
15.07.2021
⑥由A6的不确定性C(A6)和规则R4的规则强度f4 根据算法1求出A7的另外一个不确定性C(A7)。
⑦由A7的两个根据独立证据分别求出的不确定性C(A7)和C(A7) 根据算法2求成A7最后的不确定性C (A7)。
15.07.2021

人工智能导论 第4章 不确定性推理方法(导论) 1-41

人工智能导论 第4章 不确定性推理方法(导论) 1-41
(1)分别对每一条知识求出CF(H):
CF1(H ) =CF(H , E1)× max{0,CF(E1)} CF2(H ) =CF (H , E2 )× max{0,CF (E2 )}
19
4.2 可信度方法
5. 结论不确定性的合成算法
(2)求出E1与E2对H的综合影响所形成的可信度 CF1,2(H ):
教材:
王万良《人工智能导论》(第4版) 高等教育出版社,2017. 7
第4章 不确定性推理方法
现实世界中由于客观上存在的随机性、模糊性,反 映到知识以及由观察所得到的证据上来,就分别 形 成了不确定性的知识及不确定性的证据。因而 还必 须对不确定性知识的表示及推理进行研究。 这就是 本章将要讨论的不确定性推理。
3
第4章 不确定性推理方法
✓4.1 不确定性推理中的基本问题
4.2 可信度方法 4.3 证据理论 4.4 模糊推理方法
4
4.1 不确定性推理中的基本问题
推理:从已知事实(证据)出发,通过运用相 关 知识逐步推出结论或者证明某个假设成立或 不成 立的思维过程。
不确定性推理:从不确定性的初始证据出发, 通 过运用不确定性的知识,最终推出具有一定 程度 的不确定性但却是合理或者近乎合理的结 论的思 维过程。
r1 : CF1(H ) 0.8 max{0,CF(E1 )}
0.8 max{0,0.35} 0.28
23
4.2 可信度方法
解: 第一步:对每一条规则求出CF(H)。
r2 : CF2 (H ) 0.6 max{0,CF(E2 )}
0.6 max{0,0.8} 0.48
r3 : CF3(H ) 0.5 max{0,CF(E3 )}
4. 不确定性的传递算法

人工智能AI5章不确定性推理讲解

人工智能AI5章不确定性推理讲解
设有知识:IF E1 THEN H (CF(H, E1)) IF E2 THEN H (CF(H, E2))
则结论H 的综合可信度可分以下两步计算: (1) 分别对每条知识求出其CF(H)。即 CF1(H)=CF(H, E1) ×max{0, CF(E1)} CF2(H)=CF(H, E2) ×max{0, CF(E2)} (2) 用如下公式求E1与E2对H的综合可信度
IF 发烧 AND 流鼻涕 THEN 感冒 (0.8) 表示当某人确实有“发烧”及“流鼻涕”症状时,则有80%的把握是患了感冒。
9
5.2.2 可信度推理模型
可信度的定义 (1/2)
在CF模型中,把CF(H, E)定义为 CF(H, E)=MB(H, E)-MD(H, E)
式中MB称为信任增长度,MB(H, E)定义为
解:由r4得到: CF(E1)=0.8×max{0, CF(E4 AND (E5 OR E6))}
= 0.8×max{0, min{CF(E4), CF(E5 OR E6)}} =0.8×max{0, min{CF(E4), max{CF(E5), CF(E6)}}} =0.8×max{0, min{CF(E4), max{0.6, 0.8}}} =0.8×max{0, min{0.5, 0.8}}
15
5.2.2 可信度推理模型
不确定性的更新
CF模型中的不确定性推理实际上是从不确定的初始证据出发,不断 运用相关的不确性知识,逐步推出最终结论和该结论可信度的过程。 而每一次运用不确定性知识,都需要由证据的不确定性和知识的不确 定性去计算结论的不确定性。
不确定性的更新公式
CF(H)=CF(H, E)×max{0, CF(E)}
不确定性的匹配

人工智能第五章不确定性推理 (2)

人工智能第五章不确定性推理 (2)

概率论基础(概率性质 )
• 定 穷多义个:事设件{A,n, 两n=两1,不2相, …交},为且一组 A有n 限 ,或可则称列事无
件族{An, n=1, 2, …}为样本空间n Ω的一个完备

事 2,件…族,,则又称若{A对n,任n=意1事, 2件, …B有}为B基An=本An事或件φ族, 。n=1,
• 定义:设Ω为一个随机实验的样本空间, 对Ω上的任意事件A,规定一个实数与之 对应,记为P(A),满足以下三条基本性

质,称为事件A发生的概率:
0 P(A) 1 P() 1 P() 0
–若二事件AB互斥,即,则
P(A B) P(A) P(B)
• 以上三条基本规定是符合常识的。
《人工智能原理》第五章 不确定性推理
• 随机事件:随机事件是一个随机实验的一些 可能结果的集合,是样本空间的一个子集。 常用大写字母A,B,C,…表示。
《人工智能原理》第五章 不确定性推理
概率论基础(事件间的关系与运算 )
• 两个事件A与B可能有以下几种特殊关系:
– 包含:若事件B发生则事件A也发生,称“A包含B”, 或“B含于A”,记作AB或BA。
• 设A,B是两事件,则
P(A B) P(A) P(B) P(A B)
《人工智能原理》第五章 不确定性推理事件且P(A)>0,称
P(B | A) P( AB)
P( A)

• 为事件A已发生的条件下,事件B的条件
概率,P(A)在概率推理中称为边缘概率。
《人工智能原理》第五章 不确定性推理
第五章 不确定性推理
• 概述 • 概率论基础 • Bayes网络 • 主观Bayes方法 • 确定性方法 • 证据理论

人工智能4不确定性推理

人工智能4不确定性推理

模糊集上的运算主要有:包含、交、并、补等等。
1. 包含运算
定义4.5 设A,B∈F(U),若对任意u∈U,都有
μB(u)≤μA(u) 成立,则称A包含B,记为B A。 2. 交、并、补运算
定义4.6 设A,B∈F(U),以下为扎德算子
A
B : A
B (u)
max{ uU
A
(u
),
B
(u)}
A (u) B (u)
3
模糊集的表示方法(1)
若论域离散且有限,则模糊集A可表示为:
也可写为:
A={μA(u1),μA(u2),…,μA(un)}
或者:
A=μA(u1)/u1+μA(u2)/u2+…+μA(un)/un
n
n
A (u ) / u , 或者A (u ) / u
Ai
i
Ai
i
i 1
i 1
A={μA(u1)/u1,μA(u2)/u2,…,μA(un)/un} A={(μA(u1),u1),(μA(u2),u2),…,(μA(un),un)} 隶属度为0的元素可以不写。
(A, B) 1 [1 (1 0.2)] 0.9 2
即A和B两个模糊集之间的匹配度为0.9。
21
语义距离
如果论域U上两个模糊集A和B的语义距离为d(A,B),则其匹配度为 1-d(A,B)。
曼哈顿距离(Manhattan Distance)或者海明距离(Hamming
Distance)
d (A, B)
A

B
{
U
A
(ui
)
B
(ui
)}
A⊙
B
{

人工智能课程习题与部分解答

人工智能课程习题与部分解答

《人工智能》课程习题与部分解答第1章 绪论什么是人工智能 它的研究目标是什么什么是图灵测试简述图灵测试的基本过程及其重要特征. 在人工智能的发展过程中,有哪些思想和思潮起了重要作用 在人工智能的发展过程中,有哪些思想和思潮起了重要作用人工智能的主要研究和应用领域是什么其中,哪些是新的研究热点第2章 知识表示方法什么是知识分类情况如何什么是知识表示不同的知识表示方法各有什么优缺点 人工智能对知识表示有什么要求 用谓词公式表示下列规则性知识:自然数都是大于零的整数。

任何人都会死的。

[解] 定义谓词如下:N(x): “x 是自然数”, I(x): “x 是整数”, L(x): “x 大于0”, D(x): “x 会死的”, M(x): “x 是人”,则上述知识可用谓词分别表示为: )]()()()[(x I x L x N x ∨→∀ )]()()[(x D x M x →∀用谓词公式表示下列事实性知识:小明是计算机系的学生,但他不喜欢编程。

李晓新比他父亲长得高。

产生式系统由哪几个部分组成 它们各自的作用是什么可以从哪些角度对产生式系统进行分类 阐述各类产生式系统的特点。

简述产生式系统的优缺点。

简述框架表示的基本构成,并给出框架的一般结构 框架表示法有什么特点试构造一个描述你的卧室的框架系统。

试描述一个具体的大学教师的框架系统。

[解] 一个具体大学教师的框架系统为: 框架名:<教师-1> 类属:<大学教师>姓名:张宇 性别:男年龄:32职业:<教师>职称:副教授部门:计算机系研究方向:计算机软件与理论工作:参加时间:2000年7月工龄:当前年份-2000工资:<工资单>把下列命题用一个语义网络表示出来(1)树和草都是植物;(2)树和草都是有根有叶的;(3)水草是草,且生长在水中;(4)果树是树,且会结果;(5)苹果树是果树的一种,它结苹果。

[解]在基于语义网络的推理系统中,一般有几种推理方法,简述它们的推理过程。

人工智能-4不确定性推理(1)

人工智能-4不确定性推理(1)

设计一个不确定性匹配算法; 指定一个匹配阈值。 在匹配时,一个简单条件对应于一个单一的证据, 一个复合条件对应于一组证据,称这一组证据为 组合证据。
(3) 组合证据不确定性的算法

6
2 不确定性推理的基本问题

常用的组合证据不确定性计算方法有:

最大最小法:
T(E1 AND E2)=min{T(E1),T(E2)} T(E1 OR E2)=max{T(E1),T(E2)}
15
2. BAYES理论
• 全概率公式
定理4.1 设事件A1,A2,…,An,满足:
(1)两两互不相容,即当i≠j时,有Ai∩Aj=Φ; (2)P(Ai)>0 (1≤i≤n) (3) D
n
Ai
i 1
则对任何事件B有下式成立:
P( B) P( Ai ) P( B | Ai )
i 1

度量要能充分表达相应知识及证据不确定性的程度。 度量范围的指定应便于领域专家及用户对不确定性的估计。 度量要便于对不确定性的传递进行计算,而且对结论算出 的不确定性度量不能超出度量规定的范围。 度量的确定应当是直观的,同时应有相应的理论依据。
5
2 不确定性推理的基本问题
(2) 不确定性匹配算法
j 1
20
对于多个证据
P( H i | E1 E2 Em ) P ( Em | H i ) P ( Em | H j )
P( H i ) P( E1 | H i ) P( E2 | H i )
P( H
j 1
n
j
) P( E1 | H j ) P( E2 | H j )
9
4.2 基本概率方法

人工智能原理教案03章 不确定性推理方法3.2 确定性方法

人工智能原理教案03章 不确定性推理方法3.2 确定性方法

3.2 确定性方法以产生式作为知识表示方法的专家系统MYCIN中,第一次使用了不确定性推理方法,给出了以确定性因子或称可信度作为不确定性的度量。

这种推理方法必须解决几个方面的核心问题,即规则和证据的不确定性度量问题,不确定性的传播与更新问题。

MYCIN系统研制过程中产生了不确定推理方法,该方法是第一个采用了不确定推理逻辑的专家系统,在20世纪70年代非常有名。

这个系统提出该确定性方法时遵循了下面的原则:(1)不采用严格的统计理论。

使用的是一种接近统计理论的近似方法。

(2)用专家的经验估计代替统计数据(3)尽量减少需要专家提供的经验数据,尽量使少量数据包含多种信息。

(4)新方法应适用于证据为增量式地增加的情况。

(5)专家数据的轻微扰动不影响最终的推理结论。

注意:这种方法在理论上实质是以定量法为工具,比较法为原则的相对确认理论。

因此,采用此方法的MYCIN系统的诊断结果不是只给出一个最可信结论及其可信度,而是给出可信度较高的前几位,供人们比较选用。

3.2.1 规则的不确定性度量在逻辑推理过程中,常常以A → B表示规则。

其中A表示前提,可以是一些命题的析取或合取;B表示结论或推论,是在前提A下的直接逻辑结果。

在精确逻辑推理中,通常只有真假的描述:若A真,则B也必为真。

但在不确定推理过程中,通常要考虑的是A为真时对B为真的支持程度,甚至还考虑A为假(不发生)时对B为真的支持程度。

为此,引入规则的不确定性度量。

有规则A → B,其可信度CF(B, A)定义如下:CF(B,A)表示的意义:证据为真是相对于P(~B) = 1 - P(B)来说,A对B为真的支持程度,即A发生更支持B发生,此时CF(B,A)≥ 0。

相对于P(B)来说,A对B为真的不支持程度。

即A发生不支持B发生,此时CF(B,A)< 0。

它总是满足条件-1 ≤ CF(B,A) ≤ 1。

CF(B, A)的特殊值:CF(B, A) = 1,前提真,结论必真CF(B, A) = -1,前提真,结论必假CF(B, A) = 0 ,前提真假与结论无关实际应用中CF(B, A)的值由专家确定,并不是由P(B|A), P(B)计算得到的。

人工智能原理教案03章不确定性推理方法33主观Bayes方法

人工智能原理教案03章不确定性推理方法33主观Bayes方法

3.3 主观Bayes方法R.O.Duda等人于1976年提出了一种不确定性推理模型。

在这个模型中,他们称推理方法为主观Bayes方法,并成功的将这种方法应用于地矿勘探系统PROSPECTOR中。

在这种方法中,引入了两个数值(LS,LN),前者体现规则成立的充分性,后者则表现了规则成立的必要性,这种表示既考虑了事件A的出现对其结果B的支持,又考虑了A的不出现对B的影响。

在上一节的CF方法中,CF(A)<0.2就认为规则不可使用,实际上是忽视了A不出现的影响,而主观Bayes方法则考虑了A 不出现的影响。

t3-B方法_swf.htmBayes定理:设事件A1,A2 ,A3 ,…,An中任意两个事件都不相容,则对任何事件B有下式成立:该定理就叫Bayes定理,上式称为Bayes公式。

全概率公式:可写成:这是Bayes定理的另一种形式。

Bayes定理给出了一种用先验概率P(B|A),求后验概率P (A|B)的方法。

例如用B代表发烧,A代表感冒,显然,求发烧的人中有多少人是感冒了的概率P(A|B)要比求因感冒而发烧的概率P(B|A)困难得多。

3.3.1 规则的不确定性为了描述规则的不确定性,引入不确定性描述因子LS, LN:对规则A→B的不确定性度量f(B,A)以因子(LS,LN)来描述:表示A真时对B的影响,即规则成立的充分性表示A假时对B的影响,即规则成立的必要性实际应用中概率值不可能求出,所以采用的都是专家给定的LS, LN值。

从LS,LN的数学公式不难看出,LS表征的是A的发生对B发生的影响程度,而LN表征的是A的不发生对B发生的影响程度。

几率函数O(X):即,表示证据X的出现概率和不出现的概率之比,显然O(X)是P(X)的增函数,且有:P(X)=0,O(X)=0P(X)=0.5,O(X)=1P(X)=1,O(X)=∞,几率函数实际上表示了证据X的不确定性。

几率函数与LS,LN的关系:O(B|A) = LS·O(B)O(B|~A) = LN·O(B)几个特殊值:LS、LN≥0,不独立。

人工智能第四章不确定性推理

人工智能第四章不确定性推理

– 如制导回溯、启发式搜索等等
2016-1-22
史忠植 人工智能:不确定性推理
5
内容提要
4.1 概述 4.2 可信度方法 4.3 主观贝叶斯方法 4.4 证据理论 4.5 模糊逻辑和模糊推理 4.6 小结
2016-1-22
史忠植 人工智能:不确定性推理
6
知识的不确定性表示
• 产生式规则:
If E Then H (CF(H, E))
MB(H,E)= m-a--x-{-P--(-H--1-|-E-P-)-(,-H-P-)-(-H--)-}--–---P--(-H--)--- 否则
• MD的定义:
1
若P(H)=0
MD(H,E)= m-i-n---{-P--(-H---P|-E-(-)H-,-)P--(-H--)-}--–---P--(-H--)--- 否则
信度CF(H)
2016-1-22
史忠植 人工智能:不确定性推理
15
结论不确定性合成算法
• r1: if E1 then H (CF(H,E1))
r2: if E2 then H (CF(H,E2)) 求合成的CF(H)
(ห้องสมุดไป่ตู้)首先对每条知识求出CF(H),即:
CF1(H)=CF(H,E1) max{0, CF(E1)} CF2(H)=CF(H,E2) max{0, CF(E2)}
• 已知C(A), AB f(B,A),如何计算C(B)
• 已知C1(A),又得到C2(A),如何确定C(A)
• 如何由C(A1),C(A2)计算C(A1A2), C(A1A2)
–语义问题: 指的是上述表示和计算的含义是
什么,如何进行解释.
2016-1-22
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

人工智能不确定性推理部分参考答案不确定性推理部分参考答案1.设有如下一组推理规则:r1: IF E1 THEN E2 (0.6)r2: IF E2 AND E3 THEN E4 (0.7)r3: IF E4 THEN H (0.8)r4: IF E5 THEN H (0.9)且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。

求CF(H)=? 解:(1) 先由r1求CF(E2)CF(E2)=0.6 × max{0,CF(E1)}=0.6 × max{0,0.5}=0.3(2) 再由r2求CF(E4)CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}}=0.7 × max{0, min{0.3, 0.6}}=0.21(3) 再由r3求CF1(H)CF1(H)= 0.8 × max{0,CF(E4)}=0.8 × max{0, 0.21)}=0.168(4) 再由r4求CF2(H)CF2(H)= 0.9 ×max{0,CF(E5)}=0.9 ×max{0, 0.7)}=0.63(5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H) CF(H)= CF1(H)+CF2(H)+ CF1(H) × CF2(H)=0.6922 设有如下推理规则r1: IF E1 THEN (2, 0.00001) H1r2: IF E2 THEN (100, 0.0001) H1r3: IF E3 THEN (200, 0.001) H2r4: IF H1 THEN (50, 0.1) H2且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知:P(E1| S1)=0.84, P(E2|S2)=0.68, P(E3|S3)=0.36请用主观Bayes方法求P(H2|S1, S2, S3)=?解:(1) 由r1计算O(H1| S1)先把H1的先验概率更新为在E1下的后验概率P(H1| E1)P(H1| E1)=(LS1× P(H1)) / ((LS1-1) × P(H1)+1)=(2 × 0.091) / ((2 -1) × 0.091 +1)=0.16682由于P(E1|S1)=0.84 > P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1)P(H1| S1) = P(H1) + ((P(H1| E1) – P(H1)) / (1 - P(E1))) × (P(E1| S1) – P(E1))= 0.091 + (0.16682 –0.091) / (1 – 0.6)) × (0.84 – 0.6)=0.091 + 0.18955 × 0.24 = 0.136492O(H1| S1) = P(H1| S1) / (1 - P(H1| S1))= 0.15807(2) 由r2计算O(H1| S2)先把H1的先验概率更新为在E2下的后验概率P(H1| E2)P(H1| E2)=(LS2×P(H1)) / ((LS2-1) × P(H1)+1)=(100 × 0.091) / ((100 -1) × 0.091 +1)=0.90918由于P(E2|S2)=0.68 > P(E2),使用P(H | S)公式的后半部分,得到在当前观察S2下的后验概率P(H1| S2)和后验几率O(H1| S2)P(H1| S2) = P(H1) + ((P(H1| E2) – P(H1)) / (1 - P(E2))) × (P(E2| S2) – P(E2))= 0.091 + (0.90918 –0.091) / (1 – 0.6)) × (0.68 – 0.6)=0.25464O(H1| S2) = P(H1| S2) / (1 - P(H1| S2))=0.34163(3) 计算O(H1| S1,S2)和P(H1| S1,S2)先将H1的先验概率转换为先验几率O(H1) = P(H1) / (1 - P(H1)) = 0.091/(1-0.091)=0.10011再根据合成公式计算H1的后验几率O(H1| S1,S2)= (O(H1| S1) / O(H1)) × (O(H1| S2) / O(H1)) × O(H1)= (0.15807 / 0.10011) × (0.34163) / 0.10011) × 0.10011= 0.53942再将该后验几率转换为后验概率P(H1| S1,S2) = O(H1| S1,S2) / (1+ O(H1| S1,S2))= 0.35040(4) 由r3计算O(H2| S3)先把H2的先验概率更新为在E3下的后验概率P(H2| E3)P(H2| E3)=(LS3× P(H2)) / ((LS3-1) × P(H2)+1)=(200 × 0.01) / ((200 -1) × 0.01 +1)=0.09569由于P(E3|S3)=0.36 < P(E3),使用P(H | S)公式的前半部分,得到在当前观察S3下的后验概率P(H2| S3)和后验几率O(H2| S3)P(H2| S3) = P(H2 | ¬ E3) + (P(H2) – P(H2| ¬E3)) / P(E3)) × P(E3| S3)由当E3肯定不存在时有P(H2 | ¬ E3) = LN3× P(H2) / ((LN3-1) × P(H2) +1)= 0.001 × 0.01 / ((0.001 - 1) × 0.01 + 1)= 0.00001因此有P(H2| S3) = P(H2 | ¬ E3) + (P(H2) – P(H2| ¬E3)) / P(E3)) × P(E3| S3)=0.00001+((0.01-0.00001) / 0.6) × 0.36=0.00600O(H2| S3) = P(H2| S3) / (1 - P(H2| S3))=0.00604(5) 由r4计算O(H2| H1)先把H2的先验概率更新为在H1下的后验概率P(H2| H1)P(H2| H1)=(LS4× P(H2)) / ((LS4-1) × P(H2)+1)=(50 × 0.01) / ((50 -1) × 0.01 +1)=0.33557由于P(H1| S1,S2)=0.35040 > P(H1),使用P(H | S)公式的后半部分,得到在当前观察S1,S2下H2的后验概率P(H2| S1,S2)和后验几率O(H2| S1,S2)P(H2| S1,S2) = P(H2) + ((P(H2| H1) – P(H2)) / (1 - P(H1))) × (P(H1| S1,S2) – P(H1))= 0.01 + (0.33557 –0.01) / (1 – 0.091)) × (0.35040 – 0.091)=0.10291O(H2| S1,S2) = P(H2| S1, S2) / (1 - P(H2| S1, S2))=0.10291/ (1 - 0.10291) = 0.11472(6) 计算O(H2| S1,S2,S3)和P(H2| S1,S2,S3)先将H2的先验概率转换为先验几率O(H2) = P(H2) / (1 - P(H2) )= 0.01 / (1-0.01)=0.01010再根据合成公式计算H1的后验几率O(H2| S1,S2,S3)= (O(H2| S1,S2) / O(H2)) × (O(H2| S3) / O(H2)) ×O(H2)= (0.11472 / 0.01010) × (0.00604) / 0.01010) × 0.01010=0.06832再将该后验几率转换为后验概率P(H2| S1,S2,S3) = O(H1| S1,S2,S3) / (1+ O(H1| S1,S2,S3))= 0.06832 / (1+ 0.06832) = 0.06395可见,H2原来的概率是0.01,经过上述推理后得到的后验概率是0.06395,它相当于先验概率的6倍多。

3 设有如下推理规则r1: IF E1 THEN (100, 0.1) H1r2: IF E2 THEN (50, 0.5) H2r3: IF E3 THEN (5, 0.05) H3且已知P(H1)=0.02, P(H2)=0.2, P(H3)=0.4,请计算当证据E1,E2,E3存在或不存在时P(H i | E i)或P(H i |﹁E i)的值各是多少(i=1, 2, 3)?解:(1) 当E1、E2、E3肯定存在时,根据r1、r2、r3有P(H1 | E1) = (LS1× P(H1)) / ((LS1-1) × P(H1)+1)= (100 × 0.02) / ((100 -1) × 0.02 +1)=0.671P(H2 | E2) = (LS2× P(H2)) / ((LS2-1) × P(H2)+1)= (50 × 0.2) / ((50 -1) × 0.2 +1)=0.9921P(H3 | E3) = (LS3× P(H3)) / ((LS3-1) × P(H3)+1) = (5 × 0.4) / ((5 -1) × 0.4 +1)=0.769(2) 当E1、E2、E3肯定存在时,根据r1、r2、r3有P(H1 | ¬E1) = (LN1× P(H1)) / ((LN1-1) × P(H1)+1) = (0.1 × 0.02) / ((0.1 -1) × 0.02 +1)=0.002P(H2 | ¬E2) = (LN2× P(H2)) / ((LN2-1) × P(H2)+1) = (0.5 × 0.2) / ((0.5 -1) × 0.2 +1)=0.111P(H3 | ¬E3) = (LN3× P(H3)) / ((LN3-1) × P(H3)+1) = (0.05 × 0.4) / ((0.05 -1) × 0.4 +1)=0.032。

相关文档
最新文档