人工智能 第3章 推理技术2课题PPT课件
合集下载
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2020/11/12
《人工智能》
10
(1)证据肯定存在
P(E|S)=1,证据E肯定存。此时需要计算P(H|E)。
由Bayes公式得:
P(H|E)=P(E|H)×P(H)/P(E)
(1)
P(¬H|E)=P(E|¬H)×P(¬H)/P(E)
(2)
(1)式除以(2)式得:
P(H|E)/P(¬H|E)=P(E|H)/P(E|¬H)×P(H)/P(¬H) 由LS和几率函数的定义得:
可信度的概念
根据经验对一个事物和现象为真的相信程度称为可信度。
可信度带有较大的主观性和经验性,其准确性难以把握。 但人工智能面向的多是结构不良的复杂问题,难以给出精 确的数学模型,先验概率及条件概率的确定又比较困难。 所以可信度方法是一种比较实用的方法。
2020/11/12
《人工智能》
19
1. 知识不确定性的表示 在该模型中,知识是用产生式规则表示的,其一
给定C(E|S)后,P(E|S)计算如下:
P (E|S) C P ((E E )| S()C 5 (P E (|E S )) (5 5)C (E|S))若 若 0 5C (C E (|E S|)S )5 0
5
2020/、组合证据不确定性的算法
可以采用最大最小法。 当组合证据是多个单一证据的合取时,即
(1)不确定性的表示与度量 (2)不确定性匹配算法 (3)组合证据不确定性的算法 (4)不确定性的传递算法 (5)结论不确定性的合成
2020/11/12
《人工智能》
3
3.4 基于概率的推理
经典概率方法
设有如下产生式规则: IF E THEN H
其中,E为前提条件,H为结论。后验概率P(H|E)可以作为在证 据E出现时结论H的确定性程度(可信度)。为了计算后验概率 P(H|E),需要知道条件概率P(E|H),及先验概率P(H),P(E)。
般形式为:
IF E THEN H (CF(H,E)) 其中,CF(H,E)是该条知识的可信度,称为可 信度因子或规则强度,即静态强度。一般 CF(H,E)∈[-1,1],其含义如下:
当CF(H,E)>0时,P(H|E)>P(H); 当CF(H,E)<0时,P(H|E)<P(H); 当CF(H,E)=0时,P(H|E)=P(H)。
2020/11/12
《人工智能》
14
(3)证据不确定时
当0<P(E|S)<1时,采用杜达等人1976年证明的下述公式计算后 验概率: P(H|S)=P(H|E)×P(E|S)+P(H|¬E)×P(¬E|S)
当P(E|S)=1时,P(H|S)=P(H|E)。 当P(E|S)=0时,P(H|S)=P(H|¬E)。 当P(E|S)=P(E)时,
由于主观给定P(E|S)有所困难,所以实际中可以用可信 度C(E|S)代替P(E|S)。例如在在PROSPECTOR中C(E|S)取 整数:{-5,….5}。 C(E|S)=-5表示在观测S下证据E肯定不存在P(E|S)=0 C(E|S)= 5表示在观测S下证据E肯定存在P(E|S)=1 C(E|S)= 0表示S与E无关,即P(E|S)= P(E)
2020/11/12
《人工智能》
5
相关概念
为阐明主观Bayes方法,先引入几个概念:
(1)几率函数
几率函数定义为 Θ(x)=P(x)/(1-P(x)),它表示x的出现概率与不
出现概率之比,显然随P(x)的加大Θ(x)也加大。
(2)充分性度量
充分性度量定义为: LS=P(E|H)/P(E|¬H) 它表示E对H的支持程度,取值于[0, ∞],由专家给出。
5
2020/11/12
《人工智能》
16
5、结论不确定性的合成算法
若有n条知识都支持相同的结论H,而且每条知 识的前提条件所对应的证据Ei(i=1,2,…,n)都有相应 的观察Si与之对应,此时只要先对每条知识分别求 出Θ(H|Si),然后运用下述公式求出Θ(H|S1S2…Sn):
( H |S SS ) ( H |S 1 ) ( H |S 2 ) ( H |S n ) ( H ) 12 n ( H ) ( H ) ( H )
由Bayes公式得:
P(H|¬E)=P(¬E|H)×P(H)/P(¬E)
(1)
P(¬H|¬E)=P(¬E|¬H)×P(¬H)/P(¬E)
(2)
(1)式除以(2)式得:
P(H|¬E)/P(¬H|¬E)=P(¬E|H)/P(¬E|¬H)×P(H)/P(¬H)
由LN和几率函数的定义得:
Θ(H|¬E)=LN×Θ(H)
假设d红黄蓝m红03m蓝01m红黄02m红蓝02m黄蓝01m红黄蓝01黄蓝时由于ma01说明对x为黄色或蓝色的信任程度为01但不知道如何将01分配给黄或者业文化就是传统氛围构成的公司文化它意味着公司的价值观诸如进取守势或是灵活这些价值观构成公司员工活力意见和行为的规范
推理技术
本章主要内容:
▪ 3.1 消解原理 ▪ 3.2 规则演绎系统(cut) ▪ 3.3 产生式系统 ▪ 3.4 基于概率的推理 ▪ 3.5 可信度方法 ▪ 3.6 证据理论 ▪ 3.7 模糊推理 ▪ 3.8 非单调推理(cut)
P(H|S)=P(H|E)×P(E)+P(H|¬E)×P(¬E)=P(H) 当P(E|S)为其它值时,通过分段线性插值计算P(H|S)
P(H|S)
P(H|E)
P(H)
P(H|E)
0
P(E)
P(E|S) 1
2020/11/12
《人工智能》
15
即:
P (H |S ) P P ( (H H |) E P )( H 1 P |E (P H )( E )P P )( P (H E (H ) ) |[ P E (E ) |S P )( E P |S (E ))],,0 P (P E ()E |P S ( )E |P S ()E 1 )
2020/11/12
《人工智能》
2
不确定性推理
不确定性推理是建立在非经典逻辑基础上的一种推理, 它是对不确定性知识的运用与处理。
严格地说,所谓不确定性推理就是从不确定性的初始证 据出发,通过运用不确定性的知识,最终推出具有一定程度 的不确定性但却是合理或者近乎合理的结论的思维过程。
不确定性推理中的基本问题:
在PROSPECTOR中,由于C(E|S)和P(E|S)遵从如下关系:
P (E|S) C P ((E E )| S()C 5 (P E (|E S )) (5 5)C (E|S))若 若 0 5C (C E (|E S|)S )5 0
5
将P(E|S)代入上式得:
P (H |S ) P P ( (H H || E ) E ) P ( P H (H |E ) P P ((H H |) E C (E C |(S E )|5 S ) 5若 若 0 5 C (C E (|E S |)S )5 0
主观Bayes方法不仅给出了证据肯定存在、肯定不存在时更新后 验概率的方法,还给出了证据不确定时的方法,实现了不确定性 的逐级传递。
缺点:
它要求领域专家在给出知识时,同时给出先验概率P(H)及P(E), 这比较困难。
2020/11/12
《人工智能》
18
3.5 可信度方法
可信度方法是E.H.Shortliffe等人在确定性理论(Theory of Confirmation)的基础上,结合概率论等提出的一种不确 定性推理方法,首先在专家系统MYCIN中得到了成功应用。
基于概率论的不确定性推理有很多种,这里我们只介绍几 种较实用的几种方法。
2020/11/12
《人工智能》
4
3.4.1 主观Bayes方法
主观Bayes方法是R.O.Duda、P.E.Hart等人 1976年在Bayes公式的基础上经适当改进提出了主 观Bayes方法,它是最早用于处理不确定性推理的方 法之一,已在地矿勘探专家系统PROSPECTOR中得 到了成功的应用。
E=E1 AND E2 AND … AND En 则:P(E|S)=min{P(E1|S),P(E2|S),…,P(En|S)} 当组合证据是多个单一证据的析取时,即
E=E1 OR E2 OR … OR En 则:P(E|S)=max{P(E1|S),P(E2|S),…,P(En|S)} 对于“¬”运算则:
2020/11/12
《人工智能》
20
2.证据不确定性的表示
证据的不确定性也用可信度因子表示。如CF(E)=0.6
CF(E)∈[-1,1]
CF(E)表示证据的强度,即动态强度。 CF(H,E)表示知识的强度,即静态强度;
3. 组合证据不确定性的算法
可采用最大最小法。 若E=E1 AND E2 AND…AND En,则
(3)必要性度量
必要性度量定义为 LN=P(¬E|H)/P(¬E|¬H)=(1-P(E|H))/(1-P(E|¬H))
它表示 ¬E对H的支持程度,取值范围为[0,+∞],也是由专家 凭经验给出。
2020/11/12
《人工智能》
6
1、知识不确定性的表示
主观Bayes方法中,知识是用产生式规则表示为: IF E THEN (LS,LN) H (P(H))
P(¬E|S)=1-P(E|S)
2020/11/12
《人工智能》
9
4、不确定性的传递算法
主观Bayes方法推理的任务就是根据证据E的条件概 率P(E|S)及LS、LN的值,把H的先验概率P(H)更新为后 验概率P(H|S) ,或P(H|E),P(H|¬E)。
确定后验概率的方法随着证据肯定存在,肯定不 存在,或者不确定而有所不同。
2020/11/12
《人工智能》
17
主观Bayes方法的特点
优点: 主观Bayes方法中的计算公式大多是在概率论的基础上推导出来,
具有较坚实的理论基础。
知识的静态强度LS及LN是由领域专家给出,避免了大量的数据统 计工作。LS和LN比较全面的反映了证据与结论间的因果关系,使 推出的结论有较准确的确定性。
其中, P(H)是结论H的先验概率,由专家根据经验给出。 LS称为充分性度量,指出E对H的支持程度。 LN称为必要性度量,指出¬E对H的支持程度
LS和LN的值由领域专家给出,相当于知识的静态强度。
2020/11/12
《人工智能》
7
2、 证据不确定性的表示
在主观Bayes方法中,证据的不确定性也用概率表示。 对于证据E,由用户根据观测S给出P(E|S),即动态强度。
CF(E)=min{CF(E1),CF(E2),…,CF(En)} 若E=E1 OR E2 OR…OR En,则
CF(E)=max{CF(E1),CF(E2),…,CF(En)}
4. 不确定性的传递算法
结论H的可信度由下式计算: CF(H)=CF(H,E)×max{0,CF(E)}
2020/11/12
当LS<1时, Θ(H|E)=LS×Θ(H)<Θ(H),表明由于证 据E的存在,减小了H为真的程度。
当LS=0时, Θ(H|E)=LS×Θ(H)=0,表明由于证据E 的存在,导致H为假。
2020/11/12
《人工智能》
12
(2)证据肯定不存在
P(E|S)=0,证据E肯定不存在。此时需要计算P(H|¬E) 。
在,减小了H为真的程度。 当LN=0时, Θ(H|¬E)=LN×Θ(H)=0,表明由于证据E不存在,
导致H为假。 注意:由于E和¬E不可能同时支持H或同时反对H,所以在一
条知识中的LS和LN不应该出现如下情况:
LS>1, LN>1
LS<1, LN<1
在实际应用中通常取LS>1, LN<1。
即
P(H|¬E)=LN×P(H)/[(LN-1)×P(H)+1]
2020/11/12
《人工智能》
13
必要性度量LN的意义
当LN>1时,Θ(H|¬E)=LN×Θ(H)>Θ(H),表明由于证据E不存 在,增强了H为真的程度。
当LN=1时,Θ(H|¬E)=LN×Θ(H)=Θ(H),表明¬E与H无关。 当LN<1时,Θ(H|¬E)=LN×Θ(H)<Θ(H),表明由于证据E不存
《人工智能》
21
5. 结论不确定性的合成算法
若由多条不同知识推出了相同的结论,但可信度不同,则用 合成算法求出综合可信度。
设有如下知识:
IF
E1
THEN
H
(CF(H,E1))
IF
E2
THEN
H
(CF(H,E2))
首先分别对每一条知识求出CF(H), 然后用下述公式求出E1与E2 对H的综合可信度CF12(H):
Θ(H|E)=LS×Θ(H) 即
P(H|E)=LS×P(H)/[(LS-1)×P(H)+1]
2020/11/12
《人工智能》
11
充分性度量LS的意义
当LS>1时, Θ(H|E)=LS×Θ(H)>Θ(H),表明由于证 据E的存在,增强了H为真的程度。
当LS=1时, Θ(H|E)=LS×Θ(H)=Θ(H),表明E与H 无关。