第3章 推理技术2

合集下载
相关主题
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

2011-3-9
《人工智能》
9
2、 证据不确定性的表示
在主观Bayes方法中,证据的不确定性也用概 率表示。对于证据E,由用户根据观察S给出P(E|S), 即动态强度。 由于主观给定P(E|S)有所困难,所以实际中可 以用可信度C(E|S)代替P(E|S)。例如在 PROSPECTOR中C(E|S)和P(E|Swenku.baidu.com遵从如下关系:
2011-3-9
《人工智能》
15
必要性度量LN的意义
当LN>1时,Θ(H|¬E)=LN×Θ(H)>Θ(H),表明由于证据E不存 在,增强了H为真的程度。 当LN=1时,Θ(H|¬E)=LN×Θ(H)=Θ(H),表明¬E与H无关。 当LN<1时,Θ(H|¬E)=LN×Θ(H)<Θ(H),表明由于证据E不存 在,减小了H为真的程度。 当LN=0时, Θ(H|¬E)=LN×Θ(H)=0,表明由于证据E不存在, 导致H为假。 注意:由于E和¬E不可能同时支持H或同时反对H,所以在一 条知识中的LS和LN不应该出现如下情况: LS>1, LN>1 LS<1, LN<1
2011-3-9
《人工智能》
11
4、不确定性的传递算法
主观Bayes方法推理的任务就是根据证据E的概率P(E) 及LS、LN的值,把H的先验概率P(H)更新为后验概率 P(H|E)或P(H|¬E)。即
P( E ) P( H ) → P( H | E )或者 P(H |¬ E ) LS ,LN
2011-3-9 《人工智能》 13
P(E)=P(E|S)=1。 (1) (2)
充分性度量LS的意义
当LS>1时, Θ(H|E)=LS×Θ(H)>Θ(H),表明由于证 据E的存在,增强了H为真的程度。 当LS=1时, Θ(H|E)=LS×Θ(H)=Θ(H),表明E与H 无关。 当LS<1时, Θ(H|E)=LS×Θ(H)<Θ(H),表明由于证 据E的存在,减小了H为真的程度。 当LS=0时, Θ(H|E)=LS×Θ(H)=0,表明由于证据E 的存在,导致H为假。
,0 ≤ P ( E |S ) < P ( E ) , P ( E ) ≤ P ( E |S ) ≤1
在PROSPECTOR中,由于C(E|S)和P(E|S)遵从如下关系:
P( E ) × (C ( E | S ) + 5) 若 − 5 ≤ C(E | S ) ≤ 0 5 P( E | S ) = C ( E | S ) + P( E ) × (5 − C ( E | S )) 若0 ≤ C ( E | S ) ≤ 5 5
Bayes公式 公式
若A1,A2,…,An是彼此独立的事件,且P(Ai)>0(i=1,2,…,n),P(B)>0, 那么Bayes公式可表示为
P ( Ai | B ) = P ( Ai ) × P ( B | Ai ) , i = 1, 2,..., n
∑ P( A
j =1
n
j
) × P(B | Aj )
∑ P(H
j =1
n
, i = 1, 2, ..., n
j
) × P(E | H j )
对于多个证据:
P ( H i | E1 E2 L Em ) = P ( H i ) × P ( E1 | H i ) × P ( E2 | H i ) ×L × P ( Em | H i )
∑ P( H
j =1
n
2011-3-9
《人工智能》
18
5、结论不确定性的合成算法
若有n条知识都支持相同的结论,而且每条知识 的前提条件所对应的证据Ei(i=1,2,…,n)都有相应的 观察Si与之对应,此时只要先对每条知识分别求出 Θ(H|Si),然后运用下述公式求出Θ(H|S1S2…Sn):
Θ ( H | S1S 2L S n ) = Θ ( H |S1 ) × Θ ( H |S 2 ) ×L× Θ ( H |S n ) ×Θ ( H ) Θ( H ) Θ( H ) Θ(H )
确定后验概率的方法随着证据肯定存在,肯定不 存在,或者不确定而有所不同。
2011-3-9
《人工智能》
12
(1)证据肯定存在
在证据肯定存在时 由Bayes公式得: P(H|E)=P(E|H)×P(H)/P(E) P(¬H|E)=P(E|¬H)×P(¬H)/P(E) (1) (1)式除以(2)式得: (2) P(H|E)/P(¬H|E)=P(E|H)/P(E|¬H)×P(H)/P(¬H) 由LS和几率函数的定义得: Θ(H|E)=LS×Θ(H) 即 P(H|E)=LS×P(H)/[(LS-1)×P(H)+1]
P( E ) × (C ( E | S ) + 5) 若 − 5 ≤ C(E | S ) ≤ 0 5 P( E | S ) = C ( E | S ) + P( E ) × (5 − C ( E | S )) 若0 ≤ C ( E | S ) ≤ 5 5
2011-3-9
《人工智能》
P(H|S) P(H|E) P(H) P(H|¬E) P(E|S) 0
2011-3-9
P(E)
《人工智能》
1
17
即:
P(H
P ( H ) − P ( H |¬ E ) × P ( E |S ) P ( H |¬ E ) + P(E ) |S ) = P ( H ) + P ( H | E ) − P ( H ) ×[ P ( E |S ) − P ( E )] 1− P ( E )
将P(E|S)代入上式得:
C(E | S ) + 5 P( H | ¬E ) + [P( H ) − P( H | ¬E ]× 若 − 5 ≤ C(E | S ) ≤ 0 5 P( H | S ) = C(E | S ) P( H | E ) + [P( H | E − P( H )]× 若0 ≤ C ( E | S ) ≤ 5 5
(2)充分性度量 )
充分性度量定义为: LS=P(E|H)/P(E|¬H) 它表示E对H的支持程度,取值于[0, ∞],由专家给出。
(3)必要性度量 )
必要性度量定义为 LN=P(¬E|H)/P(¬E|¬H)=(1-P(E|H))/(1-P(E|¬H)) 它表示 ¬E对H的支持程度,即E对H为真的必要性程度,取 值范围为[0,+∞],也是由专家凭经验给出。
2011-3-9 《人工智能》 8
1、知识不确定性的表示
主观Bayes方法中,知识是用产生式规则表示为: IF E THEN (LS,LN) H (P(H)) 其中, P(H)是结论H的先验概率,由专家根据经验给出。 LS称为充分性度量,指出E对H的支持程度。 LN称为必要性度量,指出¬E对H的支持程度 LS和LN的值由领域专家给出,相当于知识的静态强度。
2011-3-9
《人工智能》
16
(3)证据不确定时
当0<P(E|S)<1时,应该用杜达等人1976年证明的下述公式计算 后验概率: P(H|S)=P(H|E)×P(E|S)+P(H|¬E)×P(¬E|S) 当P(E|S)=1时,证据肯定存在。 当P(E|S)=0时,证据肯定不存在。 当P(E|S)=P(E)时,证据E与观察S无关。由全概率公式得: P(H|S)=P(H|E)×P(E)+P(H|¬E)×P(¬E)=P(H) 当P(E|S)为其它值时,通过分段线性插值计算P(H|S)
不确定性推理是建立在非经典逻辑基础上的一种推理, 它是对不确定性知识的运用与处理。 严格地说,所谓不确定性推理就是从不确定性的初始证 据出发,通过运用不确定性的知识,最终推出具有一定程度 的不确定性但却是合理或者近乎合理的结论的思维过程。 不确定性推理中的基本问题: (1)不确定性的表示与度量 (2)不确定性匹配算法及阈值的选择 (3)组合证据不确定性的算法 (4)不确定性的传递算法 (5)结论不确定性的合成
2011-3-9
《人工智能》
14
(2)证据肯定不存在
在证据肯定不存在时,P(E)=P(E|S)=0, P(¬E)=1。 由Bayes公式得: P(H|¬E)=P(¬E|H)×P(H)/P(¬E) P(¬H|¬E)=P(¬E|¬H)×P(¬H)/P(¬E) (1)式除以(2)式得: P(H|¬E)/P(¬H|¬E)=P(¬E|H)/P(¬E|¬H)×P(H)/P(¬H) 由LN和几率函数的定义得: Θ(H|¬E)=LN×Θ(H) 即 P(H|¬E)=LN×P(H)/[(LN-1)×P(H)+1] (1) (2)
2011-3-9 《人工智能》 4
3.4 基于概率的推理
概率论被广泛地应用于处理随机性以及人类知识不可靠 性问题。如随机事件A的概率P(A)可表示A发生的可能性,因 而可用概率表示和处理事件A的确定性程度。 基于概率推理的本质就是用概率表示和处理推理的不确定 性。最简单概率推理如:
设有如下产生式规则: IF E THEN H 其中,E为前提条件,H为结论。条件概率P(H|E)可以作为在证据E出 现时结论H的确定性程度。
推理技术
本章主要内容:
3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 消解原理 规则演绎系统 产生式系统 基于概率的推理 可信度方法 证据理论 模糊推理 非单调推理
2011-3-9
《人工智能》
2
经典推理与非经典推理
传统人工智能(即逻辑学派)是建立在逻辑符号推理基础上 的。一般所提到的逻辑有形式逻辑和数理逻辑。然而这两种逻辑 存在一定的局限性,无法解决一些面临的实际应用问题,从而出 现了一些新的逻辑学派。人们把这些新的逻辑学派称为非经典逻 辑,其相应的推理方法则叫做非经典推理。与此相应,把传统的 逻辑学派及其推理方法称为经典逻辑和经典推理。
10
3、组合证据不确定性的算法
可以采用最大最小法。 当组合证据是多个单一证据的合取时,即 E=E1 AND E2 AND … AND En 则:P(E|S)=min{P(E1|S),P(E2|S),…,P(En|S)} 当组合证据是多个单一证据的析取时,即 E=E1 OR E2 OR … OR En 则:P(E|S)=max{P(E1|S),P(E2|S),…,P(En|S)} 对于“¬”运算则: P(¬E|S)=1-P(E|S)
j
) × P ( E1 | H j ) × P ( E2 | H j ) ×L × P ( Em | H j )
, i = 1, 2,..., n
《人工智能》
2011-3-9
7
相关概念
为阐明主观Bayes方法,先引入几个概念:
(1)几率函数 )
几率函数定义为 Θ(x)=P(x)/(1-P(x)),它表示x的出现概率与不 出现概率之比,显然随P(x)的加大Θ(x)也加大。
基于概率论的不确定性推理有很多种,这里我们只介绍几 种较实用的几种方法。
2011-3-9 《人工智能》 5
主观Bayes Bayes方法 3.4.1 主观Bayes方法
主观Bayes方法是R.O.Duda、P.E.Hart等人1976年在Bayes 主观Bayes方法是R.O.Duda、P.E.Hart等人1976年在Bayes公 Bayes方法是R.O.Duda 等人1976年在Bayes公 式的基础上经适当改进提出了主观Bayes方法, Bayes方法 式的基础上经适当改进提出了主观Bayes方法,它是最早用于处理 不确定性推理的方法之一,已在地矿勘探专家系统PROSPECTOR PROSPECTOR中得 不确定性推理的方法之一,已在地矿勘探专家系统PROSPECTOR中得 到了成功的应用。下面我们先来介绍Bayes公式。 Bayes公式 到了成功的应用。下面我们先来介绍Bayes公式。
经典推理与非经典推理的区别:
(1)推理方法:经典推理采用演绎逻辑推理。 (2)逻辑值:经典逻辑都是二值的。 (3)运算法则:经典逻辑的许多运算法则在非经典逻辑中 不能成立。 (4)逻辑运算符:非经典逻辑具有更多的运算符。 (5)推理的单调性:经典逻辑推理是单调的。
2011-3-9 《人工智能》 3
不确定性推理
其中,P(Ai)是事件Ai的先验概率;P(B|Ai)是在事件Ai发生条 件下事件B的条件概率。
2011-3-9 《人工智能》 6
如果用产生式规则 IF E THEN Hi 中的前提条件E代替Bayes公式中的B,用Hi代替公式 中的Ai ,就可得到:
P(H i | E ) = P(H i ) × P(E | H i )
相关文档
最新文档