人工智能之不确定知识表示及推理

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

则:O(H|E) = LSO(H)
P(H | E) O(H | E) 1 O(H | E)
LS O(H ) 1 LS O(H )
LS P(H )
1 P(H )
1 LS P(H )
1 P(H )
LS P(H ) (LS 1) P(H ) 1
几率函数O(odds)
O等价于概率函数P,定义如下:
O
P
1 P
P O 1 O
当P<0.5时,O<1 当P>0.5时,O>1 当P=0.5时,O=1
当P=0时,O=0
P越大则O越大,P和O在概率含义上等价的,但取值范围不同:
P[0,1],O[0,)
2020/10/17
24
H的先验几率O(H)和后验几率O(H|E)
如果E为初始事实,则C(E)由用户给出。
如果E为推理过程中产生的中间结果,则C(E)可以通过不确定 性的更新算法来计算。
2020/10/17
5
规则:IF E THEN H
规则是知识,E是规则的前提即证据,H是该规则的结论,也可 以是其他规则的证据。
C(E)
f(E,H)
C(H)
E
H
规则的不确定性通常用一个数值f(E,H)表示,称为规则强度。
2020/10/17
8
三、不确定性的更新算法
即在推理过程中如何考虑知识不确定性的动态积累和传递。
1、已知规则前提的不确定性C(E)和规则的强度f(E,H),如何求 假设H的不确定性C(H)。
即定义算法g1,使C(H)=g1[C(E), f(E,H)]
2、 并行规则算法
C(E1) E1
f(E1,H)
n
P(E1 | H j )P(E2 | H j )P(Em | H j )P(H j )
j 1
2020/10/17
19
举例
设已知:P(H1)=0.4, P(H2)=0.3, P(H3)=0.3 P(E1|H1)=0.5, P(E1|H2)=0.6, P(E1|H3)=0.3 P(E2|H1)=0.7, P(E2|H2)=0.9, P(E2|H3)=0.1
不确定性的表示 不确定性的匹配 不确定性的更新算法
2020/10/17
4
一、不确定性的表示
✓ 证据的不确定性
✓ 知识的不确定性
证据通常有两类:
一类为初始事实。这一类证据多来源于观察,因而通常具有不 确定性;
另一类为推理过程中产生的中间结果。
证据不确定性用C(E)表示,它代表相应证据的不确定性程度, 即表示证据E为真的程度。
O(H ) P(H ) P(H ) 1 P(H ) P(H )
O(H | E) P(H | E) P(H | E) 1 P(H | E) P(H | E)
P(H | E) P(E | H )P(H ) P(H | E) P(E | H )P(H )
P(E)
P(E)
P(H | E) P(E | H )P(H ) P(H | E) P(E | H )P(H )
若LN为0时,则E为真时H就为假;
由于E不出现,将导致H为假,可看出E对H为真的必要性,故 称LN为必要性度量。
若证据E对H越是必要,则相应的LN的值越小。
2020/10/17
28
③LS和LN的关系
由于E和E不可能同时支持H或同时反对H,所以领域专家在为 一条知识中的LS和LN赋值时,不应该同时大于1或同时小于1。
P( Ai
|
B)
P( Ai )P(B | P(B)
Ai )
即:
i 1,2,n
P( Ai | B)P(B) P(B | Ai )P( Ai ) i 1,2,n
2020/10/17
17
二、概率推理模型
IF E THEN H
P(H | E) P(E | H )P(H ) P(E)
Bayes方法用于不精确推理的条件是已知:P(E),P(H) ,P(E | H)
LS<1时,O(H | E)<O(H),说明E排斥H。 若LS为0时,则E为真时H就为假;
当证据E越是支持H为真是,则使相应LS的值越大。
2020/10/17
27
②LN:规则的必要性量度
反映E不出现对H的支持程度,即E的出现对H的必要性。
LN=1时,O(H|E)=O(H),说明E对H没有影响;
LN>1时,O(H|E)>O(H),说明E支持H,且LN越大,E对H 的支持越充分。 若LN为,则E为真时H就为真; 当LN<1时,O(H|E)<O(H),说明E排斥H。
2020/10/17
13
1.2 概率方法
2020/10/17
14
一、基础 1、全概率公式
设事件满足:
①两两互不相容,即当ij时,有 Ai A j
②P(Ai)>0;
n
③ D
Ai ,D为必然事件
i 1
则对任何事件B有下式成立:
n
P(B) P( Ai )P(B | Ai ) i 1
提供了一种计算P(B)的方法。
=0.45
同理 P(H 2 | E1E2 ) 0.52
2020/10/17
P(H 3 | E1E2 ) 0.03
20
概率推理模型的优缺点
有较强的理论背景和良好的数学特征,当证据及结论都彼此独 立时,计算的复杂度比较低。 它要求给出结论Hi的先验概率P(Hi)及证据Ej的条件概率P(Ej | Hi), 要获得这些数据是一件相当困难的工作。 Bayes公式的应用条件很严格,它要求各事件互相独立,若证 据之间存在依赖关系,就不能直接使用这个方法
2020/10/17
26
①LS:规则的充分性量度
反映E出现对H的支持程度。
LS=1时,O(H|E)=O(H),说明E对H没有影响;
LS>1时,O(H|E)>O(H),说明E支持H,且LS越大,E对H的支 持越充分。可见,E的出现对H为真是充分的,故称LS为充分 性度量。
若LS为,则E为真时H就为真;
10
举例
设A1、A2、A3、A4为原始证据,不确定性分别为: C(A1)、C(A2)、C(A3)、C(A4)
求A5、A6、A7的不确定性。
R3
A7 R4
A5
f3
f4
A6
R1 f1
R2 f2
OR
AND
2020/10/17
A1
A2
A3
A4
11
①由证据A1和A2的不确定性C(A1)和C(A2) 根据算法4求出A1和A2析取的不确定性C(A1 A2)。
✓ LS>1且LN<1 ✓ LS<1且LN>1 ✓ LS=LN=1
2020/10/17
29
2、证据的不确定性表示
在主观Bayes方法中,证据E的不确定性由用户根据观察S给出 后验概率P(E|S)或后验几率O(E|S)表示。
✓ 当E为真时,P(E|S)=1,O(E|S)= ✓ 当E为假时,P(E|S)=0,O(E|S)=0 ✓ 当E不确定时,0<P(E|S)<1
O(H | E) P(E | H ) O(H )
P(E | H )
2020/10/17
25
LS P(E | H ) P(E | H )
O(H | E)=LSO(H)
同理可得: O(H | E) P(E | H ) O(H ) P(E | H )
LN P(E | H ) P(E | H )
O(H | E)=LNO(H)
2020/10/17
15
2、Bayes公式
定理:设事件满足上述定理的条件,则对任何事件B有:
P(Ai | B)
P(Ai )P(B | Ai )
n
P(Aj)P(B | Aj)
j 1
i 1,2,n
该定理称为Bayes定理,上式称为Bayes公式。
2020/10/17
16
如果把全概率公式代入Bayes公式中,就可得到:
C(H) H
C(E2) E2
f(E2,H)
C(H) H
定义算法g2:C(H)=g2[C1(H), C2(H)]
2020/10/17
9
3、证据合取的不确定性算法
C(E1 E2) = g3[ C(E1), C(E2) ]
4、证据析取的不确定性算法
C(E1 E2)=g4[C(E1), C(E2)]
合取和析取的不确定性算法统称为组合证据的不确定性算法。
2020/10/17
21
1.3 主观Bayes方法
2020/10/17
22
一、不确定性的表示 1、知识的不确定性表示
IF E THEN (LS,LN) H (P(H))
P(E)
P(H)
LS,LN
E
H
LS,LN(0)分别称为充分性量度和必要性量度,这两个数值由 领域专家给出。
2020/10/17
23
P(H i
|
E)
P(Hi )P(E P(E)
|
Hi )
P(Hi )P(E | Hi )
n
P(H j )P(E | H j )
j 1
如果有多个证据E1,E2,Em和多个结论H1,H2,Hn,则:
P(H i | E1E2 Em )
P(E1 | H i )P(E2 | H i ) P(Em | H i )P(H i )
✓ 量度的确定应当是直观的,同时应有相应的理论依据。
2020/10/17
7
二、不确定性的匹配算法
设计一个数用来计算匹配双方相似的程度,另外再指定一个相 似的限度(称为阈值) ,用来衡量匹配双方相似的程度是否落在 指定的限度内。
如果落在指定的限度内,就称它们是可匹配的,相应的知识可 被应用。
否则就称它们是不可匹配的,相应的知识不可应用。
第一章 不确定知识表示及推理
2020/10/17
1
内容
1.1 概述
1.2 概率模型
1.3 主观Bayes方法
1.4 可信度方法
2020/10/17
2
1.1 概述
2020/10/17
3
需要解决的问题:
所谓不确定性推理就是从不确定性的初始事实(证据)出发, 通过运用不确定的知识,最终推出具有一定程度的不确定性却 是合理或者近乎合理的结论的思维过程。
②由A1和A2析取的不确定性C(A1 A2)和规则R1的规则强度f1 根据算法1求出A5的不确定性C(A5)。
③由证据A3和A4的不确定性C(A3)和C(A4) 根据算法3求出A3和A4合取的不确定性C(A3 A4)。
④由A3和A4合取的不确定性C(A3 A4)和规则R2的规则强度f2, 根据算法1求出A6的不确定性C(A6)。
2020/10/17
30
二、主观Bayes方法推理的基本算法
根据证据E的后验概率P(E|S)及LS,LN的值,把H的先验概率 P(H)更新为后验概率P(H | E)或P(H | E)。即:
P(E|S) P(H)
LS,LN
P(H|Leabharlann Baidu) P(H| E)
2020/10/17
31
1、证据E确定 ✓ 当P(E|S)=1
规则的假设(结论)H也可以作为其他规则的证据,其不确定用 C(H)表示,C(H)必须通过不确定性的更新算法来计算。
2020/10/17
6
在确定一种量度方法及其范围时,应注意以下几点:
✓ 量度要能充分表达相应的知识和证据的不确定性程度。 ✓ 量度范围的指定应便于领域专家及用户对不确定性的估计。 ✓ 量度要便于对不确定性的更新进行计算,而且对结论算出 的不确定性量度不能超出量度的范围
2020/10/17
12
⑤由A5的不确定性C(A5)和规则R3的规则强度f3 根据算法1求出A7的其中一个不确定性C(A7)。
⑥由A6的不确定性C(A6)和规则R4的规则强度f4 根据算法1求出A7的另外一个不确定性C(A7)。
⑦由A7的两个根据独立证据分别求出的不确定性C(A7)和C(A7) 根据算法2求成A7最后的不确定性C (A7)。
求:P(H1 | E1E2), P(H2 | E1E2), P(H3 | E1E2)
P(H1 | E1E2 )
P(E1 | H1)P(E2 | H1)P(H1) P(E1 | H1)P(E2 | H1)P(H1) P(E1 | H 2 )P(E2 | H 2 )P(H 2 ) P(E1 | H3 )P(E2 | H3 )P(H3 )
对于一般的不精确推理网络,必须做如下约定:
①若一组证据E1,E2,En同时支持假设H时,则: 对于H,E1,E2,En之间相互独立
②当一个证据E支持多个假设H1,H2,Hn时, 则: 假设H1,H2,Hn 之间互不相容
2020/10/17
18
如果一个证据E支持多个假设H1,H2,Hn,即:IF E THEN Hi 并已知P(Hi)和P(E | Hi),则
✓ 最大最小法
C(E1E2) = min{ C(E1), C(E2) } C(E1E2) = max{ C(E1), C(E2) }
✓ 概率方法 ✓ 有界方法
2020/10/17
C(EE2) = C(E1) C(E2) C(EE2)=C(E1)+C(E2)-C(E1) C(E2)
C(E1E2)=max{ 0, C(E1)+C(E2)-1 } C(E1E2)=min{ 1, C(E1)+C(E2) }
相关文档
最新文档