人工智能 第5章 不确定性推理
确定性与不确定性推理主要方法-人工智能导论
确定性与不确定性推理主要方法1.确定性推理:推理时所用的知识与证据都是确定的,推出的结论也是确定的,其真值或者为真或者为假。
2.不确定性推理:从不确定性的初始证据出发,通过运用不确定性的知识,最终推出具有一定程度的不确定性但却是合理或者近乎合理的结论的思维过程。
3.演绎推理:如:人都是会死的(大前提)李四是人(小前提)所有李四会死(结论)4.归纳推理:从个别到一般:如:检测全部产品合格,因此该厂产品合格;检测个别产品合格,该厂产品合格。
5.默认推理:知识不完全的情况下假设某些条件已经具备所进行的推理;如:制作鱼缸,想到鱼要呼吸,鱼缸不能加盖。
6.不确定性推理中的基本问题:①不确定性的表示与量度:1)知识不确定性的表示2)证据不确定性的表示3)不确定性的量度②不确定性匹配算法及阈值的选择1)不确定性匹配算法:用来计算匹配双方相似程度的算法。
2)阈值:用来指出相似的“限度”。
③组合证据不确定性的算法最大最小方法、Hamacher方法、概率方法、有界方法、Einstein方法等。
④不确定性的传递算法1)在每一步推理中,如何把证据及知识的不确定性传递给结论。
2)在多步推理中,如何把初始证据的不确定性传递给最终结论。
⑤结论不确定性的合成6.可信度方法:在确定性理论的基础上,结合概率论等提出的一种不确定性推理方法。
其优点是:直观、简单,且效果好。
可信度:根据经验对一个事物或现象为真的相信程度。
可信度带有较大的主观性和经验性,其准确性难以把握。
C-F模型:基于可信度表示的不确定性推理的基本方法。
CF(H,E)的取值范围: [-1,1]。
若由于相应证据的出现增加结论 H 为真的可信度,则 CF(H,E)> 0,证据的出现越是支持 H 为真,就使CF(H,E) 的值越大。
反之,CF(H,E)< 0,证据的出现越是支持 H 为假,CF(H,E)的值就越小。
若证据的出现与否与 H 无关,则 CF(H,E)= 0。
不确定性推理概述
不确定性推理概述4.1.1 不确定推理的概念所谓推理就是从已知事实出发,运⽤相关知识(或规则)逐步推出结论或证明某个假设成⽴或不成⽴的思维过程。
其中已知事实和知识(规则)是构成推理的两个基本要素。
已知事实是推理过程的出发点,把它称为证据。
4.1.2 不确定性推理⽅法的分类可信度⽅法、主观Bayes⽅法、证据理论都是在概率论的基础上发展起来的不确定性推理⽅法。
4.1.3 不确定性推理知识库是⼈⼯智能的核⼼,⽽知识库中的知识既有规律性的⼀般原理,⼜有⼤量的不完全的专家知识,即知识带有模糊性、随机性、不可靠或不知道不确定因素。
世界上⼏乎没有什么事情是完全确定的。
不确定性推理即是通过某种推理得到问题的精确判断。
(1)不确定性问题的代数模型⼀个问题的代数模型由论域、运算和公理组成。
建⽴不确定性问题模型必须说明不确定知识的表⽰、计算、与语义解释。
不确定性的表⽰问题:指⽤什么⽅法描述不确定性,通常有数值和⾮数值的语义表⽰⽅法。
数值表⽰便于计算,⽐较,再考虑到定性的⾮数值描述才能较好的解决不确定性问题。
例如对规则A->B(即A真能推导B真)和命题(或称证据、事实)A,分别⽤f(B,A)来表⽰不确定性度量。
推理计算问题:指不确定性的传播和更新,也即获得新的信息的过程。
包括:①已知C(A),A->B,f(B,A),如何计算C(B)②证据A的原度量值为C1(A),⼜得C2(A),如何确定C(A)③如何由C(A1)和C(A2)来计算C(A1∧A2),C(A1∨A2)等。
⼀般初始命题/规则的不确定性度量常常由有关领域的专家主观确定。
语义问题:是指上述表⽰和计算的含义是什么?即对它们进⾏解释,概率⽅法可以较好地回答这个问题,例如f(B,A)可理解为前提A为真时对结论B为真的⼀种影响程度,C(A)可理解为A为真的程度。
特别关⼼的是f(B,A)的值是:①A真则B真,这时f(B,A)=?②A真则B假,这时f(B,A)=?③A对B没有影响时,这时f(B,A)=?对C(A)关⼼的值是①A真时,C(A)=?②A假时,C(A)=?③对A⼀⽆所知时,C(A)=?(2)不确定推理⽅法的分类不确定推理⽅法在⼈⼯智能系统中通常是不够严谨的,但尚能解决某些实际问题,符合⼈类专家的直觉,在概率上也可给出某种解释。
6-不确定推理
推理能力不足
解题方案不唯一
人工智能
sspu 王帅
概述
一个AI系统,由于知识本身的不精确和不完全, 常采用非标准逻辑意义下的不确定性推理方法 和非单调推理方法。 对于不确定推理来说,研究的主要问题是
如何描述不精确性 如何传播不精确性
对于非单调推理来说,研究的主要问题是
如何提出合理的假设 如何处理矛盾
不确定性推理
不确定性推理
概述
确定性方法
概率论基础
Bayes网络
主观Bayes方法 证据理论
人工智能 sspu 王帅
第五章 不确定性推理
概述 确定性方法 概率论基础 Bayes网络 主观Bayes方法
证据理论
人工智能 sspu 王帅
概述
归结推理方法是建立在经典逻辑上的确定性推理。它是 一种运用确定性知识进行精确推理,而且随着新知识的 加入,推出的结论或证明了的命题将单调增加。但是人 类的推理通常是在信息不完全下进行的不确定和非单调 的推理 不确定是针对已知事实及推理中所用的知识而言的。由 于现时世界的随机性、模糊性,导致人们认识的不精确 不完全,反映到知识上即为不确定性知识,对这种知识 进行的推理就是不确定推理 非单调是针对推理过程所呈现出来的特性而言的。在推 理过程中,随着新知识的加入,推出的结论或证明了的 命题有可能减少。这种推理大都由知识的不完全引起, 所以也具有不确定的特性
n n
n n
,
n
n
P( B)Байду номын сангаас
An B
P( A )
n
人工智能
sspu 王帅
概率论基础(统计概率性质 )
对任意事件A,有 0 P( A) 1 必然事件Ω 的概率P(Ω ) =1,不可能事件 φ 的概率P(φ ) = 0 P(~ A) 1 P( A) 对任意事件A,有 P( A ) P( A ) P( A ) ... P( A ) 设事件A1,A2,…An(k≤n)是两两互不 相容的事件,即有,则 设A,B是两事件,则
人工智能及其应用-不确定性推理方法-证据理论
Bel({红,黄}) M ({红}) M ({黄}) M ({红,黄})
0.3 0.2 0.5
Pl({蓝}) 1 Bel({蓝}) 1 Bel({红,黄})=系
因为
Bel( A) +Bel(¬A) =∑M (B) +∑M (C)
则: K 1 M1(x)M 2 ( y) x y 1 [M1({黑})M 2 ({白}) M1({白})M 2 ({黑})]
1 [0.3 0.3 0.5 0.6] 0.61
M ({黑}) K 1 M1(x)M 2 ( y)
0.161x[My{1黑({}黑})M 2 ({黑}) M1 ({黑})M 2 ({黑,白})
Pl(A) :对A为非假的信任程度。
8 A(Bel(A), Pl(A)) :对A信任程度的下限与上限。
8
概率分配函数的正交和(证据的组合)
定义4.4 设 M1和 M 2 是两个概率分配函数;则其正交 和 M =M1⊕M2 : M (Φ) 0
M ( A) K 1
M1(x)M2( y)
x yA
B⊆A
C⊆¬A
≤∑M (E) =1
B⊆D
所以 Pl( A) Bel( A) 1 Bel(A) Bel( A)
1 (Bel(A) Bel( A)) 0
∴所以 Pl( A) ≥Bel( A)
A(0,0);A(0,1)
Bel(A) :对A为真的信任程度。
A(1,1);A(0.25,1) A(0,0.85);A(0.25,0.85)
1981年巴纳特(J. A. Barnett)把该理论引入专家系 统中,同年卡威(J. Garvey)等人用它实现了不确定 性推理。
人工智能课程习题与部分解答
《人工智能》课程习题与部分解答第1章 绪论什么是人工智能 它的研究目标是什么什么是图灵测试简述图灵测试的基本过程及其重要特征. 在人工智能的发展过程中,有哪些思想和思潮起了重要作用 在人工智能的发展过程中,有哪些思想和思潮起了重要作用人工智能的主要研究和应用领域是什么其中,哪些是新的研究热点第2章 知识表示方法什么是知识分类情况如何什么是知识表示不同的知识表示方法各有什么优缺点 人工智能对知识表示有什么要求 用谓词公式表示下列规则性知识:自然数都是大于零的整数。
任何人都会死的。
[解] 定义谓词如下:N(x): “x 是自然数”, I(x): “x 是整数”, L(x): “x 大于0”, D(x): “x 会死的”, M(x): “x 是人”,则上述知识可用谓词分别表示为: )]()()()[(x I x L x N x ∨→∀ )]()()[(x D x M x →∀用谓词公式表示下列事实性知识:小明是计算机系的学生,但他不喜欢编程。
李晓新比他父亲长得高。
产生式系统由哪几个部分组成 它们各自的作用是什么可以从哪些角度对产生式系统进行分类 阐述各类产生式系统的特点。
简述产生式系统的优缺点。
简述框架表示的基本构成,并给出框架的一般结构 框架表示法有什么特点试构造一个描述你的卧室的框架系统。
试描述一个具体的大学教师的框架系统。
[解] 一个具体大学教师的框架系统为: 框架名:<教师-1> 类属:<大学教师>姓名:张宇 性别:男年龄:32职业:<教师>职称:副教授部门:计算机系研究方向:计算机软件与理论工作:参加时间:2000年7月工龄:当前年份-2000工资:<工资单>把下列命题用一个语义网络表示出来(1)树和草都是植物;(2)树和草都是有根有叶的;(3)水草是草,且生长在水中;(4)果树是树,且会结果;(5)苹果树是果树的一种,它结苹果。
[解]在基于语义网络的推理系统中,一般有几种推理方法,简述它们的推理过程。
人工智能专家系统推理机设计-第五章 不确定性推理-
15
2019/11/30
福州大学阳光学院计算机系
主观贝叶斯方法
IF E THEN (LS , LN) H (P(H))
E: 知识的前提条件 H: 结论 P(H): H的先验概率 LS: 充分性量度 LS P(E| H)
P(E| H)
24
2019/11/30
福州大学阳光学院计算机系
主观贝叶斯方法
证据不确定时 EH公式:
P(H|E)P(H)P(H|E)P(E|E') P(E) P(H|E')P(H)P(H|E)P(H)[P(E|E')P(E)] 1P(E)
0 <=P(E|E’)<= P(E) P(E) <=P(E|E’)<= 1
福州大学阳光学院计算机系
基本概念—不确定推理的基本问题
(表示问题 计算问题 语义问题)
不确定性的表示和量度 不确定性匹配算法及阈值的选择 组合证据不确定的算法 不确定性的传递算法 结论不确定性的合成
5
2019/11/30
福州大学阳光学院计算机系
基本概念—不确定推理方法的基本问题
6
2019/11/30
福州大学阳光学院计算机系
基本概念—不确定推理的基本问题
计算问题:
不确定性的传播和更新算法。包括
已知规则 E H 的强度f (H , E)和前提的不确定性 C(E),如何计算结论的不确定性
C(H) =g1(C(E),f(H,E)) 已知某命题H的不确定性C1(H),又根据新的证据求得
P(E/E’)=1 P(H/E’)=P(H/E)= LS*P(H)/[(LS-1)*P(H)+1] P(E/E’)=0 P(H/E’)=P(H/~E)= LN*P(H)/[(LN-1)*P(H)+1] P(E/E’)=P(E) P(H/E’)=P(H)
人工智能课程习题与部分解答
《人工智能》课程习题与部分解答第1章 绪论什么是人工智能? 它的研究目标是什么?什么是图灵测试?简述图灵测试的基本过程及其重要特征. 在人工智能的发展过程中,有哪些思想和思潮起了重要作用? 在人工智能的发展过程中,有哪些思想和思潮起了重要作用? 人工智能的主要研究和应用领域是什么?其中,哪些是新的研究热点?第2章 知识表示方法什么是知识?分类情况如何?什么是知识表示?不同的知识表示方法各有什么优缺点? 人工智能对知识表示有什么要求? 用谓词公式表示下列规则性知识:自然数都是大于零的整数。
任何人都会死的。
[解] 定义谓词如下:N(x): “x 是自然数”, I(x): “x 是整数”, L(x): “x 大于0”, D(x): “x 会死的”, M(x): “x 是人”,则上述知识可用谓词分别表示为: )]()()()[(x I x L x N x ∨→∀ )]()()[(x D x M x →∀用谓词公式表示下列事实性知识:小明是计算机系的学生,但他不喜欢编程。
李晓新比他父亲长得高。
产生式系统由哪几个部分组成? 它们各自的作用是什么?可以从哪些角度对产生式系统进行分类? 阐述各类产生式系统的特点。
简述产生式系统的优缺点。
简述框架表示的基本构成,并给出框架的一般结构框架表示法有什么特点?试构造一个描述你的卧室的框架系统。
试描述一个具体的大学教师的框架系统。
[解] 一个具体大学教师的框架系统为:框架名:<教师-1>类属:<大学教师>姓名:张宇性别:男年龄:32职业:<教师>职称:副教授部门:计算机系研究方向:计算机软件与理论工作:参加时间:2000年7月工龄:当前年份-2000工资:<工资单>把下列命题用一个语义网络表示出来(1)树和草都是植物;(2)树和草都是有根有叶的;(3)水草是草,且生长在水中;(4)果树是树,且会结果;(5)苹果树是果树的一种,它结苹果。
人工智能第五章模糊逻辑系统85
A~ (B~ C~) ( A~ B~) ( A~ C~) A~ (B~ C~) ( A~ B~) ( A~ C~)
吸收律
A~ A~ B~ A~ A~ A~ B~ A~
a a
;如果用 b a bm am
结果变为
R 1 0.79 0.68 0.58 0.42 0.32 0.11 0.11 0.05 0.05 (1,20) (5,20) (7,20) (9,20) (1,9) (1,7) (5,7) (7,9) (5,9) (1,5)
强截集 弱截集
“单点模糊集合”:若台集仅为一个点,且该点隶属度为1
2019/11/20
16
三、模糊集合的基本运算
1、相等 :
A~ F (U ) B~ F (V )
各元素的隶属度分别相等
A~ (u) B~ (u)
2、包含:
A~ (u) B~ (u)
A~包含于B~
2019/11/20
x1
x2
x3
x4
x5
A~ (0.85,0.75,0.98,0.30,0.60)
2019/11/20
13
2、论域是离散无限域
扎德表示法:
可数:
A~
A~(ui
)
A~(ui
)
A~(ui )
1
不可数: A~
ui A~(u)
1
ui
1 ui
U u
3、论域是连续域
不确定性推理
知识的不确定性通常是用一个数值来描述的,该数值表示相应知识的确定性程度,也称为知识的静态强度。知识的静态强度可以是该知识在应用中成功的概率,也可以是该知识的可信程度等。如果用概率来表示静态强度,则其取值范围为[0,1],该值越接近于1,说明该知识越接近于“真”;其值越接近于0,说明该知识越接近于“假”。如果用可信度来表示静态强度,则其取值范围一般为[−1,1]。当该值大于0时,值越大,说明知识越接近于“真”;当其值小于0时,值越小,说明知识越接近于“假”。在实际应用中,知识的不确定性是由领域专家给出的。
6.1.2 不确定性推理的基本问题
在不确定性推理中,除了需要解决在确定性推理中所提到的推理方向、推理方法、控制策略等基本问题外,一般还需要解决不确定性的表示与度量、不确定性的匹配、不确定性的合成和不确定性的更新等问题。
1.不确定性的表示
不确定性的表示包括知识的不确定性表示和证据的不确定性表示。
1.知识不确定性的表示
在CF模型中,知识是用产生式规则表示的,其一般形式为
IF E THEN H (CF(H,E))
其中,E是知识的前提证据;H是知识的结论;CF(H,E)是知识的可信度。对它们简单说明如下。
(1)前提证据E可以是一个简单条件,也可以是由合取和析取构成的复合条件。例如
(3)多种原因导致同一结论。所谓多种原因导致同一结论是指知识的前提条件不同而结论相同。在现实世界中,可由多种不同原因导出同一结论的情况有很多。例如,引起人体低烧的原因至少有几十种,如果每种原因都作为一条知识,那就可以形成几十条前提条件不同而结论相同的知识。当然,在不确定性推理中,这些知识的静态强度可能是不同的。
第五章不确定性推理方法(简s2)
S
E
C
• E与L在S条件下独立,P(E|S,C,L) = P(E|S,C), • L与C在S, E条件下独立,P(L|S,C)= P(L|S) • C与S在E条件下独立,P(C|S)=P(C) • 以上三条等式可从Bayes网的条件独立性和后面的D分离定 义中得到。 • 简化后的联合概率密度为, P( S , C, L, E ) = P( E | S , C ) * P( L | S ) * P(C ) * P( S ) 若原Bayes网中条件独立语义较多,计算量减少更明显。 • 如何判定个节点之间的条件独立性? • D分离!!
《人工智能原理》第五章 不确定性推理
贝叶斯网络(事件的独立性)
• 独立:如果X与Y相互独立,则 P(X,Y) = P(X)P(Y) P(X|Y) = P(X) • 条件独立:如果在给定Z的条件下,X与Y相互 独立,则 P(X|Y, Z) = P(X|Z) 实际中,条件独立比完全独立更重要
《人工智能原理》第五章 不确定性推理
《人工智能原理》第五章 不确定性推理
贝叶斯网络(计算)
• 有向无环图是各个节点变量关系传递的 合理表达形式。 • 条件独立的引入使得计算较之全连接网 络有了大大的简化。 • CPT表相对比较容易得到。
《人工智能原理》第五章 不确定性推理
贝叶斯网络(计算续)
• 简单的联合概率可以直接从网络关系上得到
贝叶斯网络( D分离(例3))
Y X X—草湿 Y—洒水 Z—彩虹 W—长虫 P(X,Y) = P(X)P(Y) P(X|Y,Z) = P(X|Z)
Z
W X X—草湿 Y—洒水 Z—彩虹 W—长虫
Y
P(X,Y) ≠ P(X)P(Y) P(X|Y,Z) ≠ P(X|Z)
人工智能导论_第5章
i
i
《人工智能原理》第五章 不确定性推理
i
概率论基础(贝叶斯定理 )
• 设 A , B1 , B2 , … , Bn 为 一 些 事 件 , P(A)>0 , B1 , B2 , … , Bn 互 不 相 交 , P(Bi)>0, i=1, 2, …, n,且 P(B ) 1 ,则对 于k=1, 2, …, n,
n n
n n
,
n
n
P( B )
《人工智能原理》第五章 不确定性推理
An B
P( A )
n
概率论基础(统计概率性质 )
• 对任意事件A,有 0 P( A) 1 • 必然事件Ω 的概率P(Ω ) =1,不可能事件 φ 的概率P(φ ) = 0 P(~ A) 1 P( A) • 对任意事件A,有 P( A ) P( A ) P( A ) ... P( A ) • 设事件 A1 , A2 , …An ( k≤n )是两两互 不相容的事件,即有,则 • 设A,B是两事件,则
《人工智能原理》第五章 不确定性推理
第五章 不确定性推理
• 概述 • 概率论基础 • Bayes网络 • 主观Bayes方法 • 确定性方法 • 证据理论
《人工智能原理》第五章 不确定性推理
概述
• 不精确思维并非专家的习惯或爱好所至, 而是客观现实的要求。
–很多原因导致同一结果 –推理所需的信息不完备 –背景知识不足 –信息描述模糊 –信息中含有噪声 –规划是模糊的 –推理能力不足 –解题方案不唯一
0 P( A) 1 P () 1 P( ) 0 –若二事件AB互斥,即,则 P( A B) P( A) P( B)
不确定性推理
3/29/2012
16
不确定性推理方法分类
非 数 值 方 法 框架推理 语义网络推理 常识推理… 可信度方法 数 值 方 法 基于概率的方法 主观Bayes方法 证据理论
不 确 定 性 推 理
模糊推理
3/29/2012 17
可信度方法
E.Short 和B.Buchanan 在MYCIN系统研制过程中 产生了可信度方法,第一个采用了不确定推理逻 辑,在70年代很有名。
3/29/2012
7
不确定性推理的概念
不确定性推理泛指除精确推理以外的其它各种推理 问题。包括不完备、不精确知识的推理,模糊知识的推 理,非单调性推理等。 不确定性推理过程实际上是一种从不确定的初始证 据出发,通过运用不确定性知识,最终推出具有一定不 确定性但却又是合理或基本合理的结论的思维过程。
当P(H)=1 否则
MD ( H , E ) =
当P(H)=0 否则
23
min( P( H E ), P ( H )) − P( H ) − P( H )
3/29/2012
可信度方法---CF模型 模型 可信度方法
当MB(H,E)>0,表示由于证据E的出现增加了对H的信 任程度。当MD(H,E)>0,表示由于证据E的出现增加了 对H的不信任程度。由于对同一个证据E,它不可能既增 加对H的信任程度又增加对H的不信任程度,因此, H H MB(H,E)与MD(H,E)是互斥的,即 当MB(H,E)>0时,MD(H,E)=0; 当MD(H,E)>0时,MB(H,E)=0。
(2)推理结论 值计算 )推理结论CF值计算
CF(H)=CF(H,E)·max{0,CF(E)} 其中E是与规则前提对应的各事实,CF(H,E)是规则中结论的可信度, 即规则强度。
人工智能-知识表示与推理
◆演绎推理、归纳推理和类比推理 ◆不确定性推理和不确切性推理 ◆约束推理、定性推理、范例推理、非单调推理
5.2 基于谓词逻辑的机器推理
基于谓词逻辑的机器推理也称自动推理。 它是人工智能早期的主要研究内容之一。一阶 谓词逻辑是一种表达力很强的形式语言,而且 这种语言很适合当前的数字计算机。因而就成 为知识表示的首选。基于这种语言,不仅可以 实现类似于人推理的自然演绎法自动推理,而 且也可实现不同于人的归结(或称消解)法自 动推理。本节主要介绍基于谓词逻辑归结演绎 推理。
例:
(1) 如果银行存款利率下调, 那么股票价格上 涨。
(2) 如果炉温超过上限, 则立即关闭风门。
(3) 如果键盘突然失灵, 且屏幕上出现怪字符, 则是病毒发作。
(4) 如果胶卷感光度为200, 光线条件为晴天, 目标距离不超过5米, 则快门速度取250, 光圈大 小取f16。
5.3.2 基于产生式规则的推理模式
可满足的。
证
(1)P∨﹁Q
(2)﹁P
(3)Q
(4)﹁Q
由(1),(2)
(5)□
由(3),(4)
例5.12 用归结原理证明R是 P,(P∧Q)→R,(S∨U)→Q,U
的逻辑结果。 证 由所给条件得到子句集 S={P,﹁ P∨﹁ Q∨R,﹁ S∨Q,﹁ U∨Q,U,﹁ R}
然后对该子句集施行归结,归结过程用下面的归结演绎 树表示(见图5―1)。由于最后推出了空子句,所以子 句集S不可满足,即命题公式
件, 若目标条件满足, 则推理成功, 结束。 步3 用规则库中各规则的前提匹配动态数据库中的事
实/数据, 将匹配成功的规则组成待用规则集。 步4 若待用规则集为空, 则运行失败, 退出。 步5 将待用规则集中各规则的结论加入动态数据库,
人工智能及其应用-不确定性推理方法-可信度方法
7
7
C-F模型
2. 证据不确定性的表示
静态强度CF(H,E):知识的强度,即当 E 所对应
的证据为真时对 H 的影响程度。 动态强度 CF(E):证据 E 当前的不确定性程度。
8
8
C-F模型
3. 组合证据不确定性的算法
组合证据:多个单一证据的合取
E=E1 AND E2 AND … AND En 则 CF (E)=min{CF (E1), CF (E2 ),..., CF (En )} 组合证据:多个单一证据的析取
0.28
15
CF (H , E):可信度因子(certainty factor),反映前提
条件与结论的联系强度 。
IF 头痛 AND 流涕 THEN 感冒 (0.7)
5 5
C-F模型
1. 知识不确定性的表示
CF(H,E)的取值范围: [-1,1]。 若由于相应证据的出现增加结论 H 为真的可信度, 则 CF(H,E)> 0,证据的出现越是支持 H 为真, 就使CF(H,E) 的值越大。 反之,CF(H,E)< 0,证据的出现越是支持 H 为 假,CF(H,E)的值就越小。 若证据的出现与否与 H 无关,则 CF(H,E)= 0。
不确定性推理方法
• 不确定性推理的基本概念 • 概率方法
可信度方法
• 证据理论 • 主观Bayes方法
1
1
可信度方法
• 1975年肖特里菲(E. H. Shortliffe)等人在 确定性理论(theory of confirmation)的基 础上,结合概率论等提出的一种不确定性 推理方法。
• 优点:直观、简单,且效果好。
H H
人工智能不确定性推理部分参考答案
不确定性推理部分参考答案1.设有如下一组推理规则:r1: IF E1THEN E2 (0.6)r2: IF E2AND E3THEN E4 (0.7)r3: IF E4THEN H (0.8)r4: IF E5THEN H (0.9)且已知CF(E1)=0.5, CF(E3)=0.6, CF(E5)=0.7。
求CF(H)=?解:(1) 先由r1求CF(E2)CF(E2)=0.6 × max{0,CF(E1)}=0.6 × max{0,0.5}=0.3(2) 再由r2求CF(E4)CF(E4)=0.7 × max{0, min{CF(E2 ), CF(E3 )}}=0.7 × max{0, min{0.3, 0.6}}=0.21(3) 再由r3求CF1(H)CF1(H)= 0.8 × max{0,CF(E4)}=0.8 × max{0, 0.21)}=0.168(4) 再由r4求CF2(H)CF2(H)= 0.9 ×max{0,CF(E5)}=0.9 ×max{0, 0.7)}=0.63(5) 最后对CF1(H )和CF2(H)进行合成,求出CF(H)CF(H)= CF1(H)+CF2(H)+ CF1(H) × CF2(H)=0.6922 设有如下推理规则r1: IF E1THEN (2, 0.00001) H1r2: IF E2THEN (100, 0.0001) H1r3: IF E3THEN (200, 0.001) H2r4: IF H1THEN (50, 0.1) H2且已知P(E1)= P(E2)= P(H3)=0.6, P(H1)=0.091, P(H2)=0.01, 又由用户告知:P(E1| S1)=0.84, P(E2|S2)=0.68, P(E3|S3)=0.36请用主观Bayes方法求P(H2|S1, S2, S3)=?解:(1) 由r1计算O(H1| S1)先把H1的先验概率更新为在E1下的后验概率P(H1| E1)P(H1| E1)=(LS1× P(H1)) / ((LS1-1) × P(H1)+1)=(2 × 0.091) / ((2 -1) × 0.091 +1)=0.16682由于P(E1|S1)=0.84 > P(E1),使用P(H | S)公式的后半部分,得到在当前观察S1下的后验概率P(H1| S1)和后验几率O(H1| S1)P(H1| S1) = P(H1) + ((P(H1| E1) – P(H1)) / (1 - P(E1))) × (P(E1| S1) – P(E1))= 0.091 + (0.16682 –0.091) / (1 – 0.6)) × (0.84 – 0.6)=0.091 + 0.18955 × 0.24 = 0.136492O(H1| S1) = P(H1| S1) / (1 - P(H1| S1))= 0.15807(2) 由r2计算O(H1| S2)先把H1的先验概率更新为在E2下的后验概率P(H1| E2)P(H1| E2)=(LS2×P(H1)) / ((LS2-1) × P(H1)+1)=(100 × 0.091) / ((100 -1) × 0.091 +1)=0.90918由于P(E2|S2)=0.68 > P(E2),使用P(H | S)公式的后半部分,得到在当前观察S2下的后验概率P(H1| S2)和后验几率O(H1| S2)P(H1| S2) = P(H1) + ((P(H1| E2) – P(H1)) / (1 - P(E2))) × (P(E2| S2) – P(E2))= 0.091 + (0.90918 –0.091) / (1 – 0.6)) × (0.68 – 0.6)=0.25464O(H1| S2) = P(H1| S2) / (1 - P(H1| S2))=0.34163(3) 计算O(H1| S1,S2)和P(H1| S1,S2)先将H1的先验概率转换为先验几率O(H1) = P(H1) / (1 - P(H1)) = 0.091/(1-0.091)=0.10011再根据合成公式计算H1的后验几率O(H1| S1,S2)= (O(H1| S1) / O(H1)) × (O(H1| S2) / O(H1)) × O(H1)= (0.15807 / 0.10011) × (0.34163) / 0.10011) × 0.10011= 0.53942再将该后验几率转换为后验概率P(H1| S1,S2) = O(H1| S1,S2) / (1+ O(H1| S1,S2))= 0.35040(4) 由r3计算O(H2| S3)先把H2的先验概率更新为在E3下的后验概率P(H2| E3)P(H2| E3)=(LS3× P(H2)) / ((LS3-1) × P(H2)+1)=(200 × 0.01) / ((200 -1) × 0.01 +1)=0.09569由于P(E3|S3)=0.36 < P(E3),使用P(H | S)公式的前半部分,得到在当前观察S3下的后验概率P(H2| S3)和后验几率O(H2| S3)P(H2| S3) = P(H2 | ¬ E3) + (P(H2) – P(H2| ¬E3)) / P(E3)) × P(E3| S3)由当E3肯定不存在时有P(H2 | ¬ E3) = LN3× P(H2) / ((LN3-1) × P(H2) +1)= 0.001 × 0.01 / ((0.001 - 1) × 0.01 + 1)= 0.00001因此有P(H2| S3) = P(H2 | ¬ E3) + (P(H2) – P(H2| ¬E3)) / P(E3)) × P(E3| S3)=0.00001+((0.01-0.00001) / 0.6) × 0.36=0.00600O(H2| S3) = P(H2| S3) / (1 - P(H2| S3))=0.00604(5) 由r4计算O(H2| H1)先把H2的先验概率更新为在H1下的后验概率P(H2| H1)P(H2| H1)=(LS4× P(H2)) / ((LS4-1) × P(H2)+1)=(50 × 0.01) / ((50 -1) × 0.01 +1)=0.33557由于P(H1| S1,S2)=0.35040 > P(H1),使用P(H | S)公式的后半部分,得到在当前观察S1,S2下H2的后验概率P(H2| S1,S2)和后验几率O(H2| S1,S2)P(H2| S1,S2) = P(H2) + ((P(H2| H1) – P(H2)) / (1 - P(H1))) × (P(H1| S1,S2) – P(H1))= 0.01 + (0.33557 –0.01) / (1 – 0.091)) × (0.35040 – 0.091)=0.10291O(H2| S1,S2) = P(H2| S1, S2) / (1 - P(H2| S1, S2))=0.10291/ (1 - 0.10291) = 0.11472(6) 计算O(H2| S1,S2,S3)和P(H2| S1,S2,S3)先将H2的先验概率转换为先验几率O(H2) = P(H2) / (1 - P(H2) )= 0.01 / (1-0.01)=0.01010再根据合成公式计算H1的后验几率O(H2| S1,S2,S3)= (O(H2| S1,S2) / O(H2)) × (O(H2| S3) / O(H2)) ×O(H2)= (0.11472 / 0.01010) × (0.00604) / 0.01010) × 0.01010=0.06832再将该后验几率转换为后验概率P(H2| S1,S2,S3) = O(H1| S1,S2,S3) / (1+ O(H1| S1,S2,S3))= 0.06832 / (1+ 0.06832) = 0.06395可见,H2原来的概率是0.01,经过上述推理后得到的后验概率是0.06395,它相当于先验概率的6倍多。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
• 以上三条基本规定是符合常识的。
例如 设一个随机实验两个可能,记为ω0,ω1,则所有 可能的事件只有4个:Ω={ω0,ω1},{ω0},{ω1}, 空集φ
概率的性质
• 定义:设{An, n=1, 2, …}为一组有限或可列无穷多个事 件,两两不相交,且 A ,则称事件族{An, n=1, 2, …}为样本空间Ω的一个完备事件族 • 又若对任意事件B有BAn=An或φ, n=1, 2, …,则称{An, n=1, 2, …}为基本事件族
例如
将一枚硬币连掷两次,观察硬币落地后是花面 向上还是字面向上。 这是一个随机实验,用H记花面向上,W记字面 向上,则共有4个可能出现的结果: 样本点ω1=HH ω2=HW ω3=WH ω4=WW 样本空间Ω={ω1ω2ω3ω4}
分析
事件
A=“花面字面各出现一次”={ω2,ω3}
B=“第一次出现花面”={ω1,ω2} C=“至少出现一次花面”={ω1,ω2,ω3} D=“至多出现一次花面”={ω2,ω3,ω4}
m n
n是进行试验的总次数,m是试验中事件A发生的次数。
事件A的统计概率 如果事件A出现的频率fn(A) 总是在区间[0,1]上的一 个确定常数p附近摆动,并且稳定于p,则称p为事 件A的统计概率。
统计概率的性质
• 对任意事件A,有0≤P(A) ≤1 • 必然事件Ω的概率P(Ω)=1,不可能事件φ的概率P(φ) =0 • 对任意事件A,有P(~A)=1-P(A) • 设事件A1,A2,…An(k≤n)是两两互不相容的事件, Ai Aj (i j ) 即有, ,则
• 全 概 率 公 式 : 设 A1 , A2 , …An 互 不 相 交, A ,且P(Ai)>0,i=1,2,…,n,则对于任意 事件A有P(A)=∑iP(Ai)P(A|Ai)
i i
全概率例子
• 某商场出售的灯泡来自甲、乙、丙三个工 厂,甲厂产品占80%,合格率为90%,乙 厂产品占10%,合格率为95%,丙厂产品 占10%,合格率为80%。某顾客购买了一 灯泡,求它是合格品的概率。
结论不确定性的合成: 用不同的知识进行推理得相同结论,但可信度度量不同, 如P1(A)和P2(A),如何计算最终的P(A)
组合证据的不确定性算法: 已知证据A1和A2的可信度度量P(A1)、P(A2),求证据析取和 合取的可信度度量P(A1∧A2)和P(A1∨A2) 初始命题的不确定性度量一般由领域内的专家从经验得出。
n n
• 完备事件族与基本事件族有如下的性质: 定理:若{An, n=1, 2, …}为一完备事件族,则 P( An ) 1 n 且对于一事件B有 P( B) P( An B)
n
• 又若{An, n=1, 2, …}为一基本事件族,则 P( B)
An Bຫໍສະໝຸດ P( A )n事件A出现的概率 描述为:fn(A )
表示问题 指用什么方法描述不确定性,这是解决不确定性推 理关键的一步。 通常有数值表示和非数值的语义表示方法。 知识的不确定性表示(A→B):P(B,A) 证据的不确定性表示(A):P(A)
计算问题
指不确定性的传播和更新,即获得新的信息的过程。
不确定性的传递问题: 已知规则A→B,P(A)和P(B,A),如何计算结论P(B)
5.1.1 不确定性
不确定性的性质 随机性;模糊性;不完全性;时变性
不确定性推理方法产生的原因 很多原因导致同一结果;推理所需信息不完备;背景知识不 足;信息描述模糊;信息中含有噪声;推理能力不足;解题 方案不唯一等。
不确定性的存在 不确定推理中,规则前件(证据)、后件(结论)以及规则 本身在某种程度上都是不确定的。
联合概率
• 可按条件概率链表达一个联合概率
P(ABCD ) P(A | BCD )P(B | CD )P(C | D )P(D )
• 其一般规则形式为:
P(A1 A2 ... n ) A
P(Ai | Ai i
1
n
A 1Ai 2 ...1 )
事件的独立性
• 设A,B为两个事件,满足P(AB)=P(A)P(B), 则称事件A与事件B是相互独立的,简称A 与B独立。 • 事件独立的性质
事件间的关系
两个事件A与B可能有以下几种特殊关系 包含:若事件B发生则事件A也发生,称“A包含B”, 或“B含于A”,记作A⊃B或B⊂A 等价:若A⊃B且B⊂A,即A与B同时发生或同时不发 生,则称A与B等价,记作A=B 互斥:若A与B不能同时发生,则称A与B互斥,记作 AB=φ 对立:若A与B互斥,且必有一个发生,则称A与B对 立,记作A=~B或B=~A,又称A为B的余事件,或B为 A的余事件 任意两个事件不一定会是上述几种关系中的一种。
语义问题 指如何解释上述表示和计算的含义。 对于规则P(B,A):A(T)→B(T),P(B,A)=? A(T)→B(F),P(B,A)=? B独立于A, P(B,A)=? 对于证据P(A):A为T,P(A)=? A为F,P(A)=?
5.1.3 不确定性推理方法的分类
在推理一级上扩展确定性推理,其特点是把不确定的 证据和不确定的知识分别与某种度量标准对应起来, 并且给出更新结论不确定性的算法。 逻辑法:多值逻辑、非单调逻辑 新计算法:证据理论、确定性方法、模糊方法 新概率法:主观Bayes方法、Bayes网络方法 在控制策略一级处理不确定性,其特点是通过识别领 非形式化 域中引起不确定性的某些特征及相应的控制策略来限 制或减少不确定性对系统产生的影响。分为工程法、 控制法、并行确定性法
规则
推理
由于知识不确定性的动态积累和传播过程所造成的。 推理过程要通过某种不确定的度量,寻找尽可能符合客观世 界的计算,最终得到结论的不确定性度量。
5.1.2 不确定性推理的基本问题
基于规则的专家系统中,不确定性表现 在证据、规则和推理3个方面,需要对专家系 统中的事实(证据)和知识(规则)给出不 确定性描述,并在此基础上建立不确定性的 传递计算方法。 因此,要实现对不确定性知识的处理, 必须解决不确定知识的表示问题,不确定信 息的计算问题,以及不确定表示和计算的语 义解释问题。
P( Ai ) P( A1 ) P( A2 ) ... P( Ak )
i 1 k
• 设A,B是两事件,则 P(A∪B)=P(A)+P(B)-P(A∩B)
条件概率
事件B的条件概率 设B与A是某个随机实验中的两个事件,如果在事件 A发生的条件下,考虑事件B发生的概率,就称它为 事件B的条件概率。 • 定义:设A,B为事件且P(A)>0,称
内容简介
5.1 概述
5.2 概率论基础
5.3 贝叶斯网络 5.4 主观贝叶斯方法
5.5 确定性方法 5.6 证据理论(D-S theory)
5.1 概述
人类的知识和思维行为中,确定性只是相对的,不确定性 才是绝对的。 智能主要反映在求解不确定性问题的能力上。 推理是人类的思维过程,是从已知实事出发,通过运用相 关的知识逐步推出某个结论的过程。 不确定性推理是指建立在不确定性知识和证据的基础上的 推理,是从不确定性的初始证据出发,通过运用不确定性 的知识,最终推出具有一定程度的不确定性但却是合理或 者近乎合理的结论的推理过程。
形式化
内容简介
5.1 概述
5.2 概率论基础
5.3 贝叶斯网络 5.4 主观贝叶斯方法
5.5 确定性方法 5.6 证据理论(D-S theory)
5.2.1 随机事件
随机实验的定义
一个可观察结果的人工或自然的过程,其产生的结果可能不 止一个,且不能事先确定会产生什么结果。
样本空间的定义 一个随机实验的全部可能出现的结果的集合,通常记作Ω, Ω 中的点称为样本点,通常记作ω。 随机事件的定义 一个随机实验的一些可能结果的集合,是样本控件的一个子 集,常用大写字母A,B,C,…表示。简称为事件。 事件常用一句话描述,当实验结果属于某事件所对应的子集 时,称该事件发生。
证据的不确定性、规则的不确定性、推理的不确定性
5.1.1 不确定性
证据
证据是智能系统的基本信息,是推理的依据。 歧义性、不完全性、不精确性、模糊性、可信性、随机性、 不一致性 通常来源于专家处理问题的经验,存在着不确定性因素。 证据组合、规则自身、规则结论 规则之间的冲突影响、不确定的参数、优先策略
条件概率的性质
• 0≤P(B|A) ≤1 • P(Ω|A)=1,P(φ|A)=0
• 若B1B2=φ,则 P(Bi+Bj|A)=P(Bi|A)+P(Bj|A) • 乘法公式:P(AB)=P(A)P(B|A)
P( A1 A2 ...An ) P( A1 )P( A2 | A1 )P( A3 | A1 A2 )...P( An | A1 A2 ...An1 )
不确定性推理方法
非经典逻辑和非经典推理与 经典逻辑和经典推理的区别
• 推理方法上,经典逻辑采用演绎逻辑推理,非经 典逻辑采用归纳逻辑推理。 • 辖域取值上,经典逻辑都是二值逻辑,而非经典 逻辑都是多值逻辑。 • 运算法则上,非经典逻辑背弃了经典逻辑的一些 重要特性。 • 逻辑算符上,非经典逻辑具有更多的逻辑算法。 • 经典逻辑是单调的,引用非单调逻辑进行非单调 推理是非经典逻辑与经典逻辑的又一重要区别。
– 若P(A)=0或1,则A与任一事件独立 – 若A与B独立,且P(B)>0,则P(A|B)=P(A) – 若A与B独立,则A与~B,~A与B,~A与~B都 是相互独立的事件对
N个事件相互独立性
• 设A1,A2,…An为n个事件,满足下述条件:
– P(Ai Aj ) P(Ai )P(Aj ) 1 ≤ i < j ≤ n, – P(Ai Aj Ak ) P(Ai )P(Aj )P(Ak ) 1 ≤ i < j < k ≤ n, …… A P – P(Ai Aj ...n ) P(Ai )P(Aj )...(An ) 则称事件A1,A2,…An相互独立