湘潭大学 人智能课件 非经典推理 part 2
合集下载
《人工智能》教材第4章 自动推理
(H
)。
4.1 确定性推理
2.归结演绎推理 例4.5 写出下列子句集的Herbrand域。 S {P(x) Q( f (x)), R(x)} S {P( f (x)) Q(a), Q(g(x)) R(b)}
解:
第四章 自动推理
4.1 确定性推理
2.归结演绎推理
解:
第四章 自动推理
4.1 确定性推理
4.1 确定性推理
2.归结演绎推理 定义1 不含任何连接词的谓词公式称为原子谓词公式。
第四章 自动推理
定义2 原子谓词公式及其否定统称为文字。
定义3 任何文字的析取式称为子句。
定义4 不包含任何文字的子句称为空子句。
定义5 由子句或空子句构成的集合称为子句集。
定义6 设S 是子句集,定义在个体域D 上,按照下面步骤可得到S 的Herbrand域
根据归结原理,存在最一般合一
={
a x
}
使得,得到
C1
和
C2
的归结式
RL (C1, C2 ) (C1 {2( Q(x) )}) (C2 {6Q(a)}) =(1 P(a) 2 Q(a) 3T (a, y) {2 Q(a)}) ( 5 P(x) 6Q(a) {6Q(a)}) ={1P(a), 3T (a, y)} =1P(a) 3T (a, y)
求证:M 为真。
第四章 自动推理
证明:
所以,M 为真。
4.1 确定性推理
2.归结演绎推理
第四章 自动推理
归结自动推理是经典逻辑中自动推理的重要方法之一。自1965年Robinson创 立归结原理以来,基于归结的自动推理已得到广泛研究,并应用于人工智能、逻辑 编程、专家系统、定理证明等智能信息处理领域。
湘潭大学 人工智能课件 模糊系统 Part1
R V×W
R 记为:V W
对于V×W中的元素(v,w),若(v,w)∈R,则称v与w有 关系R;
若(v,w) R,则称v与w没有关系R。
模糊关系的定义
例子: V×W上的关系
设:V={1班,2班,3班},W={男队,女队} 则V×W中有6个元素,即 V×W = { (1班,男队),(2班,男队),(3班,男队), (1班,女队),(2班,女队),(3班,女队) } 其中,每个元素是一代表队。 假设要进行一种双方对垒的循环赛,则每一个赛局 都是V×W中的一个子集,它构成了V×W上的一 个关系。
A = {0, 0, 0.1, 0.6, 1} B = {1, 0.5, 0.01, 0, 0}
其中:
μA(1)=0, μA(2)=0 , μA(3)=0.1 , μA(4)=0.6 , μA(5)=1 μB(1)=1, μB(2)=0.5 , μB(3)=0.01 , μB(4)=0, μB(5)=0
求A∩B, A∪B和¬ A
A∩B = (0.3∧0.6)/u1+(0.8∧0.4)/u2+(0.6∧0.7)/u3 = 0.3/u1+0.4/u2+0.6/u3
A∪B = (0.3∨0.6)/u1+(0.8∨0.4)/u2+(0.6∨0.7)/u3
= 0.6/u1+0.8/u2+0.7/u3 ¬ A = (1-0.3)/u1+(1-0.8)/u2+(1-0.6)/u3 = 0.7/u1+0.2/u2+0.4/u3
模糊集合上的运算定律
幂等律
交换律 结合律
A A A, A A A
A B B A, A B B A
R 记为:V W
对于V×W中的元素(v,w),若(v,w)∈R,则称v与w有 关系R;
若(v,w) R,则称v与w没有关系R。
模糊关系的定义
例子: V×W上的关系
设:V={1班,2班,3班},W={男队,女队} 则V×W中有6个元素,即 V×W = { (1班,男队),(2班,男队),(3班,男队), (1班,女队),(2班,女队),(3班,女队) } 其中,每个元素是一代表队。 假设要进行一种双方对垒的循环赛,则每一个赛局 都是V×W中的一个子集,它构成了V×W上的一 个关系。
A = {0, 0, 0.1, 0.6, 1} B = {1, 0.5, 0.01, 0, 0}
其中:
μA(1)=0, μA(2)=0 , μA(3)=0.1 , μA(4)=0.6 , μA(5)=1 μB(1)=1, μB(2)=0.5 , μB(3)=0.01 , μB(4)=0, μB(5)=0
求A∩B, A∪B和¬ A
A∩B = (0.3∧0.6)/u1+(0.8∧0.4)/u2+(0.6∧0.7)/u3 = 0.3/u1+0.4/u2+0.6/u3
A∪B = (0.3∨0.6)/u1+(0.8∨0.4)/u2+(0.6∨0.7)/u3
= 0.6/u1+0.8/u2+0.7/u3 ¬ A = (1-0.3)/u1+(1-0.8)/u2+(1-0.6)/u3 = 0.7/u1+0.2/u2+0.4/u3
模糊集合上的运算定律
幂等律
交换律 结合律
A A A, A A A
A B B A, A B B A
最新人工智能原理第2章搜索技术下ppt课件
第2章 搜索技术
爬山法搜索的局限
• 爬山法是一种局部贪婪搜索,不是最优解 算法(或是不完备的) / 其问题是:
• 局部极大值—比其邻居状态都高的顶峰,但是 小于全局最大值(参照状态空间地形图)
• 山脊—一系列的局部极大值 • 高原—评价函数平坦的一块区域(或者山肩)
11
第2章 搜索技术
爬山法搜索的变形
• 爬山法的变形
• 随机爬山法—随机选择下一步 • 首选爬山法—随机选择直到有优于当前节点的
下一步 • 随机重新开始爬山法—随机生成初始状态,进
行一系列爬山法搜索—这时算法是完备的概率 接近1
12
第2章 搜索技术
2.4.3 模拟退火搜索
• 将爬山法(停留在局部山峰)和随机行走 以某种方式结合,以同时获得完备性和 效率
• 爬山法搜索
• 模拟退火搜索
• 局部剪枝搜索
• 遗传算法
• 从搜索的角度看遗传算法也是搜索假设空间 的一种方法(学习问题归结为搜索问题)—生 成后继假设的方式
9
第2章 搜索技术
2.4.2 爬山法搜索
• 爬山法(hill-climbing)—就是向值增加的方向持 续移动—登高过程 / 如果相邻状态中没有比它 更高的值,则算法结束于顶峰
• 模拟退火的思想
• 想象在不平的表面上如何使一个乒乓球掉到 最深的裂缝中—如果只让其在表面滚动,则 它只会停留在局部极小点 / 如果晃动平面, 可以使乒乓球弹出局部极小点 / 技巧是晃 动足够大使乒乓球弹出局部极小点,但又不 能太大把它从全局极小点中赶出
13
第5章 搜索技术
模拟退火的解决思路(1)
找到全局最优解的概率接近1
15
第2章 搜索技术
湘潭大学 人工智能课件 确定性推理 part2
传送时,总是选择其中代价最小的节点。也就是说, OPEN表中的节点在任一时刻都是按其代价从小到大排 序的。代价小的节点排在前面,代价大的节点排在后 面,而不管节点在代价树中处于什么位置上。 如果问题有解,代价树的广度优先搜索一定可以求得 解,并且求出的是最优解。
该算法应用的条件:该算法是针对代价树的算法。
为了采用该算法对图进行搜索,必须先将图转换为代 价树。
代价树的广度优先搜索
代价树的广度优先搜索算法流程:
• • • • (1) 把初始节点S放入OPEN表中,置S的代价g(S)=0; (2) 如果OPEN表为空,则问题无解 ,失败退出; (3) 把OPEN表的第一个节点取出放入CLOSED表,并记该节 点为n; (4) 考察节点n是否为目标。若是,则找到了问题的解,成功 退出; (5) 若节点n不可扩展,则转第(2)步;否则转第(6)步; (6)扩展节点n,为每一个子节点都配置指向父节点的指针, 计算各子节点的代价,并将各子节点放入OPEN表中。并根 据各子结点的代价对OPEN表中的全部结点按由小到大的顺 序排序。然后转第(2)步。
Artificial Intelligence (AI)
人工智能
第二章:知识 表示与推理
内容提要
第二章:知识表示与推理
二、确定性推理
1.推理的基本概念
2.搜索策略 3.自然演绎推理 4.消解演绎推理 5.基于规则的演绎推理
搜索策略
搜索策略
搜索的基本概念 状态空间的搜索策略 与/或树的搜索策略 搜索的完备性与效率
有界深度优先搜索
八数码难题:dm=4
有界深度优先搜索
有界深度优先搜索:
问题:如果问题有解,且其路径长度≤ dm ,则 上述搜索过程一定能求得解。但是,若解的路 径长度> dm,则上述搜索过程就得不到解。这说 明在有界深度优先搜索中,深度界限的选择是 很重要的。 要恰当地给出 dm的值是比较困难的。即使能求 出解,它也不一定是最优解。
该算法应用的条件:该算法是针对代价树的算法。
为了采用该算法对图进行搜索,必须先将图转换为代 价树。
代价树的广度优先搜索
代价树的广度优先搜索算法流程:
• • • • (1) 把初始节点S放入OPEN表中,置S的代价g(S)=0; (2) 如果OPEN表为空,则问题无解 ,失败退出; (3) 把OPEN表的第一个节点取出放入CLOSED表,并记该节 点为n; (4) 考察节点n是否为目标。若是,则找到了问题的解,成功 退出; (5) 若节点n不可扩展,则转第(2)步;否则转第(6)步; (6)扩展节点n,为每一个子节点都配置指向父节点的指针, 计算各子节点的代价,并将各子节点放入OPEN表中。并根 据各子结点的代价对OPEN表中的全部结点按由小到大的顺 序排序。然后转第(2)步。
Artificial Intelligence (AI)
人工智能
第二章:知识 表示与推理
内容提要
第二章:知识表示与推理
二、确定性推理
1.推理的基本概念
2.搜索策略 3.自然演绎推理 4.消解演绎推理 5.基于规则的演绎推理
搜索策略
搜索策略
搜索的基本概念 状态空间的搜索策略 与/或树的搜索策略 搜索的完备性与效率
有界深度优先搜索
八数码难题:dm=4
有界深度优先搜索
有界深度优先搜索:
问题:如果问题有解,且其路径长度≤ dm ,则 上述搜索过程一定能求得解。但是,若解的路 径长度> dm,则上述搜索过程就得不到解。这说 明在有界深度优先搜索中,深度界限的选择是 很重要的。 要恰当地给出 dm的值是比较困难的。即使能求 出解,它也不一定是最优解。
人工智能不确定性推理精品PPT课件
小王是个高
4
自然界中的不确定现象
随机 模糊 混沌 分形 复杂网络
5
随机性和模糊性是不确定性的基本内涵
✓随机性(偶然性)和随机数学
❖以贝叶斯公式为基础的贝叶斯理论,在人工智能中一直
是处理不确定性的重要工具
❖带可信度的不确定推理
❖证据理论
10
4.1 不确定性推理基本理论
●为什么要研究不确定性推理? 现实世界的问题求解大部分是不良结构; 对不良结构的知识描述具有不确定性: 1) 问题证据(初始事实,中间结论)的不确定性; 2) 专门知识(规则)的不确定性.
11
什么是不确定性推理
不确定性推理是指从不确定性的初 始证据出发,通过运用不确定性 的知识,最终推理出具有一定程 度的不确定性,但又是合理或者 似乎合理的结论的思维过程。
9
思维的不确定性
思维有精确的一面,更有不 确定的一面。 人类习惯于用自然语言进行思维,思维的结果 往往是可能如何、大概如何等定性的结论。
人类还擅长通过联想的、直觉的、创造的 形象思维来思考,很少象计算机一样做精确的 数学运算或者逻辑推理,但是这并不妨碍人类 具有发达的、灵活的智能,并不妨碍人类具有 发达的、灵活的模式识别能力。
12
不确定性推理中的基本问题
在不确定性推理中,知识和证据都具有某种程度 的不确定性,这就为推理机的设计与实现增加了 复杂性和难度。除了要解决推理方向、推理方 法、控制策略等基本问题外,还需要解决以下 问题 : ● 不确定性的表示和量度 ● 不确定性匹配 ● 不确定性的传递算法 ● 不确定性的合成
13
◆不确定性推理与通常的确定性推理的差别:
(1) 不确定性推理中规则的前件能否与证据事实匹配成功, 不但要求两者的符号模式能够匹配(合一),而且要求证据事 实所含的信度必须达“标”,即必须达到一定的限度。这个限 度一般称为“阈值”。
4
自然界中的不确定现象
随机 模糊 混沌 分形 复杂网络
5
随机性和模糊性是不确定性的基本内涵
✓随机性(偶然性)和随机数学
❖以贝叶斯公式为基础的贝叶斯理论,在人工智能中一直
是处理不确定性的重要工具
❖带可信度的不确定推理
❖证据理论
10
4.1 不确定性推理基本理论
●为什么要研究不确定性推理? 现实世界的问题求解大部分是不良结构; 对不良结构的知识描述具有不确定性: 1) 问题证据(初始事实,中间结论)的不确定性; 2) 专门知识(规则)的不确定性.
11
什么是不确定性推理
不确定性推理是指从不确定性的初 始证据出发,通过运用不确定性 的知识,最终推理出具有一定程 度的不确定性,但又是合理或者 似乎合理的结论的思维过程。
9
思维的不确定性
思维有精确的一面,更有不 确定的一面。 人类习惯于用自然语言进行思维,思维的结果 往往是可能如何、大概如何等定性的结论。
人类还擅长通过联想的、直觉的、创造的 形象思维来思考,很少象计算机一样做精确的 数学运算或者逻辑推理,但是这并不妨碍人类 具有发达的、灵活的智能,并不妨碍人类具有 发达的、灵活的模式识别能力。
12
不确定性推理中的基本问题
在不确定性推理中,知识和证据都具有某种程度 的不确定性,这就为推理机的设计与实现增加了 复杂性和难度。除了要解决推理方向、推理方 法、控制策略等基本问题外,还需要解决以下 问题 : ● 不确定性的表示和量度 ● 不确定性匹配 ● 不确定性的传递算法 ● 不确定性的合成
13
◆不确定性推理与通常的确定性推理的差别:
(1) 不确定性推理中规则的前件能否与证据事实匹配成功, 不但要求两者的符号模式能够匹配(合一),而且要求证据事 实所含的信度必须达“标”,即必须达到一定的限度。这个限 度一般称为“阈值”。
湘潭大学 人工智能课件 模糊系统 Part2
模糊标记隶属度01模糊标记隶属度温度64c湿度22模糊计算的流程模糊计算的过程由于温度对低的隶属度为0而湿度对大的隶属度为0故控制规则表内条件包含低温度和大湿度的规则不被激活
Artificial Intelligence (AI)
人工智能
第五章:模糊 逻辑系统
内容提要
第五章:模糊逻辑系统
1. 模糊逻辑原理 2. 模糊集 3. 模糊关系 4. 模糊变换
0 0.4 0.6 1 0 0.5 0.5 0.5 0.5 0.5 Rm 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
Rm
U V
( A (u ) B (v)) (1 A (u )) /(u, v)
5. 模糊推理
6. 模糊计算的流程
模糊变换
模糊变换
设A={μA(u1),μA(u2),…,μA(un)}是论域U上的模糊集,R 是U×V上的模糊关系,则
A°R = B
称为模糊变换。 例如:设A={0.2,0.5,0.3}
0.2 0.7 0.1 0 R 0 0.4 0.5 0.1 0.2 0.3 0.4 0.1
内容提要
第五章:模糊逻辑系统
1. 模糊逻辑原理 2. 模糊集 3. 模糊关系 4. 模糊变换
5. 模糊推理
6. 模糊计算的流程
模糊计算的流程
模糊计算
生活中经常能遇到这样的情况:要根据几个变量的输 入,以及一组自然语言表述的经验规则,来决定输出。 这就是一个模糊计算的过程。 如在灌溉问题中,要根据温度、湿度等变量决定灌溉 时间的多少。这个决定灌溉量的过程,需要依据一些 从以往的灌溉中得到的经验。这些经验往往来自领域 内专家,并且以规则的形式表述,例如:当温度高而 且湿度小的时候,灌溉时间为长。 模糊规则库、模糊化、推理方法和去模糊化
Artificial Intelligence (AI)
人工智能
第五章:模糊 逻辑系统
内容提要
第五章:模糊逻辑系统
1. 模糊逻辑原理 2. 模糊集 3. 模糊关系 4. 模糊变换
0 0.4 0.6 1 0 0.5 0.5 0.5 0.5 0.5 Rm 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
Rm
U V
( A (u ) B (v)) (1 A (u )) /(u, v)
5. 模糊推理
6. 模糊计算的流程
模糊变换
模糊变换
设A={μA(u1),μA(u2),…,μA(un)}是论域U上的模糊集,R 是U×V上的模糊关系,则
A°R = B
称为模糊变换。 例如:设A={0.2,0.5,0.3}
0.2 0.7 0.1 0 R 0 0.4 0.5 0.1 0.2 0.3 0.4 0.1
内容提要
第五章:模糊逻辑系统
1. 模糊逻辑原理 2. 模糊集 3. 模糊关系 4. 模糊变换
5. 模糊推理
6. 模糊计算的流程
模糊计算的流程
模糊计算
生活中经常能遇到这样的情况:要根据几个变量的输 入,以及一组自然语言表述的经验规则,来决定输出。 这就是一个模糊计算的过程。 如在灌溉问题中,要根据温度、湿度等变量决定灌溉 时间的多少。这个决定灌溉量的过程,需要依据一些 从以往的灌溉中得到的经验。这些经验往往来自领域 内专家,并且以规则的形式表述,例如:当温度高而 且湿度小的时候,灌溉时间为长。 模糊规则库、模糊化、推理方法和去模糊化
湘潭大学 人工智能课件 确定性推理 part5
原子谓词公式及其否定统称为文字。
例如: P(x)、Q(x)、﹁ P(x)、 ﹁ Q(x)等都是文字。
任何文字的析取式称为子句。
例如,P(x)∨Q(x),P(x,f(x))∨Q(x,g(x))都是子 句。
子句集及其化简
子句和子句集 不含任何文字的子句称为空子句。
由于空子句不含有任何文字,也就不能被任何解释 所满足,因此空子句是永假的,不可满足的。 空子句一般被记为NIL。
例如:
(1)如果下雨,则地上会湿 (2)没有下雨 (3)所有,地上不湿 事实上,如果向地上洒水,地上也是会湿的。这就 是使用了否定前件的推理,违反了经典逻辑的逻辑 规则。
自然演绎推理
自然演绎推理的例子
设已知如下事实:A, B, A→C, B∧C→D, D→Q 求证:Q为真。 证明:
子句集及其化简
Step 9:消去合取词,就得到子句集。 例如:消去合取词后,上式 (﹁P(x , f(x))∨Q(x , g(x)) ∧(﹁P(y , f(y))∨﹁R(y , g(y))) 就变为下述子句集
﹁P(x , f(x))∨Q(x , g(x)) ﹁P(y , f(y))∨﹁R(y , g(y))
由子句或空子句所构成的集合称为子句集。
在子句集中,子句之间是合取关系 子句集中的变元受全称量词的约束 任何谓词公式都可通过等价关系及推理规则化为相 应的子句集
子句集及其化简
把谓词公式化成子句集的步骤
Step 1: 利用等价关系消去“→”和“↔” 反复使用如下等价公式:
– P→Q ⇔﹁ P∨Q – P↔Q ⇔ (P∧Q)∨(﹁P∧﹁Q)
空子句是不可满足的。因此,一个子句集中如果包含有 空子句,则此子句集就一定是不可满足的。
例如: P(x)、Q(x)、﹁ P(x)、 ﹁ Q(x)等都是文字。
任何文字的析取式称为子句。
例如,P(x)∨Q(x),P(x,f(x))∨Q(x,g(x))都是子 句。
子句集及其化简
子句和子句集 不含任何文字的子句称为空子句。
由于空子句不含有任何文字,也就不能被任何解释 所满足,因此空子句是永假的,不可满足的。 空子句一般被记为NIL。
例如:
(1)如果下雨,则地上会湿 (2)没有下雨 (3)所有,地上不湿 事实上,如果向地上洒水,地上也是会湿的。这就 是使用了否定前件的推理,违反了经典逻辑的逻辑 规则。
自然演绎推理
自然演绎推理的例子
设已知如下事实:A, B, A→C, B∧C→D, D→Q 求证:Q为真。 证明:
子句集及其化简
Step 9:消去合取词,就得到子句集。 例如:消去合取词后,上式 (﹁P(x , f(x))∨Q(x , g(x)) ∧(﹁P(y , f(y))∨﹁R(y , g(y))) 就变为下述子句集
﹁P(x , f(x))∨Q(x , g(x)) ﹁P(y , f(y))∨﹁R(y , g(y))
由子句或空子句所构成的集合称为子句集。
在子句集中,子句之间是合取关系 子句集中的变元受全称量词的约束 任何谓词公式都可通过等价关系及推理规则化为相 应的子句集
子句集及其化简
把谓词公式化成子句集的步骤
Step 1: 利用等价关系消去“→”和“↔” 反复使用如下等价公式:
– P→Q ⇔﹁ P∨Q – P↔Q ⇔ (P∧Q)∨(﹁P∧﹁Q)
空子句是不可满足的。因此,一个子句集中如果包含有 空子句,则此子句集就一定是不可满足的。
人工智能 第3章 推理技术2课题PPT课件
2020/11/12
《人工智能》
10
(1)证据肯定存在
P(E|S)=1,证据E肯定存。此时需要计算P(H|E)。
由Bayes公式得:
P(H|E)=P(E|H)×P(H)/P(E)
(1)
P(¬H|E)=P(E|¬H)×P(¬H)/P(E)
(2)
(1)式除以(2)式得:
P(H|E)/P(¬H|E)=P(E|H)/P(E|¬H)×P(H)/P(¬H) 由LS和几率函数的定义得:
可信度的概念
根据经验对一个事物和现象为真的相信程度称为可信度。
可信度带有较大的主观性和经验性,其准确性难以把握。 但人工智能面向的多是结构不良的复杂问题,难以给出精 确的数学模型,先验概率及条件概率的确定又比较困难。 所以可信度方法是一种比较实用的方法。
2020/11/12
《人工智能》
19
1. 知识不确定性的表示 在该模型中,知识是用产生式规则表示的,其一
给定C(E|S)后,P(E|S)计算如下:
P (E|S) C P ((E E )| S()C 5 (P E (|E S )) (5 5)C (E|S))若 若 0 5C (C E (|E S|)S )5 0
5
2020/、组合证据不确定性的算法
可以采用最大最小法。 当组合证据是多个单一证据的合取时,即
(1)不确定性的表示与度量 (2)不确定性匹配算法 (3)组合证据不确定性的算法 (4)不确定性的传递算法 (5)结论不确定性的合成
2020/11/12
《人工智能》
3
3.4 基于概率的推理
经典概率方法
设有如下产生式规则: IF E THEN H
其中,E为前提条件,H为结论。后验概率P(H|E)可以作为在证 据E出现时结论H的确定性程度(可信度)。为了计算后验概率 P(H|E),需要知道条件概率P(E|H),及先验概率P(H),P(E)。
人工智能之不确定知识表示及推理(PPT 92页)
O(H) P(H) P(H) 1P(H) P(H)
O (H|E)P(H|E) P(H|E) 1P(H|E) P( H|E)
P(H|E)P(E|H)P(H) P(H|E)P(E|H)P(H)
P(E)
P(E)
P(H|E) P(E|H)P(H) P( H|E) P(E| H)P( H)
O(H|E) P(E|H) O(H)
P(E|H)
16.10.2019
25
LS P(E| H) P(E| H)
O(H | E)=LSO(H)
同理可得: O (H| E)P( E|H)O (H) P( E| H)
LN P(E| H) P(E| H)
O(H | E)=LNO(H)
量度的确定应当是直观的,同时应有相应的理论依据。
16.10.2019
7
二、不确定性的匹配算法
设计一个数用来计算匹配双方相似的程度,另外再指定一个相 似的限度(称为阈值) ,用来衡量匹配双方相似的程度是否落在 指定的限度内。
如果落在指定的限度内,就称它们是可匹配的,相应的知识可 被应用。
否则就称它们是不可匹配的,相应的知识不可应用。
R2 f2
OR
AND
16.10.2019
A1
A2
A3
A4
11
①由证据A1和A2的不确定性C(A1)和C(A2) 根据算法4求出A1和A2析取的不确定性C(A1 A2)。
②由A1和A2析取的不确定性C(A1 A2)和规则R1的规则强度f1 根据算法1求出A5的不确定性C(A5)。
③由证据A3和A4的不确定性C(A3)和C(A4) 根据算法3求出A3和A4合取的不确定性C(A3 A4)。
23
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
1. 知识不确定性的表示 2. 证据不确定性的表示 3. 组合证据不确定性的计算 4. 不确定性的更新 5. 主观贝叶斯方法的推理过程
证据不确定性的表示
在主观Bayes方法中,证据E的不精确性是用其概率 或几率来表示的。概率与几率之间的关系为:
0
O(E)
P(E) 1 P(E)
P(H|S) P(H|E)
P(H)
P(H|﹁E)
0
P(E)
1 P(E|S)
不确定性的更新
分段线性插值函数的解析式为(点斜式):
P(H
|
S
)
P(H P(H
| )
E) P(H
P(H ) | E)
P(H | P(E) P(H )
E)
P(E |
P(E S)
主观贝叶斯方法的推理过程
主观贝叶斯方法的推理过程
当采用初始证据进行推理时,用户提供C(E|S) ,通过 CP公式就可以求出P(H|S)
当采用推理过程中得到的中间结论作为证据进行推理 时,通过EH公式就可以求出P(H|S)
结论不确定性的合成:如果有n条知识都支持同一结论 H,且每条知识的前提条件分别是n个相互独立的证据 E1,E2,…,En,这些证据分别与观察S1,S2,…,Sn相对应。 如何计算O(H| S1,S2,…,Sn)?
P(E)P(E|S)1 0P(E|S)P(E)
主观贝叶斯方法
主观贝叶斯方法
1. 知识不确定性的表示 2. 证据不确定性的表示 3. 组合证据不确定性的计算 4. 不确定性的更新 5. 主观贝叶斯方法的推理过程
组合证据不确定性的计算
证据的基本组合方式包括合取和析取两种 合取:当组合证据是多个单一证据的合取: E = E1 AND E2 AND … AND En 则:P(E|S)=min{ P(E1|S), P(E2|S), … ,P(En|S)} 析取:当组合证据是多个单一证据的析取: E = E1 OR E2 OR … OR En 则:P(E|S)=max{P(E1|S),P(E2|S),…,P(En|S)}
当证据不确定时,需要使用Duda等给出的公式计 算后验概率:
P(H|S) = P(H|E)×P(E|S)+P(H|﹁E)×P(﹁E|S)
不确定性的更新
P(H|S) = P(H|E)×P(E|S)+P(H|﹁E)×P(﹁E|S)
对上述公式分以下3种情况讨论: 1. 证据E肯定为真:
P(E|S)=1, P(﹁E|S)=0, P(H|S) = P(H|E)
证据不确定性的表示
在PROSPECTOR中C(E|S)取整数:{-5,….,5}
C(E|S)=-5表示在观测S下证据E肯定不存在P(E|S)=0
C(E|S)= 5表示在观测S下证据E肯定存在P(E|S)=1
C(E|S)= 0表示S与E无关,即:P(E|S)= P(E)
C(E|S)与P(E|S)的对应关系如下(分段线性插值):
主观贝叶斯方法
主观贝叶斯方法
1. 知识不确定性的表示 2. 证据不确定性的表示 3. 组合证据不确定性的计算 4. 不确定性的更新 5. 主观贝叶斯方法的推理过程
知识不确定性的表示
在主观Bayes方法中,知识是用产生式表示的,其 形式为:
IF E THEN (LS, LN) H
E表示规则前提条件,它既可以是一个简单条 件,也可以是用AND或OR把多个简单条件连 接起来的复合条件。
Artificial Intelligence (AI)
人工智能
第三章:非经 典推理
内容提要
第三章:非经典推理
1.经典推理和非经典推理 2.不确定性推理 3.概率推理 4.主观贝叶斯方法 5.可信度方法 6.证据理论
主观贝叶斯方法
使用概率推理方法求结论Hi在存在证据E时的条件 概率P(Hi|E) ,需要给出结论Hi的先验概率P(Hi)及 证据E的条件概率 P(E|Hi)。这对于实际应用是不 容易做到的。
当LS>1时,O(H|E)>O(H),说明E支持H。 LS越大,E 对H的支持越充分。
当LS=1时,O(H|E)=O(H),说明E对H没有影响。 当LS<1时,O(H|E)<O(H),说明E不支持H。 当LS=0时,O(H|E)=0,说明E的存在使H为假。
主观贝叶斯方法
LN的含义:
同理得到关于LN的公式: ﹁ E对H的支持程度
O(H | E) P(H | E) P(E | H ) P(H ) LN O(H ) P(H | E) P(E | H ) P(H )
主观贝叶斯方法
LS的含义:
O(H | E) P(H | E) = P(E | H ) P(H ) LS O(H ) P(H | E) P(E | H ) P(H )
主观贝叶斯方法的推理过程
O H S1, S2 ,
, Sn
P H S1, S2 , P H S1, S2 ,
, Sn , Sn
公式推导过程
P S1, S2 , , Sn H P H P S1, S2 , , Sn P S1, S2 , , Sn H P H P S1, S2 , , Sn
证明:① LS>1 ⇔ P(E|H)/P(E|¬H)>1 ⇔P(E|H) >P(E|¬H)
⇔ 1-P(E|H) < 1-P(E|¬H) ⇔ P(¬E|H) < P(¬E|¬H) ⇔ P(¬E|H) /P(¬E|¬H) <1 ⇔ LN <1
同理可证明②、 ③,证明略
主观贝叶斯方法
主观贝叶斯方法
不存在,将反对H为真。 LN越小,E的不出现就越反对H为 真,这说明H越需要E的出现。 当LN=0时,O(H|﹁E)=0,说明E不存在将导致H为假。
主观贝叶斯方法
LS和LN的关系
由于E和﹁E不会同时支持或同时排斥H,因此只有下 述三种情况存在: ① LS>1且LN<1 ② LS<1且LN>1 ③ LS=LN=1
LN P(E | H ) 1 P(E | H ) P(E | H ) 1 P(E | H )
主观贝叶斯方法
讨论LS和LN的含义
由本Bayes公式可知:
P(H | E) P(E | H ) P(H ) P(E)
P(H | E) P(E | H ) P(H ) P(E)
O(
X
)
0
if P(X ) 0 if P(X ) 1
即把取值为[0,1]的P(X)放大为取值为[0,+∞)的O(X)
主观贝叶斯方法
讨论LS和LN的含义 因此得到关于LS的公式: E对H的支持程度
O(H | E) P(H | E) = P(E | H ) P(H ) LS O(H ) P(H | E) P(E | H ) P(H )
Duda 和 Hart 等人在贝叶斯公式的基础上,于 1976年提出主观贝叶斯方法,建立了不精确推理 的模型,并把它成功地应用于PROSPECTOR专 家系统(PROSPECTOR是国际上著名的一个用 于勘察固体矿的专家系统)。
主观贝叶斯方法
主观贝叶斯方法
1. 知识不确定性的表示 2. 证据不确定性的表示 3. 组合证据不确定性的计算 4. 不确定性的更新 5. 主观贝叶斯方法的推理过程
主观贝叶斯方法
主观贝叶斯方法
1. 知识不确定性的表示 2. 证据不确定性的表示 3. 组合证据不确定性的计算 4. 不确定性的更新 5. 主观贝叶斯方法的推理过程
不确定性的更新
不确定性的更新过程:根据证据E在观察S下的条 件概率P(E|S) 以及LS和LN的值,把H的先验几率 O(H)或先验概率P(H)更新为后验几率O(H| S)或后 验概率P(H| S) 。
2. 证据E肯定为假:
P(E|S)=0, P(﹁E|S)=1, P(H|S) = P(H|﹁E)
3. 证据E既非为真又非为假: 0<P(E|S)<1
当 P(E|S)=P(E),P(H|S) = P(H) 当 P(E|S)为其他值
不确定性的更新
当 P(E|S) ≠ P(E)时,表示E与S相关。 上面已经得到了P(E|S)的3个特殊值:0,P(E),1; 它们分别对应的3个值为P(H|﹁E),P(H),P(H|E)。 由此构造的分段线性插值函数为:
| S) P(E
)
若0 P(E | S ) P(E) 若P(E) P(E | S) 1
1 P(E)
该公式称为EH公式。
用C(E|S) 代替EH公式中的P(E|S),可得到等价的CP公 式
P(H
|
S)
P(H
|
E)
P(H
)
P(H
|
E)
1 5
P S1, S2 , P S1, S2 ,
, Sn H , Sn H
PH P H
P S1 H P S1 H
P Sn P Sn
H H
PH P H
P H S1 P S1 P H P H S1 P S1 P H
C(E
|
S)
1
P(H
)
P(H
|
E)
P(H
)
1 5
C(E
|
S
)
若C(E | S) 0 若C(E | S) 0
主观贝叶斯方法
主观贝叶斯方法
1. 知识不确定性的表示 2. 证据不确定性的表示 3. 组合证据不确定性的计算 4. 不确定性的更新 5.主观贝叶斯方法的推理过程
证据不确定性的表示
在主观Bayes方法中,证据E的不精确性是用其概率 或几率来表示的。概率与几率之间的关系为:
0
O(E)
P(E) 1 P(E)
P(H|S) P(H|E)
P(H)
P(H|﹁E)
0
P(E)
1 P(E|S)
不确定性的更新
分段线性插值函数的解析式为(点斜式):
P(H
|
S
)
P(H P(H
| )
E) P(H
P(H ) | E)
P(H | P(E) P(H )
E)
P(E |
P(E S)
主观贝叶斯方法的推理过程
主观贝叶斯方法的推理过程
当采用初始证据进行推理时,用户提供C(E|S) ,通过 CP公式就可以求出P(H|S)
当采用推理过程中得到的中间结论作为证据进行推理 时,通过EH公式就可以求出P(H|S)
结论不确定性的合成:如果有n条知识都支持同一结论 H,且每条知识的前提条件分别是n个相互独立的证据 E1,E2,…,En,这些证据分别与观察S1,S2,…,Sn相对应。 如何计算O(H| S1,S2,…,Sn)?
P(E)P(E|S)1 0P(E|S)P(E)
主观贝叶斯方法
主观贝叶斯方法
1. 知识不确定性的表示 2. 证据不确定性的表示 3. 组合证据不确定性的计算 4. 不确定性的更新 5. 主观贝叶斯方法的推理过程
组合证据不确定性的计算
证据的基本组合方式包括合取和析取两种 合取:当组合证据是多个单一证据的合取: E = E1 AND E2 AND … AND En 则:P(E|S)=min{ P(E1|S), P(E2|S), … ,P(En|S)} 析取:当组合证据是多个单一证据的析取: E = E1 OR E2 OR … OR En 则:P(E|S)=max{P(E1|S),P(E2|S),…,P(En|S)}
当证据不确定时,需要使用Duda等给出的公式计 算后验概率:
P(H|S) = P(H|E)×P(E|S)+P(H|﹁E)×P(﹁E|S)
不确定性的更新
P(H|S) = P(H|E)×P(E|S)+P(H|﹁E)×P(﹁E|S)
对上述公式分以下3种情况讨论: 1. 证据E肯定为真:
P(E|S)=1, P(﹁E|S)=0, P(H|S) = P(H|E)
证据不确定性的表示
在PROSPECTOR中C(E|S)取整数:{-5,….,5}
C(E|S)=-5表示在观测S下证据E肯定不存在P(E|S)=0
C(E|S)= 5表示在观测S下证据E肯定存在P(E|S)=1
C(E|S)= 0表示S与E无关,即:P(E|S)= P(E)
C(E|S)与P(E|S)的对应关系如下(分段线性插值):
主观贝叶斯方法
主观贝叶斯方法
1. 知识不确定性的表示 2. 证据不确定性的表示 3. 组合证据不确定性的计算 4. 不确定性的更新 5. 主观贝叶斯方法的推理过程
知识不确定性的表示
在主观Bayes方法中,知识是用产生式表示的,其 形式为:
IF E THEN (LS, LN) H
E表示规则前提条件,它既可以是一个简单条 件,也可以是用AND或OR把多个简单条件连 接起来的复合条件。
Artificial Intelligence (AI)
人工智能
第三章:非经 典推理
内容提要
第三章:非经典推理
1.经典推理和非经典推理 2.不确定性推理 3.概率推理 4.主观贝叶斯方法 5.可信度方法 6.证据理论
主观贝叶斯方法
使用概率推理方法求结论Hi在存在证据E时的条件 概率P(Hi|E) ,需要给出结论Hi的先验概率P(Hi)及 证据E的条件概率 P(E|Hi)。这对于实际应用是不 容易做到的。
当LS>1时,O(H|E)>O(H),说明E支持H。 LS越大,E 对H的支持越充分。
当LS=1时,O(H|E)=O(H),说明E对H没有影响。 当LS<1时,O(H|E)<O(H),说明E不支持H。 当LS=0时,O(H|E)=0,说明E的存在使H为假。
主观贝叶斯方法
LN的含义:
同理得到关于LN的公式: ﹁ E对H的支持程度
O(H | E) P(H | E) P(E | H ) P(H ) LN O(H ) P(H | E) P(E | H ) P(H )
主观贝叶斯方法
LS的含义:
O(H | E) P(H | E) = P(E | H ) P(H ) LS O(H ) P(H | E) P(E | H ) P(H )
主观贝叶斯方法的推理过程
O H S1, S2 ,
, Sn
P H S1, S2 , P H S1, S2 ,
, Sn , Sn
公式推导过程
P S1, S2 , , Sn H P H P S1, S2 , , Sn P S1, S2 , , Sn H P H P S1, S2 , , Sn
证明:① LS>1 ⇔ P(E|H)/P(E|¬H)>1 ⇔P(E|H) >P(E|¬H)
⇔ 1-P(E|H) < 1-P(E|¬H) ⇔ P(¬E|H) < P(¬E|¬H) ⇔ P(¬E|H) /P(¬E|¬H) <1 ⇔ LN <1
同理可证明②、 ③,证明略
主观贝叶斯方法
主观贝叶斯方法
不存在,将反对H为真。 LN越小,E的不出现就越反对H为 真,这说明H越需要E的出现。 当LN=0时,O(H|﹁E)=0,说明E不存在将导致H为假。
主观贝叶斯方法
LS和LN的关系
由于E和﹁E不会同时支持或同时排斥H,因此只有下 述三种情况存在: ① LS>1且LN<1 ② LS<1且LN>1 ③ LS=LN=1
LN P(E | H ) 1 P(E | H ) P(E | H ) 1 P(E | H )
主观贝叶斯方法
讨论LS和LN的含义
由本Bayes公式可知:
P(H | E) P(E | H ) P(H ) P(E)
P(H | E) P(E | H ) P(H ) P(E)
O(
X
)
0
if P(X ) 0 if P(X ) 1
即把取值为[0,1]的P(X)放大为取值为[0,+∞)的O(X)
主观贝叶斯方法
讨论LS和LN的含义 因此得到关于LS的公式: E对H的支持程度
O(H | E) P(H | E) = P(E | H ) P(H ) LS O(H ) P(H | E) P(E | H ) P(H )
Duda 和 Hart 等人在贝叶斯公式的基础上,于 1976年提出主观贝叶斯方法,建立了不精确推理 的模型,并把它成功地应用于PROSPECTOR专 家系统(PROSPECTOR是国际上著名的一个用 于勘察固体矿的专家系统)。
主观贝叶斯方法
主观贝叶斯方法
1. 知识不确定性的表示 2. 证据不确定性的表示 3. 组合证据不确定性的计算 4. 不确定性的更新 5. 主观贝叶斯方法的推理过程
主观贝叶斯方法
主观贝叶斯方法
1. 知识不确定性的表示 2. 证据不确定性的表示 3. 组合证据不确定性的计算 4. 不确定性的更新 5. 主观贝叶斯方法的推理过程
不确定性的更新
不确定性的更新过程:根据证据E在观察S下的条 件概率P(E|S) 以及LS和LN的值,把H的先验几率 O(H)或先验概率P(H)更新为后验几率O(H| S)或后 验概率P(H| S) 。
2. 证据E肯定为假:
P(E|S)=0, P(﹁E|S)=1, P(H|S) = P(H|﹁E)
3. 证据E既非为真又非为假: 0<P(E|S)<1
当 P(E|S)=P(E),P(H|S) = P(H) 当 P(E|S)为其他值
不确定性的更新
当 P(E|S) ≠ P(E)时,表示E与S相关。 上面已经得到了P(E|S)的3个特殊值:0,P(E),1; 它们分别对应的3个值为P(H|﹁E),P(H),P(H|E)。 由此构造的分段线性插值函数为:
| S) P(E
)
若0 P(E | S ) P(E) 若P(E) P(E | S) 1
1 P(E)
该公式称为EH公式。
用C(E|S) 代替EH公式中的P(E|S),可得到等价的CP公 式
P(H
|
S)
P(H
|
E)
P(H
)
P(H
|
E)
1 5
P S1, S2 , P S1, S2 ,
, Sn H , Sn H
PH P H
P S1 H P S1 H
P Sn P Sn
H H
PH P H
P H S1 P S1 P H P H S1 P S1 P H
C(E
|
S)
1
P(H
)
P(H
|
E)
P(H
)
1 5
C(E
|
S
)
若C(E | S) 0 若C(E | S) 0
主观贝叶斯方法
主观贝叶斯方法
1. 知识不确定性的表示 2. 证据不确定性的表示 3. 组合证据不确定性的计算 4. 不确定性的更新 5.主观贝叶斯方法的推理过程