湘潭大学-人工智能课件-非经典推理-part-2

合集下载

人工智能 第3章 推理技术2课题PPT课件

人工智能 第3章 推理技术2课题PPT课件

2020/11/12
《人工智能》
10
(1)证据肯定存在
P(E|S)=1,证据E肯定存。此时需要计算P(H|E)。
由Bayes公式得:
P(H|E)=P(E|H)×P(H)/P(E)
(1)
P(¬H|E)=P(E|¬H)×P(¬H)/P(E)
(2)
(1)式除以(2)式得:
P(H|E)/P(¬H|E)=P(E|H)/P(E|¬H)×P(H)/P(¬H) 由LS和几率函数的定义得:
可信度的概念
根据经验对一个事物和现象为真的相信程度称为可信度。
可信度带有较大的主观性和经验性,其准确性难以把握。 但人工智能面向的多是结构不良的复杂问题,难以给出精 确的数学模型,先验概率及条件概率的确定又比较困难。 所以可信度方法是一种比较实用的方法。
2020/11/12
《人工智能》
19
1. 知识不确定性的表示 在该模型中,知识是用产生式规则表示的,其一
给定C(E|S)后,P(E|S)计算如下:
P (E|S) C P ((E E )| S()C 5 (P E (|E S )) (5 5)C (E|S))若 若 0 5C (C E (|E S|)S )5 0
5
2020/、组合证据不确定性的算法
可以采用最大最小法。 当组合证据是多个单一证据的合取时,即
(1)不确定性的表示与度量 (2)不确定性匹配算法 (3)组合证据不确定性的算法 (4)不确定性的传递算法 (5)结论不确定性的合成
2020/11/12
《人工智能》
3
3.4 基于概率的推理
经典概率方法
设有如下产生式规则: IF E THEN H
其中,E为前提条件,H为结论。后验概率P(H|E)可以作为在证 据E出现时结论H的确定性程度(可信度)。为了计算后验概率 P(H|E),需要知道条件概率P(E|H),及先验概率P(H),P(E)。

湘潭大学 人工智能 机器学习PPT课件

湘潭大学 人工智能 机器学习PPT课件
✓ 示教学习:外界输入知识与内部知识的表达不完全一致, 系统在接受外部知识时需要推理、翻译和转化。
✓ 类比学习:需要发现当前任务与已知知识的相似之处, 通过类比给出完成当前任务的方案。
✓ 示例学习:需要从一组正例和反例中分析和总结出一般 性的规律,在新的任务中推广、验证、修改规律。
机器学习策略与基本结构
Artificial Intelligence (AI)
人工智能
第七章:机器 学习
内容提要
第七章:机器学习系统 1.机器学习的基本概念 2.机器学习策略与基本结构 3.归纳学习 4.类比学习 5.解释学习 6.神经网络学习 7.知识发现 8.其他
阿法狗通过神经网络学习所有高水平围棋 棋谱,大概是历史上有的20万个左右职业棋谱, 从而获得了在盘面上如何落子的直觉。
概念聚类:按照一定的方式和准则分组,归纳概念 机器发现:从数据和事例中发现新知识
内容提要
第七章:机器学习系统 1.机器学习的基本概念 2.机器学习策略与基本结构 3.归纳学习 4.类比学习 5.解释学习 6.神经网络学习 7.知识发现 8.其他
内容提要
第七章:机器学习系统 1.机器学习的基本概念 2.机器学习策略与基本结构 3.归纳学习 4.类比学习 5.解释学习 6.神经网络学习 7.知识发现 8.其他
机器学习策略与基本结构
❖ 机器学习的主要策略:按照学习中使用推理的多 少,机器学习所采用的策略大体上可分为4种
✓ 机械学习:记忆学习方法,即把新的知识存储起来,供 需要时检索调用,而不需要计算和推理。
归纳学习
❖归纳学习(Induction Learning)
✓ 归纳学习是应用归纳推理进行学习的一种方法。 ✓ 归纳学习的模式:

湘潭大学 人工智能课件 确定性推理 part2

湘潭大学 人工智能课件 确定性推理 part2
传送时,总是选择其中代价最小的节点。也就是说, OPEN表中的节点在任一时刻都是按其代价从小到大排 序的。代价小的节点排在前面,代价大的节点排在后 面,而不管节点在代价树中处于什么位置上。 如果问题有解,代价树的广度优先搜索一定可以求得 解,并且求出的是最优解。
该算法应用的条件:该算法是针对代价树的算法。
为了采用该算法对图进行搜索,必须先将图转换为代 价树。
代价树的广度优先搜索
代价树的广度优先搜索算法流程:
• • • • (1) 把初始节点S放入OPEN表中,置S的代价g(S)=0; (2) 如果OPEN表为空,则问题无解 ,失败退出; (3) 把OPEN表的第一个节点取出放入CLOSED表,并记该节 点为n; (4) 考察节点n是否为目标。若是,则找到了问题的解,成功 退出; (5) 若节点n不可扩展,则转第(2)步;否则转第(6)步; (6)扩展节点n,为每一个子节点都配置指向父节点的指针, 计算各子节点的代价,并将各子节点放入OPEN表中。并根 据各子结点的代价对OPEN表中的全部结点按由小到大的顺 序排序。然后转第(2)步。
Artificial Intelligence (AI)
人工智能
第二章:知识 表示与推理
内容提要
第二章:知识表示与推理
二、确定性推理
1.推理的基本概念
2.搜索策略 3.自然演绎推理 4.消解演绎推理 5.基于规则的演绎推理
搜索策略
搜索策略
搜索的基本概念 状态空间的搜索策略 与/或树的搜索策略 搜索的完备性与效率
有界深度优先搜索
八数码难题:dm=4
有界深度优先搜索
有界深度优先搜索:
问题:如果问题有解,且其路径长度≤ dm ,则 上述搜索过程一定能求得解。但是,若解的路 径长度> dm,则上述搜索过程就得不到解。这说 明在有界深度优先搜索中,深度界限的选择是 很重要的。 要恰当地给出 dm的值是比较困难的。即使能求 出解,它也不一定是最优解。

[课件]湘潭大学 人工智能 神经网络系统PPT

[课件]湘潭大学 人工智能 神经网络系统PPT

轴突:输出信号
突触:与另一个神经元相联系的特殊部位
神经网络
生物神经网络
神经元的基本工作机制(简化):
一个神经元有两种状态:兴奋和抑制; 平时处于抑制状态的神经元,其树突和胞体接收其他 神经元由突触传来的兴奋电位,多个输入在神经元中 以代数和的方式叠加; 如果输入兴奋电位总量超过某个阈值,神经元会被激 发进入兴奋状态,发出输出脉冲,并由突触传递给其 他神经元。 神经元被触发后进入不应期,在不应期不能被触发, 然后阈值逐渐下降,恢复兴奋性。
进化计算:是一种对人类智能的演化模拟方法,它
是通过对生物遗传和演化过程的认识,用进化算法去 模拟人类智能的进化规律的。
模糊计算:是一种对人类智能的逻辑模拟方法,它
是通过对人类处理模糊现象的认知能力的认识,用模 糊逻辑去模拟人类的智能行为的。
神经网络
人工神经网络( ANN)是反映人脑结构及功能的 一种抽象数学模型,是由大量神经元节点互连而 成的复杂网络,用以模拟人类进行知识的表示与 存储以及利用知识进行推理的行为。
适应与集成:自适应和信息融合能力;
硬件实现:快速和大规模处理能力。
神经网络
生物神经系统是人工神经网络的基础。人工神经网络是对人脑神经 系统的简化、抽象和模拟,具有人脑功能的许多基本特征。
1. 生物神经系统简介
2. 人工神经网络简介
神经网络
生物神经网络
神经元结构包括四个部分:
胞体:神经细胞的本体,维持细胞生存功能 树突:接收来自其他神经元的信号(输入)
简单地讲,它是一个数学模型,可以用电子线路 来实现,也可以用计算机程序来模 为: 物理结构,计算模拟,存储与操作,训练
人工神经网络的发展

湘潭大学 人工智能课件 机器学习共77页文档

湘潭大学 人工智能课件 机器学习共77页文档
40、人类法律,事物有规律,这是不 容忽视 的。— —爱献 生
46、我们若已接受最坏的,就再没有什么损失。——卡耐基 47、书到用时方恨少、事非经过不知难。——陆游 48、书籍把我们引入最美好的社会,使我们认识各个时代的伟大智者。——史美尔斯 49、熟读唐诗三百首,不会作诗也会吟。——孙洙 50、谁和我一样用功,谁就会和我一样成功。——莫扎特
湘潭大学 人工智能课件 机器学习
36、如果我们国家的法律中只有某种 神灵, 而不是 殚精竭 虑将神 灵揉进 宪法, 总体上 来说, 法律就 会更好 。—— 马克·吐 温 37、纲纪废弃之日,便是暴政兴起之 时。— —威·皮 物特
38、若是没有公众舆论的支持,法律 是丝毫 没有力 量的。 ——菲 力普斯 39、一个判例造出另一个判例,它们 迅速累 聚,进

湘潭大学 人工智能课件 模糊系统 Part2

湘潭大学 人工智能课件 模糊系统 Part2
模糊标记隶属度01模糊标记隶属度温度64c湿度22模糊计算的流程模糊计算的过程由于温度对低的隶属度为0而湿度对大的隶属度为0故控制规则表内条件包含低温度和大湿度的规则不被激活
Artificial Intelligence (AI)
人工智能
第五章:模糊 逻辑系统
内容提要
第五章:模糊逻辑系统
1. 模糊逻辑原理 2. 模糊集 3. 模糊关系 4. 模糊变换
0 0.4 0.6 1 0 0.5 0.5 0.5 0.5 0.5 Rm 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
Rm
U V
( A (u ) B (v)) (1 A (u )) /(u, v)
5. 模糊推理
6. 模糊计算的流程
模糊变换
模糊变换
设A={μA(u1),μA(u2),…,μA(un)}是论域U上的模糊集,R 是U×V上的模糊关系,则
A°R = B
称为模糊变换。 例如:设A={0.2,0.5,0.3}
0.2 0.7 0.1 0 R 0 0.4 0.5 0.1 0.2 0.3 0.4 0.1
内容提要
第五章:模糊逻辑系统
1. 模糊逻辑原理 2. 模糊集 3. 模糊关系 4. 模糊变换
5. 模糊推理
6. 模糊计算的流程
模糊计算的流程
模糊计算


生活中经常能遇到这样的情况:要根据几个变量的输 入,以及一组自然语言表述的经验规则,来决定输出。 这就是一个模糊计算的过程。 如在灌溉问题中,要根据温度、湿度等变量决定灌溉 时间的多少。这个决定灌溉量的过程,需要依据一些 从以往的灌溉中得到的经验。这些经验往往来自领域 内专家,并且以规则的形式表述,例如:当温度高而 且湿度小的时候,灌溉时间为长。 模糊规则库、模糊化、推理方法和去模糊化

湘潭大学 人工智能课件 知识表示方法 part2

湘潭大学 人工智能课件 知识表示方法 part2

谓词逻辑法
谓词
在n元谓词 P(x1,x2,…,xn)中,若每个个体均为常量、变 元或函数,则称它为一阶谓词。 如果某个个体本身又是一个一阶谓词,则称它为二阶 谓词,如此类推。 个体变元的取值范围称为个体域。个体域可以是有限 的,也可以是无限的。例如用I(x)表示“x是整数”, 则个体域为所有整数,是无限的。 谓词与函数不同,谓词的真值是“T”或“F”,而函 数的值是个体域中的一个个体,无真值可言。
谓词逻辑法
谓词公式
例2:用谓词逻辑描述右图中的房子的概念
个体 :A , B 谓词 : SUPPORT( x,y ):表示 x 被 y支撑着 WEDGE ( x ):表示 x 是楔形块 BRICK( y ):表示 y 是长方块 其中 x , y是个体变元,它们的个体域{A,B} 房子的概念可以表示成一组合式谓词公式的合取式: SUPPORT(A,B) ∧WEDGE( A ) ∧BRICK( B )
谓词逻辑法
谓词
在谓词逻辑中,命题是用形如P(x1,x2,…,xn)的谓词来表 述的。一个谓词可分为谓词名与个体两个部分
个体: 是命题的主语,表示独立存在的事物或某个抽 象的概念
“x1,x2,…,xn”是个体,一般用小写字母表示
个体可以是个体常量、变元或函数
谓词名:表示个体的性质、状态或个体之间的关系
谓词逻辑法
置换与合一
置换 推理规则:用合式公式的集合产生新的合式公式
– 假元推理
W1 W1 W2
W2
– 全称化推理
(x) W(x) 任意常量A W(A)
寻找A对x的置 换,使W1(A) 与W1(x)一致
– 综合推理
W1(A) (x) [W1(x) W2(x)] W2(A)

人工智能AI讲稿4(不精确推理)精品PPT课件

人工智能AI讲稿4(不精确推理)精品PPT课件
则有:
P(Bi
/
A)
P( ABi ) P( A)
P(Bi )P( A / Bi ) P(B1)P( A / B1) ... P(Bn )P( A /
Bn )
概率方法
经典概率方法
IF E Then H P(H/E)
IF E1E2…En Then H P(H/ E1E2…En) •E只有“T”,“F”两种状态,即证据是确定的,应用时受限 •P(H/E)有时很难统计获得 逆概率方法
P(H|E), E肯定存在时 P(H|﹁E), E肯定不存在时, 先验→后验 P(H|S), E不确定时
1。证据E肯定存在的情况;P(E)=P(E|S)=1 (1)几率函数
Q(x) P(x) 1 P(x)
•Q(x)与P(x)单调性相同 •P(x) ∈[0,1]; Q(x) ∈ [0, +∞]
(2)后验概率P(H|E)
(接上页) 不妨设每一个产品的生产都是相互独立的,有:
P (A/Y1)=(0.9)5=0.590,P (A/Y2)=(0.7)5=0.168。 再由全概率公式算得
P(A)= P (A/Y1) P(Y1)+ P (A/Y2) P(Y2)=0.337。 于是可求得后验概率为
P (Y1/A) = P(A/Y1) P(Y1) /P(A)=0.236/0.337=0.700 P (Y2/A) = P(A/Y2) P(Y2) /P(A)=0.101/0.337=0.300。 这表明,经理应该根据试验A的结果调整自己的看法,把 对Y1与Y2的可信度由0.4和0.6分别调整到0.7和0.3。经过 试验A后,经理在决策上有了依据。
Bayes
P(H | E) P(H | E)
P(E | H )P(H ) P(E)

《人工智能》知识表示与推理(二)

《人工智能》知识表示与推理(二)
➢ 它的缺点是执行效率低,此外每一条产生式都是一个 独立的程序单元,一般相互之间不能直接调用也不彼 此包含,控制不便,因而不宜用来求解理论性强的问 题。
16
《人工智能》第二章 知识表示与推理
产生式系统知识表示与推理
④ 产生式知识表示法的特点
清晰性:产生式表示格式固定,形式单一,规则(知识单位) 间相互较为独立,没有直接关系,使知识库的建立较为容 易,处理较为简单的问题是可取的。另外推理方式单纯, 也没有复杂计算。
19
《人工智能》第二章 知识表示与推理
产生式系统知识表示与推理
⑤ 产生式系统举例
例:一条知识的原始形态是 R: ( (A B) (C D)) ((E F) G)=>S 引入中间结论S1,S2,形成一些小型的产生式: R1: A B =>S1 R2: C D =>S1 R3: E F =>S2 R4: S1 G =>S R5: S1 S2 =>S
夏幼明人工智能第二章知识表示与推理2知识表示概述命题逻辑的知识表示与推理谓词逻辑的知识表示与推理产生式系统知识表示与推理语义网络知识表示与推理框架知识表示与推理脚本知识表示与推理面向知识表示概述命题逻辑的知识表示与推理谓词逻辑的知识表示与推理产生式系统知识表示与推理语义网络知识表示与推理框架知识表示与推理脚本知识表示与推理面向agent的知识表示与推理知识表示与推理核心内容人工智能第二章知识表示与推理3产生式系统定义产生式系统的推理产生式表示下的推理过程产生式表示知识表示法的特点产生式系统举例产生式系统定义产生式系统的推理产生式表示下的推理过程产生式表示知识表示法的特点产生式系统举例产生式系统知识表示与推理人工智能第二章知识表示与推理4产生式系统定义1972年纽厄尔和西蒙在研究人类的认知模型中开发了基于规则的产生式系统目前产生式表示法已经成了人工智能中应用最多的一种知识表示模式
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

当E为假 当E为真 当E非真也非假
P(E) O(E) 1 O(E)
❖ 在实际应用中,若证据E是不可以直接观测的,则需 要由用户(E|S)描述证据E的不确定性 。
❖ 由于主观给定P(E|S)有所困难,所以实际中可以用可 信度C(E|S)代替P(E|S)。
✓ 证明:① LS>1 ⇔ P(E|H)/P(E|¬H)>1 ⇔P(E|H) >P(E|¬H)
⇔ 1-P(E|H) < 1-P(E|¬H) ⇔ P(¬E|H) < P(¬E|¬H) ⇔ P(¬E|H) /P(¬E|¬H) <1 ⇔ LN <1
✓ 同理可证明②、 ③,证明略
主观贝叶斯方法
❖主观贝叶斯方法
❖Duda 和 Hart 等人在贝叶斯公式的基础上,于 1976年提出主观贝叶斯方法,建立了不精确推理 的模型,并把它成功地应用于PROSPECTOR专 家系统(PROSPECTOR是国际上著名的一个用 于勘察固体矿的专家系统)。
主观贝叶斯方法
❖主观贝叶斯方法
✓1. 知识不确定性的表示 ✓2. 证据不确定性的表示 ✓3. 组合证据不确定性的计算 ✓4. 不确定性的更新 ✓5. 主观贝叶斯方法的推理过程
✓ 当LS>1时,O(H|E)>O(H),说明E支持H。 LS越大,E 对H的支持越充分。
✓ 当LS=1时,O(H|E)=O(H),说明E对H没有影响。 ✓ 当LS<1时,O(H|E)<O(H),说明E不支持H。 ✓ 当LS=0时,O(H|E)=0,说明E的存在使H为假。
主观贝叶斯方法
❖ LN的含义:
LN P(E | H ) 1 P(E | H ) P(E | H ) 1 P(E | H )
主观贝叶斯方法
❖ 讨论LS和LN的含义
✓由本Bayes公式可知:
P(H | E) P(E | H ) P(H ) P(E)
P(H | E) P(E | H ) P(H ) P(E)
✓两式相除得:
LS
O(
X
)
0
if P(X ) 0 if P(X ) 1
✓ 即把取值为[0,1]的P(X)放大为取值为[0,+∞)的O(X)
主观贝叶斯方法
❖ 讨论LS和LN的含义 ✓因此得到关于LS的公式: E对H的支持程度
O(H | E) P(H | E) = P(E | H ) P(H ) LS O(H ) P(H | E) P(E | H ) P(H )
不存在,将反对H为真。 LN越小,E的不出现就越反对H为 真,这说明H越需要E的出现。 ✓ 当LN=0时,O(H|﹁E)=0,说明E不存在将导致H为假。
主观贝叶斯方法
❖ LS和LN的关系
✓ 由于E和﹁E不会同时支持或同时排斥H,因此只有下 述三种情况存在: ① LS>1且LN<1 ② LS<1且LN>1 ③ LS=LN=1
✓同理得到关于LN的公式: ﹁ E对H的支持程度
O(H | E) P(H | E) P(E | H ) P(H ) LN O(H ) P(H | E) P(E | H ) P(H )
主观贝叶斯方法
❖ LS的含义:
O(H | E) P(H | E) = P(E | H ) P(H ) LS O(H ) P(H | E) P(E | H ) P(H )
O(H | E) P(H | E) P(E | H ) P(H ) LN O(H ) P(H | E) P(E | H ) P(H )
✓ 当LN>1时,O(H|﹁E)>O(H),说明﹁E支持H。LN越大,﹁ E对H为真的支持就越强。
✓ 当LN=1时,O(H|﹁E)=O(H),说明﹁E对H没有影响。 ✓ 当LN<1时,O(H|﹁E)<O(H),说明﹁E不支持H,即由于E
✓1. 知识不确定性的表示 ✓2. 证据不确定性的表示 ✓3. 组合证据不确定性的计算 ✓4. 不确定性的更新 ✓5. 主观贝叶斯方法的推理过程
证据不确定性的表示
❖ 在主观Bayes方法中,证据E的不精确性是用其概率 或几率来表示的。概率与几率之间的关系为:
0
O(E)
P(E) 1 P(E)
(0, )
Artificial Intelligence (AI)
人工智能
第三章:非经 典推理
内容提要
第三章:非经典推理
1.经典推理和非经典推理 2.不确定性推理 3.概率推理 4.主观贝叶斯方法 5.可信度方法 6.证据理论
主观贝叶斯方法
❖ 使用概率推理方法求结论Hi在存在证据E时的条件 概率P(Hi|E) ,需要给出结论Hi的先验概率P(Hi)及 证据E的条件概率 P(E|Hi)。这对于实际应用是不 容易做到的。
P(H | E) P(E | H) P(H) P(H | E) P(E | H ) P(H )
主观贝叶斯方法
❖ 讨论LS和LN的含义
✓ 为讨论方便,下面引入几率函数 :
O(X ) P(X ) 或 O(X ) P(X )
P(X )
1 P(X )
✓ 可见,X的几率等于X出现的概率与X不出现的概率之 比, O(X) 与P(X)的变化一致,且有:
主观贝叶斯方法
❖主观贝叶斯方法
✓1. 知识不确定性的表示 ✓2. 证据不确定性的表示 ✓3. 组合证据不确定性的计算 ✓4. 不确定性的更新 ✓5. 主观贝叶斯方法的推理过程
知识不确定性的表示
❖ 在主观Bayes方法中,知识是用产生式表示的,其 形式为:
IF E THEN (LS, LN) H
✓E表示规则前提条件,它既可以是一个简单条 件,也可以是用AND或OR把多个简单条件连 接起来的复合条件。
✓H是结论,用P(H)表示H的先验概率,它指出没 有任何专门证据的情况下结论H为真的概率, 其值由领域专家根据以往的实践经验给出。
主观贝叶斯方法
✓LS是规则的充分性度量。用于指出E对H的支 持程度,取值范围为[0,+∞),其定义为:
LS P(E | H ) P(E | H )
✓LN是规则的必要性度量。用于指出E对H为真 的必要程度,即﹁E对对H的支持程度。取值范 围为[0,+∞),其定义为:
证据不确定性的表示
❖ 在PROSPECTOR中C(E|S)取整数:{-5,….,5}
相关文档
最新文档