人工智能第五章_不确定推理

合集下载

确定性与不确定性推理主要方法-人工智能导论

确定性与不确定性推理主要方法-人工智能导论

确定性与不确定性推理主要方法1.确定性推理:推理时所用的知识与证据都是确定的,推出的结论也是确定的,其真值或者为真或者为假。

2.不确定性推理:从不确定性的初始证据出发,通过运用不确定性的知识,最终推出具有一定程度的不确定性但却是合理或者近乎合理的结论的思维过程。

3.演绎推理:如:人都是会死的(大前提)李四是人(小前提)所有李四会死(结论)4.归纳推理:从个别到一般:如:检测全部产品合格,因此该厂产品合格;检测个别产品合格,该厂产品合格。

5.默认推理:知识不完全的情况下假设某些条件已经具备所进行的推理;如:制作鱼缸,想到鱼要呼吸,鱼缸不能加盖。

6.不确定性推理中的基本问题:①不确定性的表示与量度:1)知识不确定性的表示2)证据不确定性的表示3)不确定性的量度②不确定性匹配算法及阈值的选择1)不确定性匹配算法:用来计算匹配双方相似程度的算法。

2)阈值:用来指出相似的“限度”。

③组合证据不确定性的算法最大最小方法、Hamacher方法、概率方法、有界方法、Einstein方法等。

④不确定性的传递算法1)在每一步推理中,如何把证据及知识的不确定性传递给结论。

2)在多步推理中,如何把初始证据的不确定性传递给最终结论。

⑤结论不确定性的合成6.可信度方法:在确定性理论的基础上,结合概率论等提出的一种不确定性推理方法。

其优点是:直观、简单,且效果好。

可信度:根据经验对一个事物或现象为真的相信程度。

可信度带有较大的主观性和经验性,其准确性难以把握。

C-F模型:基于可信度表示的不确定性推理的基本方法。

CF(H,E)的取值范围: [-1,1]。

若由于相应证据的出现增加结论 H 为真的可信度,则 CF(H,E)> 0,证据的出现越是支持 H 为真,就使CF(H,E) 的值越大。

反之,CF(H,E)< 0,证据的出现越是支持 H 为假,CF(H,E)的值就越小。

若证据的出现与否与 H 无关,则 CF(H,E)= 0。

人工智能领域的随机模型与不确定性推理技术研究

人工智能领域的随机模型与不确定性推理技术研究

人工智能领域的随机模型与不确定性推理技术研究第一章:引言近年来,人工智能技术的发展取得了突破性进展,特别是在计算机视觉、自然语言处理和机器学习等领域。

然而,人工智能系统仍然面临一个重要的挑战,即如何有效处理不完整或不准确的信息。

为了解决这个问题,研究人员开始将随机模型和不确定性推理技术应用于人工智能领域。

第二章:随机模型的概念与应用2.1 随机模型的概念随机模型是一种数学工具,它可以用来描述系统中的随机变量和它们之间的概率关系。

在人工智能领域,随机模型通常用于建模不确定性或复杂性问题。

例如,在自然语言处理中,可以使用隐马尔可夫模型来解决词性标注或语法分析等问题。

在机器学习中,高斯混合模型常常用于聚类或异常检测任务。

2.2 随机模型的应用随机模型在人工智能领域有着广泛的应用。

首先,在计算机视觉领域,随机模型可以用于图像分割、目标识别和图像生成等任务。

其次,在自然语言处理中,随机模型可以用于词性标注、命名实体识别和机器翻译等任务。

最后,在推荐系统和广告投放中,随机模型可以用于对用户行为进行建模和预测。

第三章:不确定性推理技术的概念与方法3.1 不确定性推理技术的概念不确定性推理技术是一种用于处理和推理不完全或不准确信息的方法。

它可以帮助人工智能系统更好地处理现实中存在的各种随机性和不确定性。

不确定性推理技术的核心思想是使用概率或统计方法来描述和表示不确定性信息。

3.2 不确定性推理技术的方法不确定性推理技术的方法主要包括概率推理、贝叶斯网络和蒙特卡洛方法等。

概率推理是一种基于贝叶斯定理的方法,可以用于计算给定观测数据的条件下的不确定性推理。

贝叶斯网络是一种用于建模和推理概率关系的图模型。

蒙特卡洛方法是一种基于概率抽样的方法,可以用于近似计算复杂模型的推理问题。

第四章:随机模型与不确定性推理技术的研究进展4.1 随机模型与不确定性推理技术的研究现状随机模型与不确定性推理技术的研究已经取得了一系列重要进展。

人工智能领域的贝叶斯非参数模型在不确定性推理中的应用研究

人工智能领域的贝叶斯非参数模型在不确定性推理中的应用研究

人工智能领域的贝叶斯非参数模型在不确定性推理中的应用研究引言:人工智能作为一门快速发展的科学领域,与日俱增的数据量和问题复杂度促使我们不断寻求新的方法来处理不确定性。

在这个背景下,贝叶斯非参数模型在人工智能领域的应用备受关注。

贝叶斯非参数模型作为一种概率推理方法能够有效地处理不确定性,为人工智能研究者提供了一个强大的工具。

本文将探讨贝叶斯非参数模型在不确定性推理中的应用研究,并通过实例来说明其在人工智能领域的价值。

第一章贝叶斯非参数模型概述1.1 贝叶斯非参数模型的基本原理贝叶斯非参数模型是一种使用贝叶斯方法进行推理的概率模型。

其基本原理是利用贝叶斯定理,结合先验分布和观测数据,得到更新后的后验分布。

相比于传统的参数模型,贝叶斯非参数模型不需要对模型进行参数设定,从而更好地适应不确定性的情况。

1.2 贝叶斯非参数模型的发展历程贝叶斯非参数模型的发展可以追溯到20世纪50年代。

最早的贝叶斯非参数模型是基于核函数方法的非参数回归模型,后来发展成为非参数概率密度估计模型。

近年来,随着贝叶斯方法的进一步发展,贝叶斯非参数模型在各个领域得到了广泛应用。

第二章贝叶斯非参数模型在不确定性推理中的应用2.1 文本分类在文本分类任务中,贝叶斯非参数模型能够自动学习特征的重要性,并推断文本样本的潜在类别。

通过结合先验信息和观测数据,贝叶斯非参数模型可以更好地处理不确定性情况,提高文本分类的准确性和鲁棒性。

2.2 图像处理贝叶斯非参数模型在图像处理中的应用主要集中在图像分割和目标检测领域。

通过建立贝叶斯非参数模型,能够有效地对图像进行分割,提取出图像中的目标物体。

同时,贝叶斯非参数模型可以捕捉图像中的不确定性,提供更可靠的目标检测结果。

2.3 机器学习贝叶斯非参数模型在机器学习中广泛应用于聚类、降维和回归等任务。

通过贝叶斯非参数模型,可以更好地处理高维数据以及数据中的不确定性信息。

此外,贝叶斯非参数模型还能够通过引入先验信息来解决数据稀疏问题,提高机器学习任务的性能。

人工智能中的知识表示与推理

人工智能中的知识表示与推理

人工智能中的知识表示与推理人工智能(Artificial Intelligence,AI)已经成为当今科技领域的热门话题,它迅速改变着我们的生活方式和工作方式。

而在AI的核心技术中,知识表示与推理是至关重要的一环。

本文将探讨人工智能中的知识表示与推理,以及它们在实际应用中的意义和挑战。

一、知识表示知识表示是指将知识以适合计算机理解和处理的形式进行表达。

在人工智能中,常用的知识表示方式有以下几种。

1.符号逻辑表示符号逻辑是指用逻辑符号和规则来表示和处理知识的方法。

它将事物和关系抽象成逻辑符号,通过逻辑推理来达成目的。

例如,利用一阶谓词逻辑可以表示“所有猫都喜欢鱼”,然后通过推理得出“Tom是猫,所以Tom喜欢鱼”。

2.网络表示网络表示使用图结构来表示和处理知识。

图的节点代表事物,边代表事物之间的关系。

例如,使用有向图可以表示“Tom是Jerry的朋友”,节点Tom指向节点Jerry,表示Tom是Jerry的朋友。

3.语义网络表示语义网络是一种特殊的网络表示方法,它将知识以概念和关系的形式进行表达。

概念节点代表事物,关系边代表事物之间的关系。

例如,利用语义网络可以表示“猫是哺乳动物”,节点猫和节点哺乳动物通过关系边连接。

二、推理推理是指根据已知的事实和规则,通过逻辑推导得出新的结论或解决问题的过程。

在人工智能中,常用的推理方法有以下几种。

1.前向推理前向推理是从已知的事实出发,应用规则和逻辑推理,逐步推导得出结论的过程。

它从已知事实出发,逐级扩展,直到无法再得到新结论为止。

2.后向推理后向推理是从目标出发,逐步向前推导,找出能够满足目标的事实和规则。

它逆向推理,直到得到满足目标的结论或无法再向前推导。

3.不确定推理不确定推理是指在处理不完全或不准确的信息时,通过概率推断得到结论的方法。

它可以用于处理模糊、不确定的情况,通过概率模型计算出结论的概率。

三、知识表示与推理的应用知识表示与推理在人工智能的各个领域都有广泛的应用,下面以几个典型的应用为例进行介绍。

6-不确定推理

6-不确定推理

推理能力不足
解题方案不唯一
人工智能
sspu 王帅
概述
一个AI系统,由于知识本身的不精确和不完全, 常采用非标准逻辑意义下的不确定性推理方法 和非单调推理方法。 对于不确定推理来说,研究的主要问题是
如何描述不精确性 如何传播不精确性
对于非单调推理来说,研究的主要问题是
如何提出合理的假设 如何处理矛盾
不确定性推理
不确定性推理
概述
确定性方法
概率论基础
Bayes网络
主观Bayes方法 证据理论
人工智能 sspu 王帅
第五章 不确定性推理
概述 确定性方法 概率论基础 Bayes网络 主观Bayes方法
证据理论
人工智能 sspu 王帅
概述
归结推理方法是建立在经典逻辑上的确定性推理。它是 一种运用确定性知识进行精确推理,而且随着新知识的 加入,推出的结论或证明了的命题将单调增加。但是人 类的推理通常是在信息不完全下进行的不确定和非单调 的推理 不确定是针对已知事实及推理中所用的知识而言的。由 于现时世界的随机性、模糊性,导致人们认识的不精确 不完全,反映到知识上即为不确定性知识,对这种知识 进行的推理就是不确定推理 非单调是针对推理过程所呈现出来的特性而言的。在推 理过程中,随着新知识的加入,推出的结论或证明了的 命题有可能减少。这种推理大都由知识的不完全引起, 所以也具有不确定的特性
n n
n n

n
n
P( B)Байду номын сангаас
An B
P( A )
n
人工智能
sspu 王帅
概率论基础(统计概率性质 )
对任意事件A,有 0 P( A) 1 必然事件Ω 的概率P(Ω ) =1,不可能事件 φ 的概率P(φ ) = 0 P(~ A) 1 P( A) 对任意事件A,有 P( A ) P( A ) P( A ) ... P( A ) 设事件A1,A2,…An(k≤n)是两两互不 相容的事件,即有,则 设A,B是两事件,则

人工智能第5节不确定可信度

人工智能第5节不确定可信度

3. 组合证据不确定性的计算方法 需要解决的另一个问题是不确定性的更新问题,不确定
性的(更新算法)组合证据有:
在匹配时,一个简单条件对应于一个单一的证据,一个复合条件 对应于一组证据,称这一组证据为组合证据。
最大最小法:
T(E1 AND E2)=min{T(E1),T(E2)}
T(E1 OR E2)=max{T(E1),T(E2)} 概率法:
CF(H,E) 0
,P(H|E)P(H)
0MD(H,E)P(HP )(P H()H|E) ,P(H|E)P(H)
从上式可看出: CF(H,E)>0对应于P(H|E)>P(H); CF(H,E)<0对应于P(H|E)<P(H); CF(H,E)=0对应于P(H|E)=P(H)。
IF E THEN
H (CF(H,E))
MB(H,E)0P(H 1|E P)(H P)(H) ,P(H|E)P(H)
CF(H,E) 0
,P(H|E)P(H)
0MD(H,E)P(HP )(P H()H|E) ,P(H|E)P(H)
当且仅当P(H|E)=1时, CF(H,E)=1 当且仅当P(H|E)=0时, CF(H,E)=-1 CF(H,E)定性地反映了P(H|E)的大小,因此可以用
CF(E6)=0.7, CF(E7)=0.6, CF(E8)=0.9
求:CF(H)=?
E1 (0.9)
解:由R4得到:
CF(E1)=0.7×max{0,CF[E4 AND (E5 OR E6)]} =0.7×max{0,min{CF(E4),CF(E5 OR E6)}}
=0.35
由R5得到:
CF(E3)=0.9×max{0,CF[E7 AND E8]} =0.54

人工智能及其应用-不确定性推理方法-证据理论

人工智能及其应用-不确定性推理方法-证据理论

Bel({红,黄}) M ({红}) M ({黄}) M ({红,黄})
0.3 0.2 0.5
Pl({蓝}) 1 Bel({蓝}) 1 Bel({红,黄})=系
因为
Bel( A) +Bel(¬A) =∑M (B) +∑M (C)
则: K 1 M1(x)M 2 ( y) x y 1 [M1({黑})M 2 ({白}) M1({白})M 2 ({黑})]
1 [0.3 0.3 0.5 0.6] 0.61
M ({黑}) K 1 M1(x)M 2 ( y)
0.161x[My{1黑({}黑})M 2 ({黑}) M1 ({黑})M 2 ({黑,白})
Pl(A) :对A为非假的信任程度。
8 A(Bel(A), Pl(A)) :对A信任程度的下限与上限。
8
概率分配函数的正交和(证据的组合)
定义4.4 设 M1和 M 2 是两个概率分配函数;则其正交 和 M =M1⊕M2 : M (Φ) 0
M ( A) K 1
M1(x)M2( y)
x yA
B⊆A
C⊆¬A
≤∑M (E) =1
B⊆D
所以 Pl( A) Bel( A) 1 Bel(A) Bel( A)
1 (Bel(A) Bel( A)) 0
∴所以 Pl( A) ≥Bel( A)
A(0,0);A(0,1)
Bel(A) :对A为真的信任程度。
A(1,1);A(0.25,1) A(0,0.85);A(0.25,0.85)
1981年巴纳特(J. A. Barnett)把该理论引入专家系 统中,同年卡威(J. Garvey)等人用它实现了不确定 性推理。

人工智能专家系统推理机设计-第五章 不确定性推理-

人工智能专家系统推理机设计-第五章 不确定性推理-
贝叶斯规则: IF E THEN (LS , LN) H (P(H))
15
2019/11/30
福州大学阳光学院计算机系
主观贝叶斯方法
IF E THEN (LS , LN) H (P(H))
E: 知识的前提条件 H: 结论 P(H): H的先验概率 LS: 充分性量度 LS P(E| H)
P(E| H)
24
2019/11/30
福州大学阳光学院计算机系
主观贝叶斯方法
证据不确定时 EH公式:
P(H|E)P(H)P(H|E)P(E|E') P(E) P(H|E')P(H)P(H|E)P(H)[P(E|E')P(E)] 1P(E)
0 <=P(E|E’)<= P(E) P(E) <=P(E|E’)<= 1
福州大学阳光学院计算机系
基本概念—不确定推理的基本问题
(表示问题 计算问题 语义问题)
不确定性的表示和量度 不确定性匹配算法及阈值的选择 组合证据不确定的算法 不确定性的传递算法 结论不确定性的合成
5
2019/11/30
福州大学阳光学院计算机系
基本概念—不确定推理方法的基本问题
6
2019/11/30
福州大学阳光学院计算机系
基本概念—不确定推理的基本问题
计算问题:
不确定性的传播和更新算法。包括
已知规则 E H 的强度f (H , E)和前提的不确定性 C(E),如何计算结论的不确定性
C(H) =g1(C(E),f(H,E)) 已知某命题H的不确定性C1(H),又根据新的证据求得
P(E/E’)=1 P(H/E’)=P(H/E)= LS*P(H)/[(LS-1)*P(H)+1] P(E/E’)=0 P(H/E’)=P(H/~E)= LN*P(H)/[(LN-1)*P(H)+1] P(E/E’)=P(E) P(H/E’)=P(H)

人工智能第五章模糊逻辑系统85

人工智能第五章模糊逻辑系统85
(A~ B~) C~ A~ (B~ C~) (A~ B~) C~ A~ (B~ C~)
A~ (B~ C~) ( A~ B~) ( A~ C~) A~ (B~ C~) ( A~ B~) ( A~ C~)
吸收律
A~ A~ B~ A~ A~ A~ B~ A~

a a
;如果用 b a bm am
结果变为
R 1 0.79 0.68 0.58 0.42 0.32 0.11 0.11 0.05 0.05 (1,20) (5,20) (7,20) (9,20) (1,9) (1,7) (5,7) (7,9) (5,9) (1,5)
强截集 弱截集
“单点模糊集合”:若台集仅为一个点,且该点隶属度为1
2019/11/20
16
三、模糊集合的基本运算
1、相等 :
A~ F (U ) B~ F (V )
各元素的隶属度分别相等
A~ (u) B~ (u)
2、包含:
A~ (u) B~ (u)
A~包含于B~
2019/11/20
x1
x2
x3
x4
x5
A~ (0.85,0.75,0.98,0.30,0.60)
2019/11/20
13
2、论域是离散无限域
扎德表示法:
可数:
A~

A~(ui
)



A~(ui
)

A~(ui )
1
不可数: A~
ui A~(u)
1
ui
1 ui
U u
3、论域是连续域

人工智能》教学大纲

人工智能》教学大纲

人工智能》教学大纲2.掌握Prolog语言的基本语法和常用操作;3.能够编写简单的Prolog程序,并能够运行和调试;4.了解Prolog语言在人工智能中的应用。

第三章搜索算法基本内容和要求:1.掌握深度优先搜索、广度优先搜索、启发式搜索等搜索算法的基本思想和实现方法;2.能够应用搜索算法解决一些典型问题;3.了解搜索算法在人工智能中的应用。

第四章知识表示与推理基本内容和要求:1.掌握命题逻辑、一阶逻辑等知识表示方法;2.了解基于规则、框架、语义网络等知识表示方法;3.掌握归结方法、前向推理、后向推理等推理方法;4.能够应用知识表示与推理解决一些典型问题。

第五章不确定性推理基本内容和要求:1.了解不确定性推理的基本概念和方法;2.掌握贝叶斯定理及其应用;3.掌握条件概率、独立性、条件独立性等概念;4.能够应用不确定性推理解决一些典型问题,如垃圾邮件过滤等。

五、教材和参考书目1)主教材:Stuart Russell。

Peter Norvig。

Artificial Intelligence: A Modern Approach。

3rd n。

Prentice Hall。

2009.2)参考书目:___。

机器研究。

___。

2016.___。

统计研究方法。

___。

2012.___。

___。

2017.六、教学进度安排第一周人工智能概述第二周逻辑程序设计语言Prolog第三周搜索算法第四周知识表示与推理第五周不确定性推理第六周期中考试第七周至第十周课程实验第十一周至第十三周课程实验第十四周课程总结与复第十五周期末考试一实验(实训)内容产生式系统实验学时分配4目的与要求:熟悉和掌握产生式系统的运行机制,掌握基于规则推理的基本方法。

实验(实训)内容:主要包括产生式系统的正、反向推理、基于逻辑的搜索等10余个相关演示性、验证性和开发性设计实验。

二实验(实训)内容搜索策略实验学时分配4目的与要求:熟悉和掌握启发式搜索的定义、估价函数和算法过程,并利用A*算法求解N数码难题,理解求解流程和搜索顺序。

精选人工智能不确定性推理课件

精选人工智能不确定性推理课件
蝴蝶效应:亚马逊河热带雨林中的一只 蝴蝶扇动了两下翅膀,可能两周之后会 引发美国德克萨斯州的一场龙卷风。
“失之毫厘,差之千里”。初始条件的 微小的差别能引起结果的巨大的差异。
6
复杂网络: Internet
❖具有小世界效应和无尺度特性
7
不确定性
➢人类认知过程的不确定性 ✓感知的不确定性
✓记忆的不确定性 ✓思维的不确定性
17
不确定性的表示与量度
知识不确定性的表示 在确立其表示方法时,有两个直接相关的因素需 要考虑: 1) 要能根据领域问题的特征把其不确定性比较 准确地描述出来,满足问题求解的需要; 2) 要便于推理过程中对不确定性的推算. 证据不确定性的表示 在推理中,有两种来源不同的证据: 1) 一种是用户在求解问题时提供的初始证据; 2) 另一种是在推理中用前面推出的结论作为当
CF(E1∨E2, E ' ) = max[CF(E1, E ' ), CF(E2, E ' )] 当两条规则支持同一结论H时,可表示为
30
不确定性的组合
当组合证据是多个单一证据的合取时,即: E = E1 and E2 and … and En 若已知 CF(E1), CF(E2),…, CF(En),则 CF(E) = min {CF(E1), CF(E2),…, CF(En) }
(3) 不确定性推理中所推得的结论是否有效,也取决于其 信度是否达到阈值。
(4)不确定性推理还要求有一套关于信度的计算方法,包括 “与”关系的信度计算、 “或”关系的信度计算、“非”关系 的信度计算和推理结果信度的计算等等。
22
不确定性推理模型
不确定性推理模型没有一个统一的模型,种类不计其数, 其中比较著名的有:

第五章不确定性推理方法(简s2)

第五章不确定性推理方法(简s2)

S
E
C
• E与L在S条件下独立,P(E|S,C,L) = P(E|S,C), • L与C在S, E条件下独立,P(L|S,C)= P(L|S) • C与S在E条件下独立,P(C|S)=P(C) • 以上三条等式可从Bayes网的条件独立性和后面的D分离定 义中得到。 • 简化后的联合概率密度为, P( S , C, L, E ) = P( E | S , C ) * P( L | S ) * P(C ) * P( S ) 若原Bayes网中条件独立语义较多,计算量减少更明显。 • 如何判定个节点之间的条件独立性? • D分离!!
《人工智能原理》第五章 不确定性推理
贝叶斯网络(事件的独立性)
• 独立:如果X与Y相互独立,则 P(X,Y) = P(X)P(Y) P(X|Y) = P(X) • 条件独立:如果在给定Z的条件下,X与Y相互 独立,则 P(X|Y, Z) = P(X|Z) 实际中,条件独立比完全独立更重要
《人工智能原理》第五章 不确定性推理
《人工智能原理》第五章 不确定性推理
贝叶斯网络(计算)
• 有向无环图是各个节点变量关系传递的 合理表达形式。 • 条件独立的引入使得计算较之全连接网 络有了大大的简化。 • CPT表相对比较容易得到。
《人工智能原理》第五章 不确定性推理
贝叶斯网络(计算续)
• 简单的联合概率可以直接从网络关系上得到
贝叶斯网络( D分离(例3))
Y X X—草湿 Y—洒水 Z—彩虹 W—长虫 P(X,Y) = P(X)P(Y) P(X|Y,Z) = P(X|Z)
Z
W X X—草湿 Y—洒水 Z—彩虹 W—长虫
Y
P(X,Y) ≠ P(X)P(Y) P(X|Y,Z) ≠ P(X|Z)

人工智能导论_第5章

人工智能导论_第5章
i
i
i
《人工智能原理》第五章 不确定性推理
i
概率论基础(贝叶斯定理 )
• 设 A , B1 , B2 , … , Bn 为 一 些 事 件 , P(A)>0 , B1 , B2 , … , Bn 互 不 相 交 , P(Bi)>0, i=1, 2, …, n,且 P(B ) 1 ,则对 于k=1, 2, …, n,
n n
n n

n
n
P( B )
《人工智能原理》第五章 不确定性推理
An B
P( A )
n
概率论基础(统计概率性质 )
• 对任意事件A,有 0 P( A) 1 • 必然事件Ω 的概率P(Ω ) =1,不可能事件 φ 的概率P(φ ) = 0 P(~ A) 1 P( A) • 对任意事件A,有 P( A ) P( A ) P( A ) ... P( A ) • 设事件 A1 , A2 , …An ( k≤n )是两两互 不相容的事件,即有,则 • 设A,B是两事件,则
《人工智能原理》第五章 不确定性推理
第五章 不确定性推理
• 概述 • 概率论基础 • Bayes网络 • 主观Bayes方法 • 确定性方法 • 证据理论
《人工智能原理》第五章 不确定性推理
概述
• 不精确思维并非专家的习惯或爱好所至, 而是客观现实的要求。
–很多原因导致同一结果 –推理所需的信息不完备 –背景知识不足 –信息描述模糊 –信息中含有噪声 –规划是模糊的 –推理能力不足 –解题方案不唯一
0 P( A) 1 P () 1 P( ) 0 –若二事件AB互斥,即,则 P( A B) P( A) P( B)

AI第五章经典逻辑推理

AI第五章经典逻辑推理

AI第五章经典逻辑推理第五章经典逻辑推理在人工智能(AI)的发展中,逻辑推理是一项至关重要的技能。

它涉及到根据事实和规则进行推理和推断,以得出准确的结论。

本章将介绍一些经典的逻辑推理方法和应用。

1. 命题逻辑命题逻辑是逻辑推理的基础,它是传统逻辑推理中最常用的形式之一。

在命题逻辑中,我们使用命题来表示事实或陈述,并使用逻辑运算符进行推理。

逻辑运算符包括与、或、非等。

命题逻辑推理的典型应用是推理规则的模拟。

例如,如果我们知道“A是B”,并且还知道“B是C”,那么我们可以推断出“A是C”。

通过使用合适的推理规则和逻辑运算符,我们可以从给定的事实中推导出新的结论。

2. 谓词逻辑谓词逻辑是对命题逻辑的扩展,它引入了谓词和量词的概念。

谓词用于描述属性或关系,量词用于描述命题的数量。

谓词逻辑推理在表达能力上更丰富,可以处理更复杂的问题。

例如,通过使用谓词逻辑,我们可以更好地描述关系,如“所有人都喜欢音乐”,或者处理存在量词,如“存在一个城市,每个人都爱好音乐”。

3. 归结推理归结推理是一种用于求解逻辑问题的常用方法。

它基于归结原理,通过将待证明命题与已知命题进行推理,并最终得出结论。

归结推理通常用于解决谓词逻辑问题。

它的基本思想是将命题转化为子句集合,并通过消解操作来简化问题。

通过适当的推理步骤,我们可以从已知的命题中推导出新的结论。

4. 例证推理例证推理是一种基于已有证据的推理方法。

它的核心是根据已有的案例或实例进行推理,从而得出结论。

例证推理在机器学习和数据挖掘中被广泛应用。

通过分析已有的数据和案例,我们可以发现模式和规律,并将这些规律应用于新的问题中。

这种推理方法是基于类似性的推理,它认为类似的案例有相似的解决方法。

5. 模态逻辑模态逻辑是一种扩展的逻辑系统,它引入了模态词,用于表示命题的特性或状态。

常见的模态词包括必然、可能、必要等。

模态逻辑推理用于处理具有不确定性或可能性的命题。

它在人工智能的推理和知识表示中起着重要作用。

人工智能及其应用-不确定性推理方法-可信度方法

人工智能及其应用-不确定性推理方法-可信度方法

7
7
C-F模型
2. 证据不确定性的表示
静态强度CF(H,E):知识的强度,即当 E 所对应
的证据为真时对 H 的影响程度。 动态强度 CF(E):证据 E 当前的不确定性程度。
8
8
C-F模型
3. 组合证据不确定性的算法
组合证据:多个单一证据的合取
E=E1 AND E2 AND … AND En 则 CF (E)=min{CF (E1), CF (E2 ),..., CF (En )} 组合证据:多个单一证据的析取
0.28
15
CF (H , E):可信度因子(certainty factor),反映前提
条件与结论的联系强度 。
IF 头痛 AND 流涕 THEN 感冒 (0.7)
5 5
C-F模型
1. 知识不确定性的表示
CF(H,E)的取值范围: [-1,1]。 若由于相应证据的出现增加结论 H 为真的可信度, 则 CF(H,E)> 0,证据的出现越是支持 H 为真, 就使CF(H,E) 的值越大。 反之,CF(H,E)< 0,证据的出现越是支持 H 为 假,CF(H,E)的值就越小。 若证据的出现与否与 H 无关,则 CF(H,E)= 0。
不确定性推理方法
• 不确定性推理的基本概念 • 概率方法
可信度方法
• 证据理论 • 主观Bayes方法
1
1
可信度方法
• 1975年肖特里菲(E. H. Shortliffe)等人在 确定性理论(theory of confirmation)的基 础上,结合概率论等提出的一种不确定性 推理方法。
• 优点:直观、简单,且效果好。
H H

人工智能第五章 问题求解的基本原理

人工智能第五章 问题求解的基本原理

例如,把问题P分解为三个子问题P1,P2,P3, 可用图表示。如图:P1,P2,P3是问题P的三个 子问题,只有当这三个子问题都可解时,问题P才 可解,称P1,P2,P3之间存在“与”关系;称节 点P为“与”节点;由P,P1,P2,P3所构成的图 称为“与”树。在图中,为了标明某个节点是 “与”节点,通常用一条弧把各条边连接起来。
2 、等价变换:对于一个复杂问题,除了 可用“分解”方法进行求解外,还可利用 同构或同态的等价变换,把它变换为若干 个较容易求解的新问题。若新问题中有一 个可求解,则就得到了原问题的解。问题 的等价变换过程,也可用一个图表示出来, 称为“或”树。
例如,问题 P 被等价变换为新问题 P1, P2, P3。如
搜索的一般过程如下: ①把初始节点S0放入OPEN表,并建立目前只包含 S0的图,记为G。②检查OPEN表是否为空,若为 空则问题无解,退出。③把OPEN表的第一个节点 取出放入CLOSED表,并记该节点为节点 n。④考 察节点n是否为目标节点。若是,则求得了问题的 解,退出。⑤扩展节点n,生成一组子节点。把其 中不是节点 n先辈的那些子节点记作集合 M,并把 这些子节点作为节点n的子节点加入G中。
该过程与广度优先搜索的唯一区别是:广度优先搜 索是将节点n的子节点放入到OPEN表的尾部,而深度优 先搜索是把节点n的子节点放入到OPEN表的首部。
2、其搜索过程如下:
①把初始节点S0放入OPEN表。②如果OPEN表为空, 则问题无解,退出。③把OPEN表的第一个节点(记为节 点n)取出放入CLOSED表。④考察节点n是否为目标节点。 若是,则求得了问题的解,退出。⑤若节点 n不可扩展, 则转第②步。⑥扩展节点n,将其子节点放入到OPEN表 的首部,并为其配臵指向父节点的指针,然后转第②步。

D-S证据理论

D-S证据理论

[10] Smets, P, and Kennes, R. The transferable belief model. Artificial
Intelligence, 1994, 66: 191-234. 精选版课件ppt
4
本章的主要参考文献(续2)
[11] Voobraak, F. A computationally efficient approximation of DempsterShafer theory. International Journal of Man-Machine Study, 1989, 30: 525-536.
精选版课件ppt
6
本章的主要参考文献(续4)
[19] 段新生. 证据理论与决策、人工智能. 中国人民大学出版社, 1993.
[20] 徐从富 等. Dempster-Shafer证据推理方法理论与应用的综述. 模 式识别与人工智能, 1999, 12(4): 424-430.
[21] 徐从富 等. 面向数据融合的DS方法综述. 电子学报, 2001, 29(3): 393-396.
[22] 徐从富 等. 解决证据推理中一类“0绝对化”问题的方法. 计算机 科学, 2000, 27(5): 53-56.
[23] 李岳峰 等. 证据理论中的近似计算方法. 吉林大学自然科学学报, 1995, (1):28-32.
[24] 刘大有 等. 广义证据理论的解释. 计算机学报, 1997, 20(2): 158-164.
[25] 刘大有 等. 凸函数证据理论模型. 计算机研究与发展, 2000, 37(2):
175-181.
精选版课件ppt
7
本章的主要参考文献(续5)
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

常识往往对环境有极强的依存性。

2013-8-22
4
5.1 概述
知识的不确定性
智能主要反映在求解不确定性问题的能力上。 推理是人类的思维过程,它是从已知事实出发, 通过运用相关的知识逐步推出某个结论的过程。 其中已知事实和知识是构成推理的两个基本要 素。 已知事实(证据),用以指出推理的出发点 及推理时应使用的知识; 知识是推理得以向前推进,并逐步达到最终 目标的依据。
2013-8-22
17
3.语义问题


语义问题指上述表示和计算的含义是什么。如C(H,E)可理 解为当前提E为真时,对结论H为真的一种影响程度,C(E) 可理解为E为真的程度。 处理不确定性问题的主要数学工具:

概率论 模糊数学

概率论与模糊数学所研究和处理的是两种不同的不确定性。
2013-8-22

2013-8-22
26
5.3 主观BayeБайду номын сангаас方法

处理不确定性的主要理论基础:

传统概率论中的Bayes理论;
2013-8-22
27
5.3 主观Bayes方法

1、应用Bayes理论于不确定推理

先验概率
表示为p(事件)
; 在没有知识支持它的出现或不出现的情况下赋给这 个事件的概率; 即,先于证据的概率;

⑴后验概率
P——症状,如,患有头疼的人; Q——疾病,如,脑膜炎病人;
病状
疾病
p(Q/P)——带有症状P的人患疾病Q的后验概率; p(P/Q)——患疾病Q的人带有症状P的后验概率;
先验概率p(P) p(P)=0.001
p( P / Q) p(Q) p(Q / P) p( P)

2013-8-22
6
确定性推理是建立在经典逻辑基础上的 经典逻辑的基础之一就是集合论 这在很多实际情况中是很难做到的,如高、矮、 胖、瘦就很难精确地分开。 经典逻辑不适合用来处理不确定性。

2013-8-22
7
不确定推理是建立在非经典逻辑基础上的一种 推理,它是对不确定性知识的运用与处理。 不确定性推理就是从不确定性初始证据出发, 通过运用不确定性的知识,最终推出具有一定 程度的不确定性但却是合理或者近乎合理的结 论的思维过程。
如,“某地发生地震”的概率;

应用Bayes理论获得确定性程度p(Q|P) :


【问题——同类事件出现的频率不高】:

2013-8-22
32
5.3 主观Bayes方法

1、应用Bayes理论于不确定推理

⑵主观Bayes方法
p( P / Q) p(Q) p(Q / P) p( P)
先验概率p(P)比先验概率p(Q)更难获得; 对Bayes理论进行改进,消去先验概率p(P);

2013-8-22
13
(1)不确定性的传递算法 已知规则的前提E的不确定性C(E)和规则强度f(H, E),求假设H的不确定性C(H), 即定义函数f1,使得: C(H)=f1(C(E),f(H,E))
2013-8-22
14
(2)结论不确定性合成 即已知由两个独立的证据E1和E2,求得的假设H的 不确定性度量C1(H)和C2(H),求证据E1和E2的组 合导致的假设H的不确定性C(H),即定义函数f2, 使得: C(H)=f2(C1(H),C2(H))

2013-8-22
8
5.1.2 不确定推理要解决的基本问题 由于证据和规则的不确定性,导致了所产生的结 论的不确定性。 不确定性推理反映了知识不确定性的动态积累和 传播过程,推理的每一步都需要综合证据和规则 的不确定因素,通过某种不确定性测度,寻找尽 可能符合客观实际的计算模式,通过不确定测度 的传递计算,最终得到结果的不确定测度。
常用组合证据的不确定性的计算方法有3种。 (a)最大最小法 C(E1∧E2)=min(C(E1),C(E2)) C(E1∨E2)=max(C(E1),C(E2)) (b)概率方法 C(E1∧E2)=C(E1)×C(E2) C(E1∨E2)= C(E1)+C(E2)-C(E1)×C(E2) (c)有界方法 C(E1∧E2)=max{0,C(E1)+C(E2)-1} C(E1∨E2)=min{1,C(E1)+C(E2)}
它通过定义信任函数、似 然函数,把知道和不知道 区别开来。这些函数满足 比概率函数的公理要弱的 公理,因此,概率函数是 信任函数的一个子集。
2013-8-22
它是MYCIN专家系统 中使用的不确定推理 模型,它以确定性理 论为基础,方法简单、 易用。
25
基于概率的方法没有把事物自身所具有的模糊性反 映出来。 Zadeh提出模糊集理论。 概率论处理的是由随机性引起的不确定性,可能性理 论处理的是由模糊性引起的不确定性。

不确定推理在确定性推理方法的基础上发展起来



3种不确定推理方法(不同的确定性程度定义): 5.3 主观Bayes方法 5.4 可信度方法 5.5 证据理论
2013-8-22
3
常识(common

sense)具有不确定性。
一个常识可能有众多的例外,一个常识可能是 一种尚无理论依据或者缺乏充分验证的经验。 “鸟是会飞的”,“常在河边走,哪能不湿 鞋”。
先验概率p(P) p(P)=0.04
p( P / Q) p(Q) p(Q / P) p( P)
=0.88
征兆P p(P/Q)=0.7 p(Q)=0.05 原因Q 先验概率p(Q)
31
2013-8-22
5.3 主观Bayes方法

处理不确定性的主要理论基础:

传统概率论中的Bayes理论; 收集大量的样品事件来统计p(P) p(Q) p(P|Q) ; 无法作客观概率统计,获取其客观概率;

2013-8-22
20
对于一个专家系统,一旦给定了上述不确定性 的表示、计算及其相关的解释,就可以从最初 的观察证据出发,得出相应结论的不确定性程 度。 专家系统的不确定性推理模型指的就是证据和 规则的不确定性的测度方法以及不确定性的组 合计算模式。

2013-8-22
21
5.1.3 不确定性推理方法分类
p(P)——前提P的先验概率; p(Q)——结论Q的先验概率; p(P/Q)——后验概率

结论Q成立时前提P成立的概率;

后验概率p(P/Q)比后验概率p(Q/P)更容易获取
由等式①获得后验概率p(Q/P)

29
2013-8-22
5.3 主观Bayes方法

1、应用Bayes理论于不确定推理
2013-8-22
15
(3)组合证据的不确定性算法 已知证据E1和E2的不确定性度量C(E1)和C(E2),求 证据E1和E2的析取和合取的不确定性,即定义函数 f3和f4使得: C(E1∧E2)=f3(C(E1),C(E2)) C(E1∨E2)=f4(C(E1),C(E2))
2013-8-22
16
症状P
=0.09
p(P/Q)=0.9 疾病Q
p(Q)=0.0001
先验概率p(Q)
30
2013-8-22
5.3 主观Bayes方法

1、应用Bayes理论于不确定推理

⑴后验概率
征兆
原因
P——征兆(病症),汽车轮子发出刺耳的噪声; Q——原因(疾病),汽车刹车失调; 后验概率p(Q/P);
两种不确定性推理:
把不确定证据和不确定 的知识分别与某种量度 标准对应起来,并且给 出更新结论不确定性算 法,从而建立不确定性 推理模式。 通过识别领域中引起不 确定性的某些特征及相 应的控制策略来限制或 减少不确定性对系统产 生的影响,这类方法没 有处理不确定性的统一 模型,其效果极大地依 赖于控制策略。
2013-8-22
33
5.3 主观Bayes方法

2013-8-22
10
1.表示问题
表示问题指的是采用什么方法描述不确定性。通 常有数值表示和非数值的语义表示方法。数值表示 便于计算、比较;非数值表示,是一种定性的描述。 在专家系统中的“不确定性” 分为: 规则的不确定性 事实的不确定性

2013-8-22
11
(1)规则不确定性 (E→H,f(H,E)), (2)证据不确定性 (E,C(E)), 证据不确定性的表示方法应与知识不确 定性的表示方法保持一致,证据的不确 定性通常也是一个数值表示,它代表相 应证据的不确定性程度,称之为动态强 度。
第五章
不确定推理
2013-8-22
1
前言

【传统逻辑的系统】

“硬”计算 要求使用确定的和精确的数据及知识;

【解决实际问题】

人的认识常常是不确定的或不精确的;
模糊性; 近似性;

不能以简单的真假逻辑加以表示;
2013-8-22
2
前言

不确定推理

模仿人作近似而非严格推理的“软”计算技术; 使用不确定的和不精确的数据及知识; 把指示确定性程度的数据附加到数据及知识;

后验概率
表示为p(事件/证据)
; 给定一些证据的条件下这个事件发生的概率;
推理规则PQ的不确定性表示为后验概率p(Q/P)
2013-8-22 28
5.3 主观Bayes方法

1、应用Bayes理论于不确定推理

⑴后验概率
Bayes理论有以下条件概率公式★
相关文档
最新文档