高级人工智能课件4
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
层次
BI
B-生物的
知识
(+)传感数据 ANN APR
AI
A-符号的
计算 (+)传感器 CNN CPR CI
C-数值的
复杂性
2020/10/15
6
当一个系统只涉及数值(低层)数据,含 有模式识别部分,不应用人工智能意义上 的知识,而且能够呈现出:
(1)计算适应性; (2)计算容错性; (3)接近人的速度; (4)误差率与人相近,
30
4.4 粗糙集理论
粗糙集理论(Rough Set theory)是1982年由波兰数学家 Z.Pawlak提出的,当时没 有引起国际计算机学界和数学界的重视,研究仅限于东欧的一些国家,直到20 世纪80年代末才逐渐引起各国学者的注意。 1991年,Pawlak 发表了专著《Rough Set:Theoretical Aspects of Reasoning about Data》,奠定了粗糙集理论的基础。1992年,在波兰召开了第一届国际 粗糙集研讨会,这次会议着重讨论了集合近似的基本思想及其应用,其中粗糙 环境下的机器学习的基础研究是这次会议的四个专题之一。1993年在加拿大召 开了第二届国际粗糙集与知识发现研讨会,这次会议积极推动了国际上对粗糙
x1
w11
y1
w1m
x2
输入层
yn 隐层
输出层
图4.5 前馈网络
2020/10/15
15
人工神经网络的主要学习算法
有师学习算法:能够根据期望的和实际 的网络输出(对应于给定输入)间的差 来调整神经元间连接的强度或权。
无师学习算法:不需要知道期望输出。
强化学习算法:采用一个“评论员”来 评价与给定输入相对应的神经网络输出 的优度(质量因数)。强化学习算法的 一个例子是遗传算法(GA)。
信号处理 知识处理 实时分类 线性分类,预测 分类,噪声抑制 分类 数据自组织 自组织映射 组合优化 组合优化 控制 模式匹配,控制 语音/图象处理
18
4.2.5 基于神经网络的知识表示与推理
基于神经网络的知识表示
在这里,知识并不像在产生式系统 中那样独立地表示为每一条规则,而是 将某一问题的若干知识在同一网络中表 示。例如,在有些神经网络系统中,知 识是用神经网络所对应的有向权图的邻 接矩阵及阈值向量表示的。
A1An (u1 , u2 ,, un ) min A1 (u1 ),, An (un )
A1 (u1) A2 (u2 ) An (un ) (4.18)
定义4.5 模糊关系
若U,V是两个非空模糊集合,则其直积U×V
中的模糊子集R称为从U到V的模糊关系,表示为:
U V ((u,v), R (u,v)) | u U ,v V
9
4.2.2 人工神经网络的结构
-1 X1 W j 1
X2
Wj2 ···
Σ ( )
Yi
W jn
Xn
图4.2 神经元模型
2020/10/15
10
图4.2中的神经元单元由多个输入xi,i=1,2,...,n 和一个输出y组成。中间状态由输入信号的权
和表示,而输出为
n
y j (t) f ( w ji xi j )
前提1:x为A’
前提2:若x为A,则y为B 结 论:y为B’
2020/10/15
25
广义拒式(否定结论)假言推理法(GMT, Generalized Modus Tollens) 的推理规 则可表示为: 前提1:y为B 前提2:若x为A,则y为B 结 论:x为A’
模糊变量的隐含函数基本上可分为三类, 即模糊合取、模糊析取和模糊蕴涵。
umax (40 50) / 2 45
2020/10/15
29
3. 系数加权平均法
系数加权平均法的输出执行量由下式决 定:
u ki xi / ki
(4.41)
式中,系数的选择要根据实际情况
而定,不同的系统就决定系统有不同的
响应特性。ki=μN(xi)就是重心法。
2020/10/15
则该系统就是计算智能系统。
当一个智能计算系统以非数值方式加上知 识(精品)值,即成为人工智能系统。
2020/10/15
7
4.2 神经计算 4.2.1 人工神经网络研究的进展
1960年威德罗和霍夫率先把神经网络用于自 动控制研究。
60年代末期至80年代中期,神经网络控制与 整个神经网络研究一样,处于低潮。
N ( xi ) ={ X: 0.0/0 + 0.0/10 + 0.33/20 + 0.67/30
+ 1.0/40 + 1.0/50+ 0.75/60 + 0.5/70 + 0.25/80 +
0.0/90 + 0.0/100 }
2020/10/15
27
1. 重心法
重心法就是取模糊隶属函数曲线与横坐标轴
于最一般的情况,此函数取
形式。
f i ( wij x j i)
2020/10/15
j
13
递归(反馈)网络: 在递归网络中,多 个神经元互连以组 织一个互连神经网 络,如图4.4。
x1
x1’
V1
x2
x2’
V2
xn
xn’
输入
Vn 输出
图4.4 反馈网络
2020/10/15
14
反向传播
前馈网络:前馈网 络具有递阶分层 结构,由同层神 经元间不存在互 连的层级组成, 如图4.5。
(4.19)
2020/10/15
24
4.3.2 模糊逻辑推理
模糊逻辑推理是建立在模糊逻辑基础上的不确 定性推理方法,是在二值逻辑三段论基础上发 展起来的。这种推理方法以模糊判断为前提, 动用模糊语言规则,推导出一个近似的模糊判 断结论。
广义取式(肯定前提)假言推理法(GMP)推理规则 可表示为:
2. 最大隶属度法
这种方法最简单,只要在推理结论的模糊集 合中取隶属度最大的那个元素作为输出量即可。 要求这种情况下其隶属函数曲线一定是正规凸模 糊集合(即其曲线只能是单峰曲线)。
例如,对于“水温适中”,按最大隶属度原
则,有两个元素40和50具有最大隶属度1.0,那就 对所有取最大隶属度的元素40和50求平均值,执 行量应取:
2020/10/15
26
4.3.3 模糊判决方法
在推理得到的模糊集合中取一个相对最能代 表这个模糊集合的单值的过程就称作解模糊 或模糊判决(Defuzzification)。模糊判决可 以采用不同的方法:重心法、最大隶属度方 法、加权平均法、隶属度限幅元素平均法。
下面介绍各种模糊判决方法,并以“水温适 中”为例,说明不同方法的计算过程。这里 假设“水温适中”的隶属函数为:
当u满足 μF(u) =1,称为核。也就是λ =1的截集。
1
wenku.baidu.com
λ
核
支集
λ截集
2020/10/15
22
定义4.3 模糊集的运算
设A和B为论域U中的两个模糊集,其隶属函数分别为μA 和μB,则对于所有uU ,存在下列运算: A与B的并(逻辑或)记为A∪B,其隶属函数定义为:
μA∪B (u)= μA(u)μB(u) =max{μA(u), μB(u)} (4.15) A与B的交(逻辑与)记为A∩B ,其隶属函数定义为:
μA∩B (u)= μA(u)μB(u) =min{μA(u), μB(u)} (4.16) A的补(逻辑非)记为 Ã,其传递函数定义为:
μÃ(u)=1- μA(u)
(4.17)
2020/10/15
23
定义4.4 直积(笛卡儿乘积,代数积)
若A1,A2,…,An 分别为论域 U1,U2,…,Un中的模糊集 合,则这些集合的直积是乘积空间U1,U2,…,Un中一个 模糊集合,其隶属函数为:
计算智能取决于制造者(manufacturers)提
供的数值数据,不依赖于知识;另一方面,
传统人工智能应用知识精品(knowledge tidbits)。人工神经网络应当称为计算神经 网络。
2020/10/15
4
计算智能与人工智能的区别和关系
A-Artificial,表示人工的(非生物的); B-Biological,表示物理的+化学的+
2020/10/15
16
人工神经网络的典型模型
表 4.2 人工神经网络的典型模型
模型名称 AG SG
ART-I DH CH BAM AM
ABAM CABAM
FCM LM DR LAM
有师或无师 无 无 无 无 无 无 无 无 无 无 有 有 有
学习规则 Hebb 律 Hebb 律 竞争律 Hebb 律 Hebb/竞争律 Hebb/竞争律 Hebb 律 Hebb 律 Hebb 律 Hebb 律 Hebb 律 Hebb 律 Hebb 律
2020/10/15
1
第四章 计算智能
4.1 概述 4.2 神经计算 4.3 模糊计算 4.4 粗糙集理论 4.5 遗传算法 4.6 进化策略
4.7 进化编程 4.8 人工生命 4.9 粒群优化 4.10 蚂群算法 4.11 自然计算 4.12 免疫算法
2020/10/15
2
4.1 概述
信息科学与生命科学的相互交叉、相互 渗透和相互促进是现代科学技术发展的 一个显著特点。
(?)=生物的;
C-Computational,表示数学+计算机
计算智能是一种智力方式的低层认知,它 与传统人工智能的区别只是认知层次从中 层下降至低层而已。中层系统含有知识 (精品),低层系统则没有。
2020/10/15
5
计算智能与人工智能的区别和关系
输入
复杂性
人类知识
BNN
(+)传感输入
BPR
2020/10/15
20
4.3 模糊计算
4.3.1 模糊集合、模糊逻辑及其运算
定义4.1 模糊集合(Fuzzy Sets)
论域U到[0,1]区间的任一映射 F ,
即 F :U [0,1],都确定U的一个模糊子集F;
F 称为F的隶属函数或隶属度。在论域U中,
可把模糊子集表示为元素u与其隶属函数 F (u)
计算智能涉及神经网络、模糊逻辑、进 化计算和人工生命等领域,它的研究和 发展正反映了当代科学技术多学科交叉 与集成的重要发展趋势。
2020/10/15
3
什么是计算智能
把神经网络(NN)归类于传统人工智能(AI) 可能不大合适,而归类于计算智能(CI)更 能说明问题实质。进化计算、人工生命和模
糊逻辑系统的某些课题,也都归类于计算智 能。
(4.1)
i 1
式中,j为神经元单元的偏置,wji为连接权系
数。 n为输入信号数目,yj为神经元输出,t为
时间,f( )为输出变换函数,如图4.3。
2020/10/15
11
图4.3 神经元中的某些变换(激发)函数
f(x) 1
0 x0
x
(a)
(a) 二值函数
2020/10/15
f(x)
f(x)
1
1
0
围成面积的重心作为代表点。理论上应该计算输
出范围内一系列连续点的重心,即
u x x N ( x)dx
x N ( x)dx
(4.40)
但实际上是计算输出范围内整个采样点的重心,
用足够小的取样间隔来提供所需要的精度,即:
u xi N (xi ) N (xi )
=48.2
2020/10/15
28
x
x
-1
(b)
(c)
(b) S形函数 (c) 双曲正切函数
12
人工神经网络的基本特性和结构
人工神经网络是具有下列特性的有向图:
对于每个节点 i 存在一个状态变量xi ; 从节点 j 至节点 i ,存在一个连接权系统数
wij; 对于每个节点 i ,存在一个阈值 i; 对于每个节点 i ,定义一个变换函数fi ;对
80年代后期以来,随着人工神经网络研究的 复苏和发展,对神经网络控制的研究也十分 活跃。这方面的研究进展主要在神经网络自 适应控制和模糊神经网络控制及其在机器人 控制中的应用上。
2020/10/15
8
人工神经网络的特性
并行分布处理 非线性映射 通过训练进行学习 适应与集成 硬件实现
2020/10/15
的序偶集合,记为:
F {(u, F (u)) | u U }
(4.12)
2020/10/15
21
定义4.2 模糊集的截集、支集和核
若模糊集是论域U中所有满足μF(u)≥λ 的元素u 构成的集合,则称该集合为模糊集F的截集。
若模糊集是论域U中所有满足μF(u)>0 的元素u 构成的集合,则称该集合为模糊集F的支集。
2020/10/15
19
基于神经网络的推理
基于神经网络的推理是通过网络计算实现 的。把用户提供的初始证据用作网络的输 入,通过网络计算最终得到输出结果。
一般来说,正向网络推理的步骤如下:
把已知数据输入网络输入层的各个节点。
利用特性函数分别计算网络中各层的输出。
用阈值函数对输出层的输出进行判定,从而 得到输出结果。
有
Adaline/Madaline
有
BP
有
AVQ
有
CPN
有
BM
有
CM
有
AHC
有
ARP
有
SNMF
有
2020/10/15
Hebb 律 Hebb 律 误差修正 误差修正 误差修正 误差修正 误差修正 Hebb 律 Hebb/模拟退火 Hebb/模拟退火 误差修正 随机增大 Hebb 律
正向 正向 正向 正向 反向 反向 反向 反向 反向 反向 反向 反向 反向
正向或反向传播 反向 反向 反向 反向 反向 反向 反向 反向 反向 反向 正向 正向 正向
应用领域 数据分类 信息处理 模式分类 语音处理 组合优化 图象处理 模式存储 信号处理 组合优化 组合优化 过程监控 过程预测,控制 系统控制
2020/10/15
17
续前表:
OLAM
有
FAM
有
BSB
有
Perceptron