神经网络控制大全
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
r 0,1,2, , L 1
按
nL1
y pj
L
(
Net
L pj
)
L (
w oL (L1) jl pi
L j
)
i 1
计算各输出层神经的激励输出:
j 1,2, , n0
3)、计算误差 E [(tk yk )2 / 2] E, 1,2, , n0
4)、按下式计算广义误差
L pj
L pj
E p
Neti
(2)、分段线性型
0 f (Neti ) kNeti
fmax
Neti Neti0 Neti0 Neti Netil Neti Netil
(3)、Sigmoid函数型
1
f (Neti )
Neti
1 e T
Neti0
Netil
Neti
Neti
(4)、Tan函数型
Neti
Neti
)
k
5)、调整权阵系数
wrji
r pj
o( r 1) pi
r j
r pj
6)、 若p P, p p 1,转20,否则转70。
7)、 若E Emax,结束,否则 E 0, p 1, 转20
实际上,对训练过程有较大影响的有:权系数的初值、学习方式、激励函数、 学习速率等
(1)、权系数的初值 权系数通常初始化成小的初始值,尽可能覆盖整个 权阵的空间域,避免出现初始阵系数相同的情况。
wjk x j xk )
j 1
j1 k 1
二、单层神经网络结构
x1
y1
x2
y2
xn
yn
图2-13 单层前向传播网络结构示意图
nj
yi ( wij x j i ) j 1
三、多层神经网络结构
x1k
y1k
x2k
y2k
xni k
yn0k
wi1j
wi2j
(a)
x1k
y1k
x2k
y2k
xni k wi1j
小来进行权阵的学习和训练。通常一个周期一个周期进行训练,一个周期对 所有的样本集,完成后下一个周期对此样本集进行重复训练,直到性能指标E 满足要求为止。
对于多层前向传播网络
x1k
y1k
x2k
y2k
xni k wi1j
yn0k wiLj
(b)
图4-14 多层前向传播网络结构示意图 (b)含L+1个隐含层前向传播网络结构示意图
前向网络
人
工
神
经
反馈网络
网
络
自组织网络
CMAC MLP Hopfield Boltzman Machine RNN Kohonen ART
图4-1 神经网络结构分类示意图
一、神经元模型
人脑大约包含1012个神经元,分成约1000种类型, 每个神经元大约与102~104个其他神经元相连接, 形成极为错综复杂而又灵活多变的神经网络。每 个神经元虽然都十分简单,但是如此大量的神经 元之间、如此复杂的连接却可以演化出丰富多彩 的行为方式。同时,如此大量的神经元与外部感 受器之间的多种多样的连接方式也蕴含了变化莫 测的反应方式。
n
y (Net) (0 wj x j ) j 1
x1
x1
x2
xn
x1
xn
x2
xn
w11 w12
w1n wn1 wn2
wnn
y
图4-12 只含二次项的神经元结构示意图
n
nn
Net 0 wj x j
wjk x j xk
j 1
j1 k 1
n
nn
y (Net) (0 wj x j
研究神经元网络系统主要有三个方面的内容:神经元模型、神经网络结构、 神经网络学习方法。从神经元模型来分有:线性处理单元、非线性处理单元; 从网络结构来分有:前向网络、反馈网络和自组织网络。
神经元网络的特点:
1)非线性 2)分布处理 3)学习并行和自适应 4)数据融合 5)适用于多变量系统 6)便于硬件实现
1943年,心理学家McCmloch和数学家Pitts合作提出里神经元数学模型(MP); 1944年,Hebb提出的改变神经元连接强度的Hebb规则; 1957年,Rosenblatt引进感知概念; 1976年,Grossberg基于生理和心理学的经验,提出了自适应共振理论; 1982年,美国加州工学院物理学家Hopfield提出了HNN模型; 1986年,Rummelhart等PDF研究小组提出了多层前向传播网络的BP学习算法。
设输入模式Xp,则相应的隐含单元的输出为
nj
o(1) pj
1(
w1ji xpi i1)
i 1
根据L层网络结构可知,网络输出为:
nL1
y pj
L
(
Net
L pj
)
L (
Leabharlann Baidu
w oL (L1) jl pi
L j
)
i 1
j 1,2, , n0
第r+1个隐含层的输入是第r个隐含层的输出,所以:
nr
o(r1) pj
从生物控制论的观点来看,神经元作 为控制和信息处理的基本单元,具有下列
一些重要的功能与特性:
• 时空整合功能 • 兴奋与抑制状态 • 脉冲与电位转换 • 神经纤维传导速度 • 突触延时和不应期 • 学习、遗忘和疲劳
神经元是生物神经系统的基本单元。 神经元模型是生物神经元的抽象和模拟。 神经元一般是多输入-三输出的非线性器件。
对于N个样本集,性能指标为:
N
N n0
E Ep
(t pi ypi )
p1
p1 i1
对于具有n0个输出的单元网络,每一个期望输出矢量Tp和实际的输出矢量 Yp之间的误差函数可以用平方差和来表示,即
Ep
1 2
n0
(t pi
j 1
y pi )2
一般说,前向神经网络是通过期望输出与实际输出之间的误差平方的极
r pj
o( r 1) pi
式中:上标变量表示第r个隐含层,r=1,2,……,L;wrji 为第r-1层第i个单
元到第r层的第j单元的连接系数; 为学习步长。
若r=L为输出单元层,则:
L pj
E p
Net
r pj
Ep y pj
y pj
Net
L pj
(t pj
y pj
)L
(
Net
L pj
)
若 r L 为输出单元层,则:
(2)、学习方式 学习方式不同,训练的效果也不同
(3)、激励函数 激励函数的选择对训练有较大的影响。
(4)、学习速率 一般来说,学习速率越快,收敛越快,但容易产生震荡; 学习速率越小,收敛越慢。
BP学习算法本质上是属于一次收敛的学习算法。所以BP算法不可避免存 在局部极小问题,且学习速度很慢,在极点附近出现震荡现象,而且不能 够平滑趋于最优解。为了减小这种现象,一般采用平滑的权值更新公式, 即:
[
[1(W 1X
)]
L2]
L1}
L)
四、多层传播网络学习算法 前向传播网络实质上表示的是一种从输入空间输出空间的映射。
Y T(X)
网络的训练实质上是对突触权阵的调整,以满足当输入为Xp时其输出应为Tp.
对于一组给定的权系数,网络对当前输入Xp的响应为:Yp T (X p ) 突触权系数的调整是通过对样本p=1,2,3,…….,N的误差指标 Ep d(Tp,Yp ) 达到极小的方法来实现的。
X1 Wi1
Ui
X2 Wi2
yi
Win
Xn
Si
图4-2 神经元结构模型
图中 ui 为神经元内部状态; i 为阀值; xi 为输入信号,j=1,2,
3,…….n; wij 表示从单元 u j 到单元ui 的连接系数, si 为外部输入信号。
Neti wij x j si i
j
ui f (Neti )
r1(
w o r1 (r ) ji pl
) r 1
j
l 1
r 0,1,2, , L 1
多层前向传播网络的权系数训练算法是利用著名的误差反向传播 学系算法得到的——BP算法
因为:
Ep
1 2
n0
(t pi
j 1
y pi )2
wrji
E p wrji
E p wrji
E p
Net
r pj
Net
r pj
神经网络控制
人工神经元网络模型与控制
• 引言 • 前向神经网络模型 • 动态神经网络模型 • 神经网络PID控制 • 小结
第一节 引言
模糊控制解决了人类语言的描述和推理问题,为模拟人脑的感知推理等 智能行为迈了一大步。但是在数据处理、自学习能力方面还有很大的差距。
人工神经网络就是模拟人脑细胞的分布式工作特点和自组织功能实现并 行处理、自学习和非线性映射等能力。
1、有导师学习——存在一个期望的网络输出。期望输出和实际输出之间的 距离作为误差度量并用于调整权值。
2、无导师学习——没有直接的误差信息,需要建立一个间接的评价函数, 以对网络的某种行为进行评价。
学习规则根据连接权系数的改变方式分:
(1)、相关学习——根据连接之间的激活水平改变权系数。 (2)、纠错学习——依赖关于输出节点的外部反馈改变权系数。 (3)、无导师学习——学习表现为自动实现输入空间的检测和分类。
(2)、反馈网络——在输入层到输出层存在反馈。
(3)、相互结合型网络——相互结合网络属于网络结构。任意两个神经元之 间可能有连接。
(4)、混合型网络——层次形型网络和网状结构网络的一种结合。
输
输
入…
…
出
输
输
入
出
(a) (b)
(c)
(d)
三、神经网络的学习算法
学习的实质就是针对一组给定输入Xp使网络产生相应的期望的输出的过程。 网络学习分两大类:
e T e T
f (Neti ) Neti
Neti
e T e T
二、神经网络的模型分类
(1)、神经元层次模型 ——研究由单个神经元的动态特性和自适应特性;
(2)、组合式模型——由几种互相补充、互相协作的神经元组成,完成特定的 任务;
(3)、网络层次模型——由众多相同的神经元相互连接而成的网络,研究神经 网络的整体性能;
yn0k wiLj
(b)
图4-14 多层前向传播网络结构示意图 (a)含一个隐含层前向传播网络结构示意图 (b)含L+1个隐含层前向传播网络结构示意图
j
nj
w1jl xl
j
i1
y j
nh
wi2j xl
i
j0
j 1,2,3, nh j 1,2,3, n0
F
L (W
LL1{W
L1 L2
r pj
E p
o
r pj
o rpj
Net
r pj
k
(
E p
Net
r 1 pk
Net
r 1 pk
o
r pj
)r
(
Net
r pj
)
(
r 1 pk
wr 1 kj
)r
(
Net
r pj
)
k
BP学习算法步骤:
给定P组样本(X1,T1;X2,T2;……,Xp,Tp)。其中Xi为ni维输入矢量,T维n0维期 望的输出矢量I=1,2,…..,p。假如矢量y和0分别表示网络的输出层和隐含层的输 出矢量。则训练过程为:
Net
r pj
Ep y pj
y pj
Net
L pj
(t pj
y pj
)L
(Net
L pj
)
按下式计算广义误差
r pj
r pj
Ep
o
r pj
o
r pj
Net
r pj
k
(
E p
Net
r 1 pk
Net
r 1 pk
o
r pj
)r
(
Net
r pj
)
(
r 1 pk
wr 1 kj
)r
(
Net
r pj
(4)、神经系统层次模型——一般有多个神经网络构成,以模拟生物神经系统 更复杂、更抽象的特性。
典型的神经网络有:BP网、Hopfield网络、CMAC小脑模型、ART自适应共振 理论、BAM双向联想记忆、SOM自组织网络、Blotzman机网络和Madaline网 络等等
根据联结方式分:
(1)、前向网络——神经元分层排列,组成输入层、隐含层和输出层。每层 只能够接受前一层神经元的输入。
第二节 前向神经网络模型
前向神经网络是由一层或者多层非线性处理单元组成的。相邻层之间通
过突触权连接起来。由于前一层的输出作为下一层的输入,因此,称此类网 络结构为前向神经网络。
一、单一人工神经元
1
0
X1
w1
X2
w2
Xn
wn
(x) y
图4-11 单一人工神经元示意图
n
Net 0 wj x j j 1
yi g(ui ) h(Neti )
(4 1)
(4 2) (4 3)
X1 Wi1
Ui
X2 Wi2
yi
Win
Xn
Si
图4-2 神经元结构模型
假如,g(ui ) ui 即 yi f (Neti ) ,常用的神经元非线性特性有四种:
(1)、阀值型
1 f (Neti ) 0
Neti 0 Neti 0
wrji
其中 则
Net
r pj
wrji
wrji
w o o r (r1) jk pk
(r 1) pi
k
E p
Net
r pj
or (r1) pj pi
定义
r pj
E p
Net
r pj
为广义误差
因为
E p
Net
r pj
or (r1) pj pi
要使E安梯度下降,就必须按下式进行权值的调整
wrji
1)、选 0 , Emax 作为最大容许误差,并将权系数W l、 l ,l 1,2, ,L ,初始 化成某小的随机权矩阵。
p 1, E 0
2)、训练开始,
o(0) p
X p,T
Tp
按
nr
o(r1) pj
r 1 (
w o r1 (r ) ji pl
) r 1
j
l 1
计算出各隐含层神经元的激励输出;