第6篇 神经网络控制

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
29
神经网络训练的具体步骤如下
1.获取训练样本集
获取训练样本集合是训练神经网络的第一步,也是十分 重要和关键的一步。它包括训练数据的收集、分析、选择 和预处理等
2.选择网络类型与结构
神经网络的类型很多,需要根据任务的性质和要求来选 择合适的网络类型。
3.训练与测试
最后一步是利用获取的训练样本对网络进行反复训练, 直至得到合适的映射结果。 30
27
3.BP网络学习算法的改进



1). 增加“惯性项 2). 采用动态步长 3). 与其他全局搜索算法相结合 4). 模拟退火算法 目前在神经网络的学习中,基于梯度的 算法都不能从理论上保证收敛结果是全 局最优的。
28

6.2.4 神经网络的训练

可以任意逼近一个紧集上的任意函数这 一特点是神经网络广泛应用的理论基础。 但是,在实际应用中,目前尚未找到较 好的网络构造方法,确定网络的结构和 权值参数,来描述给定的映射或逼近一 个未知的映射,只能通过学习来得到满 足要求的网络模型。
18
6.2.2 BP网络

误差反向传播神经网络,简称BP网络 (Back Propagation),是一种单向传播 的多层前向网络。在模式识别、图像处 自适应控制等领域有着较为 广泛的应用。如图是BP网络的示意图。
19
20


误差反向传播的BP算法简称BP算法,其基本 思想是最小二乘算法。它采用梯度搜索技术, 以期使网络的实际输出值与期望输出值的误差 均方值为最小。 BP算法的学习过程由正向传播和反向传播组 成。在正向传播过程中,输入信息从输入层经 隐含层逐层处理,并传向输出层,每层神经元 (节点)的状态只影响下一层神经元的状态。 如果在输出层不能得到期望的输出,则转人反 向传播,将误差信号沿原来的连接通路返回, 通过修改各层神经元的权值,使误差信号最小。
3
4

其输入、输出关系可描述为
Ii
w
j 1
n
ij
x j i
yi f ( I i )

x j ( j 1,2, , n) 是从其他神经元传来的 其中, 输入信号;wij表示从神经元j到神经元i的 连接权值; f () 称为激发函数 i为阈值; 或作用函数。
5
输出激发函数 f ()又称为变换函数,它决定 神经元(节点)的输出。该输出为1或0, 取决于其输入之和大于或小于内部阈值 i。 函数 f () 一般具有非线性特性。下图表示 了几种常见的激发函数。 1. 阈值型函数(见图(a),(b)) 2. 饱和型函数(见图(c)) 3. 双曲函数(见图(d)) 4. S型函数(见(e)) 5. 高斯函数(见图(f))
6.4.2 改进型BP神经网络控制参数自学习 PID控制

将神经网络用于控制器的设计或直接学 习计算控制器的输出(控制量),一般 都要用到系统的预测输出值或其变化量 来计算权系数的修正量。但实际上,系 统的预测输出值是不易直接测得的,通 常的做法是建立被控对象的预测数学模 型,用该模型所计算的预测输出来取代 预测处的实测值,以提高控制效果。
21
1.BP网络的前馈计算 2.BP网络权值的调整规则 1). 输出层权系数的调整 2). 隐含层节点权系数的调整 3.BP学习算法的计算步骤
22
3.BP学习算法的计算步骤 1). 初始化 置所有权值为较小的随机数 2). 提供训练集 3). 计算实际输出,计算隐含层、输出层各 神经元输出 4). 计算目标值与实际输出的偏差E 5). 计算 p w jk 6). 计算 p wij 7). 返回“2)”重复计算,直到误差满足 要求为止
8
1. 前馈型神经网络


前馈型神经网络,又称前向网络(Feed forward NN)。 如图所示,神经元分层排列,有输入层、隐层(亦称 中间层,可有若干层)和输出层,每一层的神经元只 接受前一层神经元的输入。 从学习的观点来看,前馈网络是一种强有力的学习系 统,其结构简单而易于编程;从系统的观点看,前馈 网络是一静态非线性映射,通过简单非线性处理单元 的复合映射,可获得复杂的非线性处理能力。但从计 算的观点看,缺乏丰富的动力学行为。大部分前馈网 络都是学习网络,它们的分类能力和模式识别能力一 般都强于反馈网络,典型的前馈网络有感知器网络、 BP 网络等。
26
2.多层前向BP网络的问题:
1). BP算法的学习速度很慢 2). 网络训练失败的可能性较大 3). 难以解决应用问题的实例规模和网络规模间的矛 盾 4). 网络结构的选择尚无一种统一而完整的理论指导, 一般只能由经验选定 5). 新加入的样本要影响已学习成功的网络,而且刻 画每个输入样本的特征的数目也必须相同 6). 网络的预测能力(也称泛化能力、推广能力)与 训练能力(也称逼近能力、学习能力)的矛盾
第6章 神经网络控制
1
6.1 概述
6.1.1生物神经元模型 6.1.2 人工神经元模型
6.1.3 人工神经网络模型 6.1.4 神经网络的学习方法
2
6.1.2 人工神经元模型

人工神经元是对生物神经元的一种模拟 与简化。它是神经网络的基本处理单元。 如图所示为一种简化的人工神经元结构。 它是一个多输入、单输出的非线性元件。
11
神经网络中常用的几种最基本的学习方法
1. Hebb学习规则 两个神经元同时处于激发状态时,它们 之间的连接强度将得到加强,这一论述 的数学描述被称为Hebb学习规则 Hebb学习规则是一种无教师的学习方法, 它只根据神经元连接间的激活水平改变 权值,因此这种方法又称为相关学习或 并联学习。
25
6.2.3 BP网络学习算法的改进
1.多层前向BP网络的优点:


1). 网络实质上实现了一个从输入到输出的映 射功能,而数学理论已证明它具有实现任何复 杂非线性映射的功能。这使得它特别适合于求 解内部机制复杂的问题; 2). 网络能通过学习带正确答案的实例集自动 提取“合理的”求解规则,即具有自学习能力;
14
4.竞争式学习 竞争式学习属于无教师学习方式。此种学 习方式利用不同层间的神经元发生兴奋性 联接,以及同一层内距离很近的神经元间 发生同样的兴奋性联接,而距离较远的神 经元产生抑制性联接。在这种联接机制中 引人竟争机制的学习方式称为竟争式学习。 它的本质在于神经网络中高层次的神经元 对低层次神经元的输入模式进行竞争识别。
6.4 神经网络PID控制



尽管神经网络控制技术有许多潜在的优势,但单纯使 用神经网络的控制方法的研究仍有待进一步发展。通 常将人工神经网络技术与传统的控制理论或智能技术 综合使用。神经网络在控制中的作用有以下几种: 1.在传统的控制系统中用以动态系统建模,充当对 象模型; 2.在反馈控制系统中直接充当控制器的作用; 3.在传统控制系统中起优化计算作用; 4.与其他智能控制方法如模糊逻辑、遗传算法、专 家控制等相融合。
32
33
基于BP神经网络的PID控制算法可归纳如下:
1). 事先选定BP神经网络NN的结构,即选定输入层节点数 M和隐含层节点数Q,并给出权系数的初值w(2)ij(0), w(3)li(0), 选定学习速率η和平滑因子α,k=1; 2). 采样得到r(k)和y(k),计算e(k)=z(k)=r(k)-y(k); 3). 对r(i),y(i),u(i-1),e(i)进行归一化处理,作为NN的输入; 4). 前向计算NN的各层神经元的输入和输出,NN输出层的 输出即为PID控制器的三个可调参数KP(k),KI(k),KD(k); 5). 计算PID控制器的控制输出u(k),参与控制和计算; 6). 计算修正输出层的权系数w(3)li(k); 7). 计算修正隐含层的权系数w(2)ij(k); 8). 置k=k+1,返回到“2)”。 34
12
2.Delta(δ)学习规则

δ规则实现了E中的梯度下降,因此使误 差函数达到最小值。但δ学习规则只适用 于线性可分函数,无法用于多层网络。 BP网络的学习算法称为BP算法,是在δ 规则基础上发展起来的,可在多网络上 有效地学习。
13
3.概率式学习 从统计力学、分子热力学和概率论中关于系统 稳态能量的标准出发,进行神经网络学习的方 式称概率式学习。神经网络处于某一状态的概 率主要取决于在此状态下的能量,能量越低, 概率越大。同时,此概率还取决于温度参数T。 T越大,不同状态出现概率的差异便越小,较 容易跳出能量的局部极小点而到全局的极小点; T越小时,情形正相反。概率式学习的典型代 表是Boltzmann机学习规则。它是基于模拟退 火的统计优化方法,因此又称模拟退火算法。
23
24


在使用BP算法时,应注意的几个问题是: 1). 学习开始时,各隐含层连接权系数的初值 应以设置较小的随机数较为适宜。 2). 采用S型激发函数时,由于输出层各神经元 的输出只能趋于1或0,不能达到1或0。在设置 各训练样本时,期望的输出分量dpk不能设置 为1或0,以设置为或0,1较为适宜。 3). 学习速率η的选择,在学习开始阶段,η选 较大的值可以加快学习速度。学习接近优化区 时,η值必须相当小,否则权系数将产生振荡 而不收敛。平滑因子α的选值在左右。
31
6.4.1 基于BP神经网络控制参数自学习PID 控制
BP神经网络具有逼近任意非线性函数的能力,而且结 构和学习算法简单明确。通过神经网络自身的学习, 可以找到某一最优控制律下的P,I,D参数。基于BP 神经网络的PD控制系统结构如图所示,控制器由两个 部分组成:①经典的PID控制器:直接对被控对象进 行闭环控制,并且KP,KI,KD三个参数为在线整定;② 神经网络NN:根据系统的运行状态,调节PID控制器 的参数,以期达到某种性能指标的最优化。即使输出 层神经元的输出状态对应于PID控制器的三个可调参 数KP,KI,KD,通过神经网络的自学习、调整权系数, 从而使其稳定状态对应于某种最优控制律下的PID控 制器参数。
6
7
6.1.3 人工神经网络模型

人工神经网络是以工程技术手段来模拟 人脑神经元网络的结构与特征的系统。 利用人工神经元可以构成各种不同拓扑 结构的神经网络,它是生物神经网络的 一种模拟和近似。就神经网络的主要连 接型式而言,目前已有数十种不同的神 经网络模型,其中前馈型网络和反馈型 网络是两种典型的结构模型。
35
1.采用线性预测模型的BP神经网络PID控制器
36
采用线性预测模型的BP神经网络PID控制系统算法归纳如下:
1). 事先选定BP神经网络NN的结构,即选定输入层节点数 M和隐含层节点数Q,并给出权系数的初值w(2)ij(0), w(3)li(0), 选定学习速率η和平滑因子α,k=1; 2). 用线性系统辨识法估计出参数矢量θ(k),从而形成一步 预报模型式; 3). 采样得到r(k)和y(k),计算e(k)=z(k)=r(k)-y(k); 4). 对r(i),y(i),u(i-1),e(i)进行归一化处理,作为NN的输入; 5). 前向计算NN的各层神经元的输入和输出,NN输出层的 输出即为PID控制器的三个可调参数KP(k),KI(k),KD(k); 6). 计算PID 控制器的控制输出 u(k),参与控制和计算; 7).计算 y(k 1) 和 y(k 1) / u (k ) ; 8). 计算修正输出层的权系数w(3)li(k); 9). 计算修正隐含层的权系数w(2)ij(k); 10). 置k=k+1,返回到“2)”。 37
15
6.2 前向神经网络
6.2.1 感知器网络

感知器(perceptrvon)是一个具有单层 神经元的神经网络,并由线性阈值元件 组成,是最简单的前向网络。它主要用 于模式分类,单层的感知器网络结构如 下图所示。
16
17
感知器的一种学习算法:


随机地给定一组连接权 输入一组样本和期望的输出(亦称之为 教师信号) 计算感知器实际输出 修正权值 选取另外一组样本,重复上述2)~4) 的过程,直到权值对一切样本均稳定不 变为止,学习过程结束。
9
10
6.1.4 神经网络的学习方法

学习方法是体现人工神经网络智能特性的主要标志, 离开了学习算法,人工神经网络就失去了自适应、自 组织和自学习的能力。目前神经网络的学习方法有多 种,按有无导师来分类,可分为有教师学习 (Supervised Learning)、无教师学习(Unsupervised Learning)和再励学习(Reinforcement Learning)等几 大类。在有教师的学习方式中,网络的输出和期望的 输出(即教师信号)进行比较,然后根据两者之间的 差异调整网络的权值,最终使差异变小。在无教师的 学习方式中,输入模式进人网络后,网络按照一预先 设定的规则(如竞争规则)自动调整权值,使网络最 终具有模式分类等功能。再励学习是介于上述两者之 间的一种学习方式。
相关文档
最新文档