单神经元自适应PID控制算法

合集下载
相关主题
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

单神经元自适应PID 控制算法

一、单神经元PID 算法思想

神经元网络是智能控制的一个重要分支,神经元网络是以大脑生理研究成果为基础,模拟大脑的某些机理与机制,由人工建立的以有向图为拓扑结构的网络,它通过对连续或断续的输入做状态响应而进行信息处理;神经元网络是本质性的并行结构,并且可以用硬件实现,它在处理对实时性要求很高的自动控制问题显示出很大的优越性;神经元网络是本质性的非线性系统,多层神经元网络具有逼近任意函数的能力,它给非线性系统的描述带来了统一的模型;神经元网络具有很强的信息综合能力,它能同时处理大量不同类型的输入信息,能很好地解决输入信息之间的冗余问题,能恰当地协调互相矛盾的输入信息,可以处理那些难以用模型或规则描述的系统信息。神经元网络在复杂系统的控制方面具有明显的优势,神经元网络控制和辨识的研究已经成为智能控制研究的主流。单神经元自适应PID 控制算法在总体上优于传统的PID 控制算法,它有利于控制系统控制品质的提高,受环境的影响较小,具有较强的控制鲁棒性,是一种很有发展前景的控制器。

二、单神经元自适应PID 算法模型

单神经元作为构成神经网络的基本单位,具有自学习和自适应能力,且结构简单而易于计算。传统的PID 则具有结构简单、调整方便和参数整定与工程指标联系紧密等特点。将二者结合,可以在一定程度上解决传统PID 调节器不易在线实时整定参数,难以对一些复杂过程和参数时变、非线性、强耦合系统进行有效控制的不足。

2.1单神经元模型

对人脑神经元进行抽象简化后得到一种称为McCulloch-Pitts 模型的人工神经元,如图2-1所示。对于第i 个神经元,12N x x x 、、……、是神经元接收到的信息,12i i iN ωωω、、……、为连接强度,称之为权。利用某种运算把输入信号的作用结合起来,给它们的总效果,称之为“净输入”,用i net 来表示。根据不同的运算

方式,净输入的表达方式有多种类型,其中最简单的一种是线性加权求和,即式 (2-1)。

此作用引起神经元i 的状态变化,而神经元i 的输出y i 是其当前状态的函

数g(•),称之为活化函数(State of activation )。这样,上述模型的数学表达式为式(2-2)。

1N

i ij j i j net x ωθ==-∑ (2-1) ()i i y g net = (2-2)

式中,i θ——神经元i 的阈值。

图2-1单神经元模型示意图

2.2 神经网络学习规则

学习是神经网络的主要特征之一。学习规则是修正神经元之间连接强度或加权系数的算法,使获得的知识结构适应周围环境的变化。在学习过程中,执行学习规则,修正加权系数。在工作期内,由学习所得的连接加权系数参与计算神经元的输出。学习算法可分为有监督学习和无监督学习两类。有监督学习是通过外部教师信号进行学习,即要求同时给出输入和正确的期望输出的模式对,当计算结果与期望输出有误差时,网络将通过自动调节机制调节相应的连接强度,使之向误差减小的方向改变,经过多次重复训练,最后与正确的结果相符合。无监督

… 2i ω 2i ω

iN ω

∑ i θ i y

1x 2x

N x

学习则没有外部教师信号,其学习表现为自适应与输入空间的检测规则,其学习过程为对系统提供动态输入信号,使各个单元以某种方式竞争,获胜的神经元本身或相邻域得到增强,其他神经元则进一步被抑制,从而将信号空间分为有用的 多个区域。

常用的三种主要规则:

1、无监督Hebb 学习规则 Hebb 学习是一类相关学习,它的基本思想是:如果神经元同时兴奋,则它们之间的连接强度的增强与它们的激励的乘积成正比。用i o 表示单元i 的激活值(输出),j o 表示单元j 的激活值,ij ω表示单元j 到单元i 的连接加权系数,则Hebb 学习规则可用下式表示:

)()()(k k k j i ij οηοω=∆ (2-3)

式中 η——学习速率。

2、有监督δ学习规则或Widow-Hoff 学习规则。在Hebb 学习规则中引入教师信号,将式(3_8)中的i ο换成网络期望目标输出i d 和网络实际输出i ο之差,即为有监督δ学习规则。

)()]()([)(k k k d k j i i ij οοηω-=∆ (2-4)

上式表明,两神经元间的连接强度的变化量与教师信号)(k d i 和网络实际输出i o 之差成正比。

3、有监督Hebb 学习规则 将无监督Hebb 学习规则和有监督δ学习规则两者结合起来,组成有监督Hebb 学习规则,即

)()()]()([)(k k k k d k j i i i ij οοοηω-=∆ (2-5)

这种学习规则使神经元通过关联搜索对未知的外界作出反应,即在教师信号)()(k k d i i ο- 的指导下,对环境信息进行相关学习和自组织,使相应的输出增强或削弱。

三、单神经元PID 算法

(1)结构框图如3-1所示。图中转换器的输入为设定值r(k)和输出y(k);转换器的输出为神经元学习控制所需要的状态量123()()()x k x k x k 、、。这里

)2()1(2)()()

()()

()()()(321-+--=∆==-=k e k e k e k x k e k x k e k y k y k x r (3-1)

==)()(1k x k z )()()(k e k y k y r =-,为性能指标。图中K 为神经元的比例系数,K > 0。神经元通过关联搜索来产生控制信号,即

)()()1()(31

k x k K k u k u i i i ∑=+-=ω (3-2)

式中 )(k i ω——对应于)(k x i 的加权系数。

图3-1 单神经元PID 控制结构 (2)单神经元自适应PID 控制器正是通过对加权系数的调整来实现自适应、自学习功能的。加权系数的调整可以采用不同的学习规则,从而构成不同的控制算法。

本文采用有监督Hebb 学习算法的单神经元自适应PID 控制器 考虑到加权

系数)(k i ω应和神经元的输入、输出和输出偏差三者的相关函数有关,因此在∑ 转换器 被控对象 K ()

r y k 23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-u ∆()y k 23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-1()x k 23()()(1)

()()

()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-23)()(1)

()()()()2(1)(2)x e k e k x k e k x k e k e k e k =--==--+-2()

x k 23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-23()()(1)()()()()2(1)(2)

x k e k e k x k e k x k e k e k e k =--==--+-3()x k 23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-()

u k 23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-1z -

相关文档
最新文档