单神经元自适应PID控制算法
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
单神经元自适应PID 控制算法
一、单神经元PID 算法思想
神经元网络是智能控制的一个重要分支,神经元网络是以大脑生理研究成果为基础,模拟大脑的某些机理与机制,由人工建立的以有向图为拓扑结构的网络,它通过对连续或断续的输入做状态响应而进行信息处理;神经元网络是本质性的并行结构,并且可以用硬件实现,它在处理对实时性要求很高的自动控制问题显示出很大的优越性;神经元网络是本质性的非线性系统,多层神经元网络具有逼近任意函数的能力,它给非线性系统的描述带来了统一的模型;神经元网络具有很强的信息综合能力,它能同时处理大量不同类型的输入信息,能很好地解决输入信息之间的冗余问题,能恰当地协调互相矛盾的输入信息,可以处理那些难以用模型或规则描述的系统信息。神经元网络在复杂系统的控制方面具有明显的优势,神经元网络控制和辨识的研究已经成为智能控制研究的主流。单神经元自适应PID 控制算法在总体上优于传统的PID 控制算法,它有利于控制系统控制品质的提高,受环境的影响较小,具有较强的控制鲁棒性,是一种很有发展前景的控制器。
二、单神经元自适应PID 算法模型
单神经元作为构成神经网络的基本单位,具有自学习和自适应能力,且结构简单而易于计算。传统的PID 则具有结构简单、调整方便和参数整定与工程指标联系紧密等特点。将二者结合,可以在一定程度上解决传统PID 调节器不易在线实时整定参数,难以对一些复杂过程和参数时变、非线性、强耦合系统进行有效控制的不足。
2.1单神经元模型
对人脑神经元进行抽象简化后得到一种称为McCulloch-Pitts 模型的人工神经元,如图2-1所示。对于第i 个神经元,12N x x x 、、……、是神经元接收到的信息,12i i iN ωωω、、……、为连接强度,称之为权。利用某种运算把输入信号的作用结合起来,给它们的总效果,称之为“净输入”,用i net 来表示。根据不同的运算
方式,净输入的表达方式有多种类型,其中最简单的一种是线性加权求和,即式 (2-1)。
此作用引起神经元i 的状态变化,而神经元i 的输出y i 是其当前状态的函
数g(•),称之为活化函数(State of activation )。这样,上述模型的数学表达式为式(2-2)。
1N
i ij j i j net x ωθ==-∑ (2-1) ()i i y g net = (2-2)
式中,i θ——神经元i 的阈值。
图2-1单神经元模型示意图
2.2 神经网络学习规则
学习是神经网络的主要特征之一。学习规则是修正神经元之间连接强度或加权系数的算法,使获得的知识结构适应周围环境的变化。在学习过程中,执行学习规则,修正加权系数。在工作期内,由学习所得的连接加权系数参与计算神经元的输出。学习算法可分为有监督学习和无监督学习两类。有监督学习是通过外部教师信号进行学习,即要求同时给出输入和正确的期望输出的模式对,当计算结果与期望输出有误差时,网络将通过自动调节机制调节相应的连接强度,使之向误差减小的方向改变,经过多次重复训练,最后与正确的结果相符合。无监督
…
… 2i ω 2i ω
iN ω
∑ i θ i y
1x 2x
N x
学习则没有外部教师信号,其学习表现为自适应与输入空间的检测规则,其学习过程为对系统提供动态输入信号,使各个单元以某种方式竞争,获胜的神经元本身或相邻域得到增强,其他神经元则进一步被抑制,从而将信号空间分为有用的 多个区域。
常用的三种主要规则:
1、无监督Hebb 学习规则 Hebb 学习是一类相关学习,它的基本思想是:如果神经元同时兴奋,则它们之间的连接强度的增强与它们的激励的乘积成正比。用i o 表示单元i 的激活值(输出),j o 表示单元j 的激活值,ij ω表示单元j 到单元i 的连接加权系数,则Hebb 学习规则可用下式表示:
)()()(k k k j i ij οηοω=∆ (2-3)
式中 η——学习速率。
2、有监督δ学习规则或Widow-Hoff 学习规则。在Hebb 学习规则中引入教师信号,将式(3_8)中的i ο换成网络期望目标输出i d 和网络实际输出i ο之差,即为有监督δ学习规则。
)()]()([)(k k k d k j i i ij οοηω-=∆ (2-4)
上式表明,两神经元间的连接强度的变化量与教师信号)(k d i 和网络实际输出i o 之差成正比。
3、有监督Hebb 学习规则 将无监督Hebb 学习规则和有监督δ学习规则两者结合起来,组成有监督Hebb 学习规则,即
)()()]()([)(k k k k d k j i i i ij οοοηω-=∆ (2-5)
这种学习规则使神经元通过关联搜索对未知的外界作出反应,即在教师信号)()(k k d i i ο- 的指导下,对环境信息进行相关学习和自组织,使相应的输出增强或削弱。
三、单神经元PID 算法
(1)结构框图如3-1所示。图中转换器的输入为设定值r(k)和输出y(k);转换器的输出为神经元学习控制所需要的状态量123()()()x k x k x k 、、。这里
)2()1(2)()()
()()
()()()(321-+--=∆==-=k e k e k e k x k e k x k e k y k y k x r (3-1)
==)()(1k x k z )()()(k e k y k y r =-,为性能指标。图中K 为神经元的比例系数,K > 0。神经元通过关联搜索来产生控制信号,即
)()()1()(31
k x k K k u k u i i i ∑=+-=ω (3-2)
式中 )(k i ω——对应于)(k x i 的加权系数。
图3-1 单神经元PID 控制结构 (2)单神经元自适应PID 控制器正是通过对加权系数的调整来实现自适应、自学习功能的。加权系数的调整可以采用不同的学习规则,从而构成不同的控制算法。
本文采用有监督Hebb 学习算法的单神经元自适应PID 控制器 考虑到加权
系数)(k i ω应和神经元的输入、输出和输出偏差三者的相关函数有关,因此在∑ 转换器 被控对象 K ()
r y k 23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-u ∆()y k 23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-1()x k 23()()(1)
()()
()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-23)()(1)
()()()()2(1)(2)x e k e k x k e k x k e k e k e k =--==--+-2()
x k 23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-23()()(1)()()()()2(1)(2)
x k e k e k x k e k x k e k e k e k =--==--+-3()x k 23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-()
u k 23()()(1)()()()()2(1)(2)x k e k e k x k e k x k e k e k e k =--==--+-1z -