智能控制第7章 模糊神经网络控制与自适应神经网络PPT课件
合集下载
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
❖在实时性方面都没有重大进展。
控制策略
❖如果被控系统 y(k+1)=f(y(k),y(k-1),u(k-1))+g(u(k))
❖参考系统: ym(k+1)=a1ym (k)+a2ym (k-1)+r(k)
❖则控制输入可取:
u ( k ) g ˆ 1 { f[ y ( k )y ( k , 1 ) u ( k , 1 ) y ] m ( k 1 )}
第一层
❖这一层的节点只是将输入变量值直接传送到 下一层。所以,
fj(1 )u(j1 ), a(j1 )fj(1 )
❖且输入变量与第一层节点之间的连接系数 wji(1)=1。
第二层
❖实现语言值的隶属度函数变换 ,可选取钟型 函数
fj(2 ) M X ji(m ( j2 ) i,( j2 ) i) (u i(2 () ( j2 m ) i)( j 2 2 ) i)2,
❖如果某一规则节点与第四层中的所有节点的 连接系数都很少而被删除的话,则该规则节 点对输出节点不产生任何影响。因此,该规 则节点可以删除。
规则合并
合并的条件 ❖该组节点具有完全相同的结论部(如图7-2中
输出变量yi中的第二个语言值节点); ❖在该组规则节点中某些条件部是相同的(如图
7-2中输入变量x0中的第一个语言值节点的输 出与该组规则节点全部相连); ❖该组规则节点的其它条件输入项包含了所有 其它输入语言变量某一语言值节点的输出。
四层输出语言值节点输出 ,则
w i( jt) o ( j4 )( w i( jt) o i(3 ))
规则删除
❖仅保留规则节点与同一输出语言变量的所有 语言值节点的连接系数最大的那个连接关系, 将其余的连接关系删除。
❖当某一规则节点与某一输出语言变量所有语 言值节点之间的连接系数都非常小时,则所 有的连接关系都可以删除。
第二层学习公式
m ( j2 )i(t 1 ) m ( j2 )i(t)
Ee (2 ) a j
fj(2 )
2 (u i(2 ) m ( j2 )i) ((j2 )i)2
(j2 )i(t 1 )(j2 ) m ( j2 )i)2
a (2 ) j
((j2 )i)3
ji ji i
jj
(y(t)yˆ(t))
i
i
(
u ) (5) (5) 2
ji i
i
第三层
❖与第四层相似
( j3 )fE j(3 )a E ( j3 ) a fj( ( j3 3 ) )fE j(4 ) fa j( ( j4 3 ) )( j4 )
(4 )
fj (3 )
u i
(4 ) j
a e (2 ) j
fj(2 )
❖其中: mji和σji分别表示第i个输入语言变量Xi 的第j个语言值隶属度函数的中心值和宽度。 可抽象看作第一、二层神经元节点之间的连 接系数wji(2) 。
第三层
❖完成模糊逻辑推理条件部的匹配工作 。由最 大、最小推理规则可知,规则节点实现的功 能是模糊“与”运算。
x ( t ) m cl( t o ) s m 1 i e ks x ( t t ) i m n i( t )
mcloest(t+1)= mcloest(t) +α(t)[x(t)-mcloest(t)]
mi(t+1)=mi(t)
当 mi(t)≠mcloest(t)
k=|T(x)| 表示语言变量x语言值的数目
第7章 模糊神经网络控制 与自适应神经网络
智能控制基础
整体概述
概述一
点击此处输入
相关文本内容
概述二
点击此处输入
相关文本内容
概述三
点击此处输入
相关文本内容
目录
7.1 模糊神经网络控制 7.2 基于神经元网络的自适应控制
7.3* 自适应神经网络结构学习
7.1 模糊神经网络控制
7.1.1 神经网络与模糊控制系统 7.1.2 模糊神经网络的学习算法
m fj((j5 5 ))i [y(t)y ˆ(t)]
u (5) (5)
ji i
u (5) (5)
ji i
i
E
E
a(5) j
f (5) j
(5) ji
a f (5) (5)
j
j
(5) ji
m(j5i)ui(5)(
(j5i)ui(5))(
m u )u (5) (5) (5) (5) ji ji i i
E fj(4)
E fj(5)
fj(5) fj(4)
E fj(5)
fj(5) u(j5)
u(j5) fj(4)
E fj(5)
m(5) ji
u (5) (5)
ji i
u(j5)
i
u (5) (5)
ji i
i
m ( (5) (5) jj jj
(j5i)ui(5))(
m u ) (5) (5) (5) (5)
❖ 则控制系统的误差方程为
e c( k 1 ) 0c .(6 k 0 e)c .(2 - k 1e)
其中
ec( k 1 )y p( k 1 ) y m ( k 1)
❖ 上述控制可渐渐稳定。
离线辨识的控制效果
❖u(k)=-Ni(y(k),y(k-1))+0.6y(k)+0.2y(k-1)+r(k) ❖取r(k)=sin(2πk/25)
整个学习流程
目录
7.1 模糊神经网络控制 7.2 基于神经元网络的自适应控制
7.3* 自适应神经网络结构学习
基于神经元网络的自适应控制
❖神经网络控制器完全满足自适应控制的要素
在线、实时地了解对象; 有一个可调节环节; 能使系统性能达到指标要求和最优。
❖常规的神经网络控制器本身也具有一定的自 适应能力 。
a ( j5 )
f(5 ) j u (5 ) (5 ) j ii
i
则第四层节点与第五层节点之间的连接系数 wji(5)可以看作是mji(5)·σji(5)。
7.1 模糊神经网络控制
7.1.1 神经网络与模糊控制系统 7.1.2 模糊神经网络的学习算法
混合学习算法
❖第一阶段,使用自组织学习方法进行各语言 变量语言值隶属度函数的初步定位以及尽量 发掘模糊控制规则的存在性(即可以通过自 组织学习删除部分不可能出现的规则)
模糊神经网络理论的出发点
❖模糊控制系统的隶属度函数或控制规则的设 计方法存在很大的主观性。
❖利用神经网络的学习功能来优化模糊控制规 则和相应的隶属度函数、将一些专家知识预 先分布到神经网络中去是提出模糊神经网络 理论的两个基本出发点。
模糊神经网络结构图
结构说明
❖第一层节点为输入节点,用来表示语言变量; ❖输出层的每个输出变量有两个语言节点,一
隶属度函数参数的获取
❖中心值mi的估计 :Kohonen自组织映射法 ❖宽度值σi是与重叠参数r以及中心点mi邻域内
分布函数值相关。
Kohonen自组织映射法
❖一种自组织学习。经过一段时间的学习后, 其权值的分布可以近似地看作输入随机样本 的概率密度分布。学习过程是一个Winnertake-all的过程,具体如下:
❖如果输出语言变量有m个,则
m
(3) j
(4) k
k 1
第二层
EEa (j2 ) fj(2 ) Eefj(2 ) 2 (u i(2 ) m (j2 )i)
m a f m a (2 ) ji
(2 ) (2 ) jj
(2 ) ji
(2 ) j
(( j2 )i)2
E
❖在第二阶段,利用有导学习方法来改进和优 化期望输出的各语言值隶属度函数。
1. 自组织学习阶段
问题描述: ❖给定一组输入样本数据xi(t),i=1,2,...,n、期望
的输出值yi(t),i=1,2,...,m、模糊分区|T(x)| 和 |T(y)|以及期望的隶属度函数类型(即 三角型、钟型等)。 ❖学习的目的是找到隶属度函数的参数和系统 实际存在的模糊逻辑控制规则。
fj(4)=max(u1(4),u2(4),...,up(4)), aj(4)=fj(4) 且第三、四层节点之间的连接系数wji(4)=1
第五层
❖有两种模式
❖从上到下的信号传输方式 ,同第一层。
❖从下到上是精确化计算,如果采用重心法, 有
fj(5 ) w ( j5 )iu i(5 ) (m ( j5 )i (j5 )i)u i(5 ), i
个用于训练时期望输出信号的馈入,另一个 表示模糊神经网络推理控制的输出信号节点; ❖第二层和第四层的节点称为项节点,用来表 示相应语言变量语言值的隶属度函数。 ❖第三层节点称为规则节点,用来实现模糊逻 辑推理。其中第三、四层节点间的连接系数 定义规则节点的结论部、第二、三层节点间 的连接系数定义规则节点的条件部。
a(2)
j
k
E
f(3) k
f a (3) (2)
k
j
k
f(3)
(3) k
a k
(2)
j
f(3) k
a(2) j
u fk((j3 3))
1 0
if
fk(3)u(j3)mu i1 (3 n ),u2 ((3),..) otherwise
E
a(j2)
k
q(3) k
❖ qk(3)=δk(3) 当aj(2)是第k个规则节点输入值中的最小值时; ❖ qk(3)=0 其它情况下。
❖参考系统的模型为:
y m ( k 1 ) 0 . 6 y m ( k ) 0 . 2 y m ( k 1 ) - r ( k )
控制策略
u ( -k fy ( )- y 1 ( k ( 0 )k ) . 1 6 ) 0 ,) y.- ( 1 2 k r) y (k (k )
f(y(k)y ,(k 1 ) )y(1 k )y y (2 k (k )1 )y y [( 2 k (k ) 1 2 ).5 ]
基于神经网络的模型参考自适应控制结构
ec
r 神 经 网 络 Nc
ym 参考模型
ei
神经网络N i
Z-1 yp
- ec
TDL
u
被控对象
TDL y
p
+ ei + -
TDL
TDL
图 3-3-1 基 于 神 经 网 络 的 模 型 参 考 自 适 应 控 制 结 构 图
例7-1
❖非线性控制对象为
y(k 1 )y(1 k )y y (2 k (k )1 )y y [( 2k (k ) 1 2 ).5 ] u (k)
fj(3)=min(u1(3),u2(3),...,up(3)), aj(3)=fj(3)
且第二层节点与第三层节点之间的连接系数 wji(3)=1
第四层
有两种模式 ❖从上到下的传输模式 时,与第二层相同,实
现模糊化的功能。 ❖从下到上的传输模式中,实现的是模糊逻辑
推理运算。根据最大、最小推理规则,是模 糊“或”运算:
u ( -k i( N y ) ( 1 )k ) 0 .6 ) y, ( y 0 .2 k y (1 ) k ( ) r k -( -k
实 线 —参 考 模 型 输 出 虚 线 —实 际 系 统 输 出
t(s)
图 3-3-2 神 经 网 络 模 型 参 考 自 适 应 控 制 响 应 曲 线 图
图7-2 :规则节点合并示例
2. 有导师学习阶段
❖可采用BP学习
E1(y(t)ˆy(t))2min 2
w(t1)w(t)(E w)
E w ( n E )e ( n w t)e tE f w f E f fa w a
第五层
m E (j5)i a E (j5) a fj((j5 5))
宽度σi的计算
❖通过求下列目标函数的极小值来获取,即:
E1 2iN 1[jNnearesm t i imj 2r]2
其中 r为重叠参数 。 ❖也可以采用一阶最近邻域法近似:
i
mi mcloest r
推理规则的确定
❖即确定第三层规则节点和第四层输出语言值 节点之间的连接关系。
❖采用竞争学习获得 ❖记o(3)i(t)为规则节点的激励强度、 o(4)i(t)为第
设计思想
❖与传统的自适应控制器一样 ,有两种不同的 设计途径 :
7.2 基于神经元网络的自适应控制
7.2.1 神经网络的模型参考自适应控制 7.2.2 神经网络的自校正控制
模型参考自适应控制
❖通过选择一个适当的参考模型和由稳定性理 论设计的自适应算法,并利用参考模型的输 出与实际系统输出之间的误差信号,由一套 自适应算法计算出当前的控制量去控制系统 达到自适应控制的目的。
[y(t)yˆ(t)]
i
i
(
u ) (5) (5) 2
ji i
i
❖反向传播到上一层的广义误差δ(5)为
(j5)fE j(5) aE (j5)
a(5) j
f(5) j
y(t)y ˆ(t)
第四层
❖没有任何参数进行更新。唯一需要做的是实 现误差的反向传播计算。
(4) j
控制策略
❖如果被控系统 y(k+1)=f(y(k),y(k-1),u(k-1))+g(u(k))
❖参考系统: ym(k+1)=a1ym (k)+a2ym (k-1)+r(k)
❖则控制输入可取:
u ( k ) g ˆ 1 { f[ y ( k )y ( k , 1 ) u ( k , 1 ) y ] m ( k 1 )}
第一层
❖这一层的节点只是将输入变量值直接传送到 下一层。所以,
fj(1 )u(j1 ), a(j1 )fj(1 )
❖且输入变量与第一层节点之间的连接系数 wji(1)=1。
第二层
❖实现语言值的隶属度函数变换 ,可选取钟型 函数
fj(2 ) M X ji(m ( j2 ) i,( j2 ) i) (u i(2 () ( j2 m ) i)( j 2 2 ) i)2,
❖如果某一规则节点与第四层中的所有节点的 连接系数都很少而被删除的话,则该规则节 点对输出节点不产生任何影响。因此,该规 则节点可以删除。
规则合并
合并的条件 ❖该组节点具有完全相同的结论部(如图7-2中
输出变量yi中的第二个语言值节点); ❖在该组规则节点中某些条件部是相同的(如图
7-2中输入变量x0中的第一个语言值节点的输 出与该组规则节点全部相连); ❖该组规则节点的其它条件输入项包含了所有 其它输入语言变量某一语言值节点的输出。
四层输出语言值节点输出 ,则
w i( jt) o ( j4 )( w i( jt) o i(3 ))
规则删除
❖仅保留规则节点与同一输出语言变量的所有 语言值节点的连接系数最大的那个连接关系, 将其余的连接关系删除。
❖当某一规则节点与某一输出语言变量所有语 言值节点之间的连接系数都非常小时,则所 有的连接关系都可以删除。
第二层学习公式
m ( j2 )i(t 1 ) m ( j2 )i(t)
Ee (2 ) a j
fj(2 )
2 (u i(2 ) m ( j2 )i) ((j2 )i)2
(j2 )i(t 1 )(j2 ) m ( j2 )i)2
a (2 ) j
((j2 )i)3
ji ji i
jj
(y(t)yˆ(t))
i
i
(
u ) (5) (5) 2
ji i
i
第三层
❖与第四层相似
( j3 )fE j(3 )a E ( j3 ) a fj( ( j3 3 ) )fE j(4 ) fa j( ( j4 3 ) )( j4 )
(4 )
fj (3 )
u i
(4 ) j
a e (2 ) j
fj(2 )
❖其中: mji和σji分别表示第i个输入语言变量Xi 的第j个语言值隶属度函数的中心值和宽度。 可抽象看作第一、二层神经元节点之间的连 接系数wji(2) 。
第三层
❖完成模糊逻辑推理条件部的匹配工作 。由最 大、最小推理规则可知,规则节点实现的功 能是模糊“与”运算。
x ( t ) m cl( t o ) s m 1 i e ks x ( t t ) i m n i( t )
mcloest(t+1)= mcloest(t) +α(t)[x(t)-mcloest(t)]
mi(t+1)=mi(t)
当 mi(t)≠mcloest(t)
k=|T(x)| 表示语言变量x语言值的数目
第7章 模糊神经网络控制 与自适应神经网络
智能控制基础
整体概述
概述一
点击此处输入
相关文本内容
概述二
点击此处输入
相关文本内容
概述三
点击此处输入
相关文本内容
目录
7.1 模糊神经网络控制 7.2 基于神经元网络的自适应控制
7.3* 自适应神经网络结构学习
7.1 模糊神经网络控制
7.1.1 神经网络与模糊控制系统 7.1.2 模糊神经网络的学习算法
m fj((j5 5 ))i [y(t)y ˆ(t)]
u (5) (5)
ji i
u (5) (5)
ji i
i
E
E
a(5) j
f (5) j
(5) ji
a f (5) (5)
j
j
(5) ji
m(j5i)ui(5)(
(j5i)ui(5))(
m u )u (5) (5) (5) (5) ji ji i i
E fj(4)
E fj(5)
fj(5) fj(4)
E fj(5)
fj(5) u(j5)
u(j5) fj(4)
E fj(5)
m(5) ji
u (5) (5)
ji i
u(j5)
i
u (5) (5)
ji i
i
m ( (5) (5) jj jj
(j5i)ui(5))(
m u ) (5) (5) (5) (5)
❖ 则控制系统的误差方程为
e c( k 1 ) 0c .(6 k 0 e)c .(2 - k 1e)
其中
ec( k 1 )y p( k 1 ) y m ( k 1)
❖ 上述控制可渐渐稳定。
离线辨识的控制效果
❖u(k)=-Ni(y(k),y(k-1))+0.6y(k)+0.2y(k-1)+r(k) ❖取r(k)=sin(2πk/25)
整个学习流程
目录
7.1 模糊神经网络控制 7.2 基于神经元网络的自适应控制
7.3* 自适应神经网络结构学习
基于神经元网络的自适应控制
❖神经网络控制器完全满足自适应控制的要素
在线、实时地了解对象; 有一个可调节环节; 能使系统性能达到指标要求和最优。
❖常规的神经网络控制器本身也具有一定的自 适应能力 。
a ( j5 )
f(5 ) j u (5 ) (5 ) j ii
i
则第四层节点与第五层节点之间的连接系数 wji(5)可以看作是mji(5)·σji(5)。
7.1 模糊神经网络控制
7.1.1 神经网络与模糊控制系统 7.1.2 模糊神经网络的学习算法
混合学习算法
❖第一阶段,使用自组织学习方法进行各语言 变量语言值隶属度函数的初步定位以及尽量 发掘模糊控制规则的存在性(即可以通过自 组织学习删除部分不可能出现的规则)
模糊神经网络理论的出发点
❖模糊控制系统的隶属度函数或控制规则的设 计方法存在很大的主观性。
❖利用神经网络的学习功能来优化模糊控制规 则和相应的隶属度函数、将一些专家知识预 先分布到神经网络中去是提出模糊神经网络 理论的两个基本出发点。
模糊神经网络结构图
结构说明
❖第一层节点为输入节点,用来表示语言变量; ❖输出层的每个输出变量有两个语言节点,一
隶属度函数参数的获取
❖中心值mi的估计 :Kohonen自组织映射法 ❖宽度值σi是与重叠参数r以及中心点mi邻域内
分布函数值相关。
Kohonen自组织映射法
❖一种自组织学习。经过一段时间的学习后, 其权值的分布可以近似地看作输入随机样本 的概率密度分布。学习过程是一个Winnertake-all的过程,具体如下:
❖如果输出语言变量有m个,则
m
(3) j
(4) k
k 1
第二层
EEa (j2 ) fj(2 ) Eefj(2 ) 2 (u i(2 ) m (j2 )i)
m a f m a (2 ) ji
(2 ) (2 ) jj
(2 ) ji
(2 ) j
(( j2 )i)2
E
❖在第二阶段,利用有导学习方法来改进和优 化期望输出的各语言值隶属度函数。
1. 自组织学习阶段
问题描述: ❖给定一组输入样本数据xi(t),i=1,2,...,n、期望
的输出值yi(t),i=1,2,...,m、模糊分区|T(x)| 和 |T(y)|以及期望的隶属度函数类型(即 三角型、钟型等)。 ❖学习的目的是找到隶属度函数的参数和系统 实际存在的模糊逻辑控制规则。
fj(4)=max(u1(4),u2(4),...,up(4)), aj(4)=fj(4) 且第三、四层节点之间的连接系数wji(4)=1
第五层
❖有两种模式
❖从上到下的信号传输方式 ,同第一层。
❖从下到上是精确化计算,如果采用重心法, 有
fj(5 ) w ( j5 )iu i(5 ) (m ( j5 )i (j5 )i)u i(5 ), i
个用于训练时期望输出信号的馈入,另一个 表示模糊神经网络推理控制的输出信号节点; ❖第二层和第四层的节点称为项节点,用来表 示相应语言变量语言值的隶属度函数。 ❖第三层节点称为规则节点,用来实现模糊逻 辑推理。其中第三、四层节点间的连接系数 定义规则节点的结论部、第二、三层节点间 的连接系数定义规则节点的条件部。
a(2)
j
k
E
f(3) k
f a (3) (2)
k
j
k
f(3)
(3) k
a k
(2)
j
f(3) k
a(2) j
u fk((j3 3))
1 0
if
fk(3)u(j3)mu i1 (3 n ),u2 ((3),..) otherwise
E
a(j2)
k
q(3) k
❖ qk(3)=δk(3) 当aj(2)是第k个规则节点输入值中的最小值时; ❖ qk(3)=0 其它情况下。
❖参考系统的模型为:
y m ( k 1 ) 0 . 6 y m ( k ) 0 . 2 y m ( k 1 ) - r ( k )
控制策略
u ( -k fy ( )- y 1 ( k ( 0 )k ) . 1 6 ) 0 ,) y.- ( 1 2 k r) y (k (k )
f(y(k)y ,(k 1 ) )y(1 k )y y (2 k (k )1 )y y [( 2 k (k ) 1 2 ).5 ]
基于神经网络的模型参考自适应控制结构
ec
r 神 经 网 络 Nc
ym 参考模型
ei
神经网络N i
Z-1 yp
- ec
TDL
u
被控对象
TDL y
p
+ ei + -
TDL
TDL
图 3-3-1 基 于 神 经 网 络 的 模 型 参 考 自 适 应 控 制 结 构 图
例7-1
❖非线性控制对象为
y(k 1 )y(1 k )y y (2 k (k )1 )y y [( 2k (k ) 1 2 ).5 ] u (k)
fj(3)=min(u1(3),u2(3),...,up(3)), aj(3)=fj(3)
且第二层节点与第三层节点之间的连接系数 wji(3)=1
第四层
有两种模式 ❖从上到下的传输模式 时,与第二层相同,实
现模糊化的功能。 ❖从下到上的传输模式中,实现的是模糊逻辑
推理运算。根据最大、最小推理规则,是模 糊“或”运算:
u ( -k i( N y ) ( 1 )k ) 0 .6 ) y, ( y 0 .2 k y (1 ) k ( ) r k -( -k
实 线 —参 考 模 型 输 出 虚 线 —实 际 系 统 输 出
t(s)
图 3-3-2 神 经 网 络 模 型 参 考 自 适 应 控 制 响 应 曲 线 图
图7-2 :规则节点合并示例
2. 有导师学习阶段
❖可采用BP学习
E1(y(t)ˆy(t))2min 2
w(t1)w(t)(E w)
E w ( n E )e ( n w t)e tE f w f E f fa w a
第五层
m E (j5)i a E (j5) a fj((j5 5))
宽度σi的计算
❖通过求下列目标函数的极小值来获取,即:
E1 2iN 1[jNnearesm t i imj 2r]2
其中 r为重叠参数 。 ❖也可以采用一阶最近邻域法近似:
i
mi mcloest r
推理规则的确定
❖即确定第三层规则节点和第四层输出语言值 节点之间的连接关系。
❖采用竞争学习获得 ❖记o(3)i(t)为规则节点的激励强度、 o(4)i(t)为第
设计思想
❖与传统的自适应控制器一样 ,有两种不同的 设计途径 :
7.2 基于神经元网络的自适应控制
7.2.1 神经网络的模型参考自适应控制 7.2.2 神经网络的自校正控制
模型参考自适应控制
❖通过选择一个适当的参考模型和由稳定性理 论设计的自适应算法,并利用参考模型的输 出与实际系统输出之间的误差信号,由一套 自适应算法计算出当前的控制量去控制系统 达到自适应控制的目的。
[y(t)yˆ(t)]
i
i
(
u ) (5) (5) 2
ji i
i
❖反向传播到上一层的广义误差δ(5)为
(j5)fE j(5) aE (j5)
a(5) j
f(5) j
y(t)y ˆ(t)
第四层
❖没有任何参数进行更新。唯一需要做的是实 现误差的反向传播计算。
(4) j