系统辨识复习提纲(答案版)
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
系统辨识复习提纲
1.什么是系统?什么是系统辨识?
系统泛指由一群有关联的个体组成,根据预先编排好的规则工作,能完成个别元 件不能单独完成的工作的群体。
即一群有相互关联的个体组
成的集合称为系统。
系统辩识就是:利用对未知系统的试验数据或在线运行数据(输入/输出数据)以及原理和原则建立系统的(数学)模型的科学。
2.什么是宽平稳随机过程,其遍历定理内容是什么?
答:在数学中,平稳随机过程或者严平稳随机过程,又称狭义平稳过程,是在固定时间和位置的概率分布与所有时间和位置的概率分布相同的随机过程:即随机过程的统计特性不随时间的推移而变化。
这样,数学期望和方差这些参数也不随时间和位置变化。
如果平稳随机过程()t x de 各集和平均值等于相对应的时间平均值
x =μx ,()()τ+t x t x =Rx ()τ,式中x 伪随机过程()t x 的时间平均值;
x μ为与以为 概率密度有关的数字特征量集合均值;Rx ()τ为自相关
函数。
则称()t x 是各态遍历的平稳随机过程。
3.简述噪声模型及其分类。
P130
噪声模型:)
()
()(111
---=z C z D z H
分类:
1) 自回归模型,简称AR 模型,其模型结构为 )()()(1k v k e z C =- 2) 平均滑动模型,简称MA 模型,其模型结构为)()()(1k v z D k e -=
3)自回归平均滑动模型,简称ARMA 模型,其模型结构为
))()()()(11k v z D k e z C --=
4.白噪声与有色噪声的区别是什么?
答:辨识所用的数据通常含有噪声。
如果这种噪声相关性较弱或者强度很小,则可近似将其视为白噪声。
白噪声过程是一种最简单的随机过程。
严格地说,它是一种均值为零、谱密度为非零常数的平稳随机过程,或者说它是由一系列不相关的随机变量组成的一种理想化随机过程。
白噪声过程没有“记忆性”,也就是说t 时刻的数值与t 时刻以前的过去值无关,也不影响t 时刻以后的将来值。
工程实际中数据所含的噪声往往是有色噪声。
所谓有色噪声指的是噪声序列中每一时刻的噪声和另一时刻的噪声是相关的。
5.设一个随机序列)},,2,1(),({L k k z ∈的均值是参数θ 的线性函数
{()}()z k k τθ=E h
其最小二乘估计为:L L L L L z H H H ΛΛθτ
τ1WLS )(ˆ-=
试给出其递推形式的详细推导过程,要求其最终其递推矩阵为保对称的。
P64
在2n 阶“持续激励”输入信号的作用下,加权最小二乘法的解为
L L L L L z H H H ΛΛθττ1WLS )(ˆ
-=
⎥⎦
⎤⎢⎣⎡⎥⎦⎤⎢⎣⎡=∑∑=-=L i L i i z i i i i i 11
1)()()()()()(h h h ΛΛτ
记k 时刻的参数估计值为
⎥⎦
⎤⎢⎣⎡⎥⎦⎤⎢⎣⎡=∑∑=-=k i k i i z i i i i i k 11
1)()()()()()()(ˆ
h h h ΛΛτ
θ
令∑==k
i i h i h i k R 1
)()()()(τΛ,并利用
R h () ()()()()k k i i z i i k --==-∑111
1
θΛ,
则有
⎪⎩⎪⎨
⎧+-=--+-=-)
()()()1()()]
1(ˆ)()()[()()()1(ˆ)(ˆT
1k k k k k k k k z k k k k k h h R R h h R ΛΛθθθτ 又设R R ()()k k
k =1
,可导出如下的加权最小二乘估计递推算法,记作WRLS(Weighted Recursive Least Squares algorithm),
⎪⎩
⎪⎨⎧--+-=--+-=-)]
1()()()([1
)1()()]1(ˆ)()()[()()(1)1(ˆ)(ˆ1k k k k k k k k k k z k k k k k k R h h R R h h R ττθθθΛΛ 置[]
1
11
11)
()()()1()()()()(1)(---=-Λ+-=⎥
⎦
⎤
⎢⎣⎡Λ==∑k k k k i i i k k k k i ττh h P h h R P ,并利用矩
阵反演公式
111111)()(------+-=+A C C A C B C A A CBC A τττ ,
令增益矩阵为:)()()()(k k k k Λ=h P K
那么算法将演变成下面所示的另一种递推算法形式
⎪⎪⎪
⎩
⎪
⎪⎪⎨⎧--=⎥⎦⎤⎢⎣⎡+--=--+-=-)1()]()([)()(1)()1()()()1()()]
1(ˆ)()()[()1(ˆ)(ˆ1
k k k k k k k k k k k k k k z k k k P h K P h P h h P K h K τ
ττ
θθθI Λ 6.简述在最小二乘估计问题中引入加权因子的作用。
P58
7.假如给出在不同温度下测量同一热敏电阻的阻值,根据测量值确定该电阻的
数学模型,并求出当温度在t 时的电阻值。
(1)利用头两个数据给出
00
01
0(0)()()ˆ(0)(0)0
T L L T
L L L -⎧==⎪⎨=⎪⎩P P H H θP H z (2)写出最小二乘的递推公式;
(3)计算
ˆ()[(),()]T k a k b k =θ
并要求在计算过程中给出矩阵(),()k k P K 的值。
老师给过示例
7题:表1中是在不同温度下测量同一热敏电阻的阻值,根据测量值确定该电阻的数学模型,并求出当温度在C ︒70时的电阻值。
要求用递推最小二乘求解: (a )设观测模型为 利用头两个数据给出
⎪⎩
⎪⎨⎧===-0L T L L T L L z H P θH H P P 000)0()0(ˆ)()()0(1
0 (b )写出最小二乘的递推公式; (c )利用Matlab 计算
表1 热敏电阻的测量值
i i v bt a y ++=
T k a k b k )](),([)(ˆ=θ
并画出相应的图形。
解:首先写成[][]⎥⎦
⎤
⎢⎣⎡=⎥⎦⎤⎢⎣⎡=+==a b t a b h h a bt k k z k k 1)()(12
θτ
h θL L H z =
T L L z z ],...,[1=z ,⎥⎥⎥⎥⎦
⎤⎢⎢⎢
⎢⎣⎡=1 (112)
1
L L t t t H ,⎥⎦
⎤⎢⎣⎡=a b θ
的形式。
利用头两个数据给出最小二乘的初值:
,126120.50⎥
⎦⎤⎢⎣⎡=L H ⎥⎦
⎤⎢⎣⎡=7907650L z 这样可以算得
⎪⎩
⎪⎨⎧===-0L T L L T L L z H P θH H P P 000)0()0(ˆ)()()0(1
0 求得
⎪⎪⎩
⎪⎪⎨⎧⎥⎦⎤⎢⎣⎡=
=⎥⎦⎤⎢⎣⎡==671.8182 4.5455 )0()0(ˆ36.2397 1.5372- 1.5372- 0.0661)()0(000L T L L z H P θP P 注意对于手工计算,可以直接用2阶矩阵求逆公式
⎥⎦
⎤⎢⎣⎡---=⎥⎦⎤⎢⎣⎡-a c b d bc ad d c b a 11
有了初值,可以写出递推公式:
T 1032]1010 980 942 910 873 850 826 [=L z
⎥⎥
⎥⎥⎥
⎥⎥⎥⎥⎥⎥⎦
⎤⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎢⎣⎡= 1.0000 95.7000 1.0000 88.0000 1.0000
80.0000 1.0000 73.0000 1.0000 61.0000 1.0000 51.0000 1.0000 40.0000 1.0000
32.7000 L H ⎥⎦⎤⎢⎣⎡=1)(k t k h 这样可以根据公式进行计算。
⎪⎪⎪
⎩⎪⎪⎪⎨⎧⎥⎦⎤⎢⎣⎡Λ+---=⎥⎦⎤
⎢⎣⎡Λ+--=--+-=-)(1)()1()()()()1()()(1)()1()()()1()()]1(ˆ)()()[()1(ˆ)(ˆ1k k k k k k k k k k k k k k k k k k z k k k h P h K K P P h P h h P K h K ττττθθθ 算得:
P(1) =
0.0134 -0.3536 -0.3536 9.6685 P(2) =
0.0047 -0.1397 -0.1397 4.4118 P(3) =
0.0017 -0.0594 -0.0594 2.2224 P(4) =
0.0008 -0.0327 -0.0327 1.4264 P(5) =
0.0005 -0.0198 -0.0198 1.0025 P(6) =
0.0003 -0.0143 -0.0143 0.8103 P(7) =
0.0002 -0.0110
-0.0110 0.6863 P(8) =
0.0002 -0.0088 -0.0088 0.5986
T
k ⎥⎦
⎤⎢⎣⎡=702.7620 702.9683 705.3110 708.4127 702.9463 698.6728 675.2295 661.3131 3.4344 3.4292 3.3668 3.2778 3.4443 3.5878 4.4470 5.0134 )(ˆθ
8.简述系统辨识中的模型、逆模型及广义模型的概念,Bayes 辨识和Kalman 滤波
分别采用什么模型?
● 模型的含义
模型-把关于实际过程的本质的部分信息简缩成有用的描述形式。
它是用来描述过程的运动规律,是过程的一种客观写照或缩影,是分析、预报、控制过程行为的有力工具。
模型是实体的一种简化描述。
模型保持实体的一部分特征,而将其它特征忽略或者变化。
不同的简化方法得到不同的模型。
Bayes---最小二乘模型 Kalman---线性代数和隐马尔可夫模型
9.在线辨识和离线辨识的差别是什么?
如果系统的模型结构已经选好,阶数也已确定,在获得全部数据之后,用最小二乘法、极大似然法或其它估计方法,对数据进行集中处理后,得到模型参数的估计值,这种方法称为离线辨识。
离线辨识的优点是参数估计值的精度较高,缺点是需要存储大量数据,运算量也大,难以适用于实时控制 。
在线辨识时,系统的模型结构和阶数是事先确定好的。
当获得一部分新的输入输出数据后,在线采用估计方法进行处理,从而得到模型的新的估计值。
在线辨识的优点是所要求的计算机存储量较小,辨识计算时运算量较小,适合于实时控制,缺点是参数估计的精度较差。
为了实现自适应控制,必须采用在线辨识,要求在很短的时间内把参数辨识出来。
10.已知确定性问题的梯度校正参数辨识方法的参数估计递推公式为
ˆˆˆ(1)()()()[()()()]k k k k y k k k τ+=+-h h θθR θ
并且权矩阵)(k R 选取如下形式。
12()()[(),(),
,()]N k c k diag k k k ΛΛΛ=R
如果权矩阵满足以下条件。
(1)0(),(12)L i H k i N ΛΛΛ<≤≤=,
,,; (2)N 个()i k Λ中存在一个()m k Λ,使得
)()
1()()()1()(k k k k k k i i i m m m ΛΛΛΛΛΛ+-≥
+-
(3)21
2
0()()()
N
i i
i c k k h k Λ=<<
∑;
(4))(ˆ)(~0k k θ
θθ-=与)(k h 不正交。
证明不管参数估计值的初始值如何选择,参数估计值总是全局一致渐近收敛的,即有
)(ˆlim θθ=∞
→k k
P92
定理的证明:
① 建立关于参数估计偏差)(~
k θ的离散时间运动方程。
由于:
)](ˆ)[()()()(ˆ)](ˆ)()()[()()(ˆ)](ˆ)()()[()()(ˆ)1(ˆ0
0k k k k k k k k k k k k k k y k k k k θ
θR θθ
θR θθ
R θθ-+=-+=-+=+ττττh h h h h h h 令:)(ˆ)(~
0k k θ
θθ-=,由: )](ˆ)[()()()(ˆ)1(ˆ00
0k k k k k k θθR θ-θθ-θ--=+τh h 我们有:
)(~
)()()()(~
)1(~
k k k k k k θR θθτh h -=+
即
)(~
)]
()()([)1(~
k k k k k θR I θτh h -=+ (**) ② 建立方程(**)的Lyapunov 能量函数。
定义Lyapunov 能量函数如下:
∑
=ΛΛ=N
i i i m k k k k k V 1
2)
()
(~
)(]),(~
[θθ
其中m Λ满足定理中的条件2,)(ˆ)(~
k k i
i i θθθ-=。
由Lyapunov 稳定性定理,只要]),(~
[k k V θ满足以下条件,则离散时间运动方程(**)具有全局一致渐近稳定的零点。
(a )0]),(~[>k k V θ,对于所有的0θ≠)(~k ; (b )0]),(~
[=k k V θ,对于所有的0θ=)(~
k ; (c )当∞→)(~k θ时,有∞→]),(~
[k k V θ;
(d )0]),(~
[]1),1(~
[
ˆ],~
[<-++=∆k k V k k V k V θθθ,对所有的0θ≠)(~
k 。
由定理给定的条件可知(a )、(b )和(c )一定满足。
③ 条件(d )满足的证明 记:
)
(]
),(~
[)1(]1),1(~[],~
[k k k V k k k V k V m m m Λ-
+Λ++=∆θθθ 则由Lyapunov 能量函数的定义,有:
∑∑∑∑∑∑∑∑∑∑==========+ΛΛ+Λ-Λ++=+ΛΛ+Λ-Λ++⎥⎦⎤⎢⎣⎡Λ-+=⎥
⎦
⎤
⎢⎣⎡+ΛΛ++Λ-+Λ++Λ-++Λ=⎥
⎦⎤
⎢⎣⎡+ΛΛ+Λ-+Λ=⎥
⎦⎤⎢⎣⎡Λ-+Λ+=Λ-+Λ+=ΛΛΛ-+Λ++Λ+Λ=∆N
i i i i i
i N i i i i i i
N i i i i N i i i i i i i i i i i N i i i i i i i N i i i i
i N i i i N i i i N i i i m m N i i i m m m k k k k k Q k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k k V 1
21
2122
12222122122
1212
1212)1()()1()()1(~
)1()()1()()1(~)()(~)1(~)1()()1(~)1()1(~)()(~)1()1(~)1()1()()(~)1()1(~)()()(~)1()1(~)
()(~)1()1(~)
()
(~
)()()1()1(~)1()1(],~
[θθθθθθθθθθθθθθθθθ 其中:
∑∑==Λ-++-+=⎥⎦⎤⎢⎣⎡Λ-+=N i i i
i i i i N
i i i i k k k k k k k k Q 1
122)(]2)(ˆ)1(ˆ)][(ˆ)1(ˆ[)()(~)1(~θθθθθθθ 将)](ˆ)()()[()()(ˆ)1(ˆk k k y k k k k θR θθτh h -+=+及)(k R 的定义式代入,由于:
)(~
)()(ˆ)()()(ˆ)()()(0k k k k k k k k y k θh θh θh θh ττττε=-=-=
我们有:
⎥
⎦
⎤⎢⎣⎡-Λ=-Λ=∑∑==2)()()()()()]
(~
2)()()()()[()()(122
1
N
i i i N
i i i i i k h k k c k k c k k k h k k c k h k k c Q εθεε
由定理给的条件2,有
)(]1),1(~[)1(]1),1(~[]1),1(~[)
1()()1()()1()1(~)()1()()1()()1()()1(~],~
[1212k k k V k k k V Q k k V k k k k Q k k k k k Q k k k k k Q k V m m m m m m N i i i m m m N i i i i i
i m Λ++-+Λ+++=+++ΛΛ+Λ-Λ+=+Λ+Λ+Λ-Λ+≤+ΛΛ+Λ-Λ++=∆∑∑==θθθθθθ
利用],~[k V m θ∆和],~
[k V θ∆的定义,由
)(]),(~[],~[)1(]1),1(~[k k k V k V k k k V m m m Λ+∆=+Λ++θθθ 上面的不等式可得:
)
(],~[)(]),(~[]1),1(~[)
(]1),1(~[)(]),(~[0k k V Q k k k V k k V Q k k k V k k k V Q m m m m Λ∆-=Λ-++-=Λ++-Λ+≤θθθθθ 即有:
)(],~[k Q k V m Λ≤∆θ
由于0)(>Λk m ,所以为了使0],~
[<∆k V θ,必须0<Q ,即要求:
02)()()()()(122<⎥⎦⎤⎢⎣⎡-Λ∑=N i i i k h k k c k k c ε
由定理的条件4,有0)(~)()(≠=k k k θh τε,因此上面的不等式为:
∑=Λ<<N i i i
k h k k c 1
2
)()(2
)(0 至此证明了只要定理的条件满足,必有0],~
[<∆k V θ,定理证毕。
11.(1)设X 和Y 是两个随机变量(向量),且X 取值所形成的空间为 S , 试解释
ˆ(){}Y
h X Y X *==E 的几何含义; (2)随机逼近原理的内容为:给定α,设方程
(){}h x Y X x α===E
有唯一解。
可以取X 的样本值为 ,,21x x ,对应Y 的样本值为 ),(),(21x y x y ,通过迭代,逐步逼近上述方程的解。
试叙述随机逼近R-M 算法的内容。
P118答;(1)用X 的某一函数)(X h 来作为Y 的预测,记作)(ˆX h Y
=,使得}]ˆ{[2Y
Y E -达到最小。
(2) ))](()[()()1(k x y k k x k x -+=+αρ (C )
其中:)(k ρ称为收敛因子。
如果)(k ρ满足:
⎪⎩⎪⎨⎧∞
<∞==∀>∑∑∞=∞=∞→121
)(;)(0)(lim ;,0)(k k k k k k k k ρρρρ (D ) 则由(C )确定的)(k x 在均方意义下收敛于方程(B )的解。
一般)(k ρ取:
k
a b k k k +==)(;1)(ρρ 另外:当满足以下条件时
⎪⎪⎩
⎪⎪⎨⎧>-∞<<<∀>><<∞<<∞-+≤∞<-≤-≤∞∞
-⎰0)(inf ,0,,)
(,)();(,)(,)()()]([2012121002αδδδδααδδx h x x x h x x x h x x d c x h x y dp x h y x x
由(C )确定的)(k x 满足:
1})(lim {0==∞
→x k x P k
12.(1)什么是极大似然估计?其与最小二乘估计的主要区别是什么?
(2)运用极大似然估计给出参数估计,所得的统计量一般是什么统计量?其
物理涵义是什么?
(3)设对某电阻进行测量,其观测值服从正态分布),(2σμN ,现获取的样本
为n X X ,...,1,试求),(σμ的极大似然估计。
答:(1)设z 是随机变量,已知条件概率密度函数)(θz p ,观测序列为{}L k k z ,,2,1);( =,记为向量形式)](,),2(),1([L z z z L =z ,则L z 的联合条件概率密度函数为)(θz L p ,那么参数θ的极大化似然估计就是使max )(ˆ=θθz L p 的参数估计值。
即有:
0θθz =⎥⎦⎤⎢⎣⎡∂∂τθML L p ˆ)( 或 0θθz =⎥⎦⎤⎢⎣⎡∂∂τ
θML L p ˆ)(log 给定一组数据)](,),2(),1([L z z z L =z ,此时)(θz L p 只是θ的函数,我们
称为θ的似然函数,记为)(θz L L 。
因此极大似然原理可表示为: 0θθz =⎥⎦⎤⎢⎣⎡∂∂τ
θML L L ˆ)( (A ) 或 0θθz =⎥⎦⎤⎢⎣⎡∂∂τ
θML L L ˆ)(log (B )
其中)(log θz L L 称为对数似然函数。
ML
θˆ称作极大似然参数估计值。
与最小二乘法的区别:对于最小二乘估计,最合理的参数估计量应该使得模型能最好地拟合样本数据,也就是估计值和观测值之差的平方和最小。
对于最大似然法,最合理的参数估计量应该使得从模型中抽取该n 组样本观测值的概率最大,也就是概率分布函数或者说是似然函数最大。
显然,这是从不同原理出发的两种参数估计方法。
因此最大似然法需要已知这个概率分布函数,一般假设其满足正态分布函数的特性,在这种情况下,最大似然估计和最小二乘估计是等价的,也就是说估计结果是相同的,但是原理和出发点完全不同
(2)对数似然函数统计量,对一组确定的随机序列L z ,设法找到参
数估计值ML θˆ,使得随机变量z 在ML
θˆ条件下的概率密度函数最大可能地逼近随机变量z 在0θ(真值)条件下的概率密度函数,即有:
)()ˆ(0max θθz p z p ML
−−→− 可以证明:(A )或(B )式是实现上式的条件。
(3)将模型写成最小二乘格式:
L L L H e θz +=
其中:
⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡--------------====)()1()()1()2()
1()2()1()1()0()1()0(],,,,,,,[)](,),2(),1([)](,),2(),1([2121n L u L u n L z L z n u u n z z n u u n z z H b b b a a a L e e e L z z z L n n L L τ
τ
τ
θe z 记噪声)(k e 的协方差阵为}{τL L e E e e =∑,则由)(k v 的正态性,可知:
),(~e L L H N ∑θz
因此,有:
⎭⎬⎫⎩⎨⎧-∑--∑=---)()(21exp )(det )2()(12
12θz θz θz L L e L L e L L H H p τπ 对应的对数似然函数为:
)()(2
1)log(det 21)2log(2)(log )(1θz θz θz θz L L e L L e L L H H L p l -∑--∑--==
=-τπ 由极大似然原理可得:
L
e L L e L ML H H H z θ111)(ˆ---∑∑=ττ (D ) 并且
0θθz <∂∂ML L l θˆ22)
(
因此(D )式给出了参数θ的极大似然估计值。
13.分析极大后验参数估计方法与条件期望参数估计方法之间的内在联系。
P149--P151
在有了后验分布(A )后,对参数的估计,必须建立在这个后验分布的基础上推出,具体可结合使用者的某种要求(准则)来处理。
(1)若取后验分布(A )的(条件)均值作为参数的估计,则称此为Bayes 条件期望估计;(2)若取
满足:后验分布(A )达最大的的作为,称为Bayes 最大后验估计。
他们是从直观的定义出发来构造参数的估计量的。
一般来说,当k 比较小时,这俩种方法的估计结果是不同的;当k 比较大时,他们就没有什么差别了,俩者的估计结果将趋于一致。
14.什么是系统辨识三要素?说明结构辨识和参数辨识的联系及区别。
阐述Bayes
参数辨识算法。
● 辨识的三大要素
1. 输入输出数据
2. 模型类
3. 等价准则
模型结构辨识:在假定模型结构的前提下,利用辨识方法确定模型结构参数,如差分方程中的阶次、纯延迟等。
模型参数辨识:在假定模型结构确定之后,选择估计方法,利用测量数据估计模型中的未知参数;
Bayes-----------P148
15.对于模型类
()()T z k k =h θ
阐述利用Bayes 方法估计参数θ的基本思想并给出参数θ递推估计算法。
P152 P154-----式6.40
16.阐述预测、滤波与平滑三种估计的差异,说明Kalman 滤波是采用何种准则
利用一步预测和滤波实现状态估计的。
P160 P164
17.模型参考自适应辨识方法与自校正自适应辨识方法的差别是什么? P172定义+P180小结最后一段
自校正控制的基本思想是将参数估计递推算法与各种不同类型的控制算法结合起来,形成一个能自动校正控制器参数的实时计算机控制系统。
定义中有啊。
一个是控制算法,一个是根据特性差异。
18.给出神经网络正向建模的串-并联结构图及并联结构图并比较其差异。
P190----图7.4 P191----图7.5 差异P190
19.阐述神经网络直接和间接模型参考自适应控制系统原理,说明其辨识方法。
PPT6.4
20.简述BP 网络在线逼近原理及离线建模原理并比较它们的差异。
PPT6.2+后面6
21.考虑被控对象
(1)[()][()]()y k g y k y k u k ϕ+=+
式中,(),()u k y k 分别为对象的输入、输出,[]ϕ⋅为非零函数。
试构造RBF 网络自校正控制算法。
PPT6.4
22.举例说明建模、逼近、设计三种类型系统辨识的特点。
阐述利用Hopfield 网
络进行参数辨识的原理。
PPT6.5
23.什么是模型参考自适应控制?P172
24.简述基于RBF 网络辨识的自校正控制原理。
PPT6.4
25.简述模糊系统模糊逼近原理。
PPT7.3
26.简述 Hopfield 网络原理及在优化问题求解中的应用。
PPT6.5
27.简述模糊系统的自适应模糊控制算法。
PPT7----11
28.针对一维函数()g x ,设计一个模糊系统()f x ,使之一致地逼近定义在
[1,3]=-+U 上的连续函数()sin()g x x =,所需精度为0.2ε=,即()()x Sup g x f x ε∈-<U。
PPT7 -----10页。