最小二乘参数辨识方法

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

《系统辨识基础》第17讲要点

第5章 最小二乘参数辨识方法

5.9 最小二乘递推算法的逆问题

辨识是在状态可测的情况下讨论模型的参数估计问题,滤波是在模型参数已知的情况下讨论状态估计问题,两者互为逆问题。

5.10 最小二乘递推算法的几种变形

最小二乘递推算法有多种不同的变形,常用的有七种情况:

① 基于数据所含的信息内容不同,对数据进行有选择性的加权;

② 在认为新近的数据更有价值的假设下,逐步丢弃过去的数据;

③ 只用有限长度的数据;

④ 加权方式既考虑平均特性又考虑跟综能力;

⑤ 在不同的时刻,重调协方差阵P (k );

⑥ 设法防止协方差阵P (k )趋于零;

5.10.1 选择性加权最小二乘法

把加权最小二乘递推算法改写成

[]

⎪⎪⎩⎪⎪⎨⎧--=+--=--+-=-)1()]()([)(1)()1()()()()1()()()]

1(ˆ)()()[()1(ˆ)(ˆ1k k k k k k k k k k k k k k k z k k k P h K P h P h h P K h K τττθθθI ΛΛ 算法中引进加权因子,其目的是便于考虑观测数据的可信度.选择不同的加权方式对算法的性质会有影响,下面是几种特殊的选择:

① 一种有趣的情况是Λ()k 取得很大,在极限情况下,算法就退化成正交投影算法。也就是说,当选择

⎩⎨⎧=-≠-∞=0

)()1()(,00)()1()(,)(k k k k k k k h P h h P h ττΛ 构成了正交投影算法

⎪⎪⎩

⎪⎪⎨⎧--=--=--+-=)1()]()([)()()1()()()1()()]

1(ˆ)()()[()1(ˆ)(ˆk k k k k k k k k k k k k z k k k P h K P h P h h P K h K τττθθθI 算法初始值取P ()0=I 及∃()θ

ε0=(任定值),且当0)()1()(=-k k k h P h τ时,令K ()k =0。 ② 第①种加权因子的选择显然是一种极端情况,算法的鲁棒性比较差。为了使算法具有较好的鲁棒性,可把第①种加权因子的选择修改为

⎩⎨⎧<-≥-=ε

εττ)()1()(,)()1()(,)(21k k k k k k k h P h h P h ΛΛΛ 其中ΛΛ120≥>,ε是指定的阀值。这时算法对数据作了不同的加权,但不排斥任何数据. ③ 按下式选择加权因子,意味着它是过去数据信息量的一种度量

⎪⎩

⎪⎨⎧=≠-=0)()(,00)()(,)()()()1()()(k k k k k k k k k k h h h h h h h P h ττττΛ ④ 如果由噪声、建模不准确等因素引起的误差上界已知,则可按下式选择加权因子

⎪⎪⎩⎪⎪⎨⎧><-+-->≥-+--=0)

()1()(1)]1(ˆ)()([,00)()1()(1)]1(ˆ)()([,1)(22

22∆∆Λk k k k k k z k k k k k k z k h P h h h P h h ττττθθ 5.10.2 遗忘因子法

遗忘因子算法通过对数据加遗忘因子的办法来降低老数据的信息量,为补充新数据的信息创造条件。取准则函数为

2])()([)(θμθτ∑=--=L

1k k L k k z J h

其中μ称遗忘因子,取值为01<<μ.极小化这个准则函数,可得到参数辨识算法:

**1**FF )(ˆL L L L z H H H τ

τθ-= 式中

⎪⎪⎪⎩⎪⎪⎪⎨⎧=⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎣⎡==----μ

βββββττττ

221*21*)()2()1()](,),2(),1([L L z z z L L L L L L h h h H z M Λ 这种参数辨识方法称作遗忘因子法,记作FF(Forgetting Factor algorithm)。如果遗忘因子μ=1,算法退化成普通最小二乘法。与推导加权最小二乘递推算法一样,同样可以推导出遗忘因子算法的递推计算形式

[]

⎪⎪⎩

⎪⎪⎨⎧--=+--=--+-=-)1()]()([1)()()1()()()1()()]

1(ˆ)()()[()1(ˆ)(ˆ1k k k k k k k k k k k k k z k k k P h K P h P h h P K h K τττθθθI μμ 式中遗忘因子μ可按下面的原则取值:

① 若要求T c 步后数据衰减至36%,则μ=-11T c ; ② μ取作时变因子μμμμ()()()k k =-+-0011,其中μμ0099

0095==.,().。 遗忘因子μ的取值大小对算法的性能会产生直接的影响。μ值增加时,算法的跟踪能力下降,但算法的鲁棒性增强;μ值减少时,算法的跟踪能力增强,但算法的鲁棒性下降,对噪声更显得敏感。

遗忘因子法和加权最小二乘算法主要的差别:

① 加权方式不同.加权最小二乘法各时刻权重是不相关的,也不随时间变化;遗忘因子

法各时刻权重是有关联的,满足ΛΛ()()k k =-1

1μ关系,各时刻权重的大小随时间变化,当

前时刻的权重总为1。

② 加权的效果不一样.加权最小二乘法获得的是系统的平均特性;遗忘因子法能实时跟踪系统明显的变化,具有跟踪能力。

③ 算法的协方差矩阵P (k )的内容不一样,两者的关系为P P FF WLS ()()()k k k =Λ。 和加权最小二乘递推算法一样,遗忘因子算法下的残差ε()k 与新息~()z k 关系:

)

()1()()(~)(k k k k z k h P h -+=τμμε 或

)(~)]()()(1[)(k z k k k k h P h τε-=

由此可推出准则函数J (k )的递推计算式:

⎥⎦⎤⎢⎣⎡+-+-=μμτ)()1()()(~)1()(2k k k k z k J k J h P h 式中)1(ˆ)()()(~--=k k k z k z θτh , 是k 时刻的新息,它与k -1 时刻的参数估计值有关。

5.10.3 限定记忆法

限定记忆法依赖于有限长度的数据,每增加一个新的数据信息,就要去掉一个老数据的信息,数据长度始终保持不变。这种方法的参数估计递推算法如下:

[][]

⎪⎪

⎪⎪⎩⎪⎪⎪⎪⎨⎧-+++=++-++++-+=+-++-+++-+=++++=+++-+=+++-++-+=++--.)1,()](),([),()()1,()(1)()1,(),()]1,(ˆ)()()[,()1,(ˆ),(ˆ),()](),1([),1()(),()(1)(),(),1()]

,(ˆ)()()[,1(),(ˆ),1(ˆ11

L k k L k L k k L k k L k L k k L k L k L k k L k k L k k L k L k z L k k L k k L k k L k k k L k k L k k k L k k k k L k k L k k L k k k k z L k k L k k L k k P h K P h P h h P K h K P h K P h P h h P K h K ττττττθθθθθθ-I +I 算法前三个式子用于去掉老数据的信息,后三个式子用来增加新数据的信息,初始值取

P (,)∃(,),

00002==⎧⎨⎩a I ,θε 其中a 为充分大实数,ε 为充分小实向量.相应的准则函数递推计算式为:]

,)

()1,()(1)(~)(),()(1)(~)1,(),1(2221L k L k k L k L k z k L k k k k z L k k J L k k J +-++++++---+=++h P h h P h ττ 其中

⎪⎩⎪⎨⎧-++-+=++-=)1,(ˆ)()()(~),(ˆ)()()(~2

1L k k L k L k z L k z L k k k k z k z θθττh h 5.10.4 折息法

相关文档
最新文档