系统辨识练习题

合集下载

系统识别试题

系统识别试题

系统辨识练习题
一、简述下列各题
1. 什么是系统辨识?系统辨识的组成要素有哪些?系统辨识的基本步骤有哪些?把
系统辨识的基本环节用框图表示出来。

2. 阐述辨识的原理,并以单输入单输出系统为例,画出辨识原理图。

3. 什么是最小二乘参数辨识问题,简单阐述它的基本原理。

4. 基本最小二乘算法有何优缺点?克服基本最小二乘算法的缺陷的方法有哪些?
5. 递推辨识算法的基本格式是什么?构成递推辨识算法的基本条件是什么?
6. 阐述极大似然原理。

7. 现代辨识方法大体上可以分成哪几类? 8. 何谓白噪声?
9. 简述表示定理,并简单说明其意义。

10. 简述巴塞伐尔定理。

二、如下图所示,信号以1/2的概率在固定的时间间隔上改变极性,而且在持续时间区间内
信号幅度保持不变,求其自相关函数)(τx R 和谱密度函数)(ωx S 。

三、完成下面关于参数估计的统计性质的表格(在符合条件的栏内打√)
四、根据热力学原理,对于给定质量的气体,压力P 与体积V 之间的关系为βα
=PV
,其
中α和β为待定参数。

经实验获得如下一批数据,V 单位为立方英寸,P 的单位为巴每平方英寸
试用一次完成的最小二乘算法确定参数α和β(只要求写出计算过程,不要求计算结果)。

五、 写出加权最小二乘算法的递推公式,并解释如何进行递推计算(包括初始条件如何
确定)? 六、
考虑一个独立同分布的随机过程)}({t x ,在参数θ条件下随机变量x 的概率密度为
0,)|(2>=-θθθθx xe x P
求参数θ的极大似然估计。

系统辨识试卷A参考答案

系统辨识试卷A参考答案

襄樊学院2008-2009学年度上学期《系统辨识》试题A卷参考答案及评分标准一、选择题:(从下列各题的备选答案中选出一个或几个正确答案,并将其代号写在题干后面的括号内。

答案选错或未选全者,该题不得分。

每空2分,共12分)1、(C)2、(D)3、(ACD)4、(D)5、(A)6、(ABC)二、填空题:(每空2分,共14分)1、计算。

2、阶次和时滞3、极大似然法和预报误差法4、渐消记忆的最小二乘递推算法和限定记忆的最小二乘递推算法三、判断题(下列命题你认为正确的在题后括号内打“√”;错误的打“×”并改正;每小题2分,共20分)(注:正确的题目括号内打“√”得2分,打“×”得0分;错误的题目括号内打“×”得1分,改正正确再得1分,错误的题目括号内打“√”得0分;)1、(√)2、(×)参数型→非参数型3、(√)4、(×)没有→有5、(√)6、(×)考虑→基本不考虑7、(√)8、(√)9、(×)完全相同→不完全相同 10、(×)不需要→需要四、简答题:(回答要点,并简明扼要作解释,每小题6分,共18分)1、答:相关分析法的主要优点是由于M序列信号近似于白噪声,噪声功率均匀分布于整个频带,从而对系统的扰动甚微,保证系统能正常工作(1.5分)。

此外。

因为相关函数的计算是一种统计平均的方法,具有信息滤波的功能,因此,在有噪声污染下,仍可提取有用信息,准确地求出系统的脉冲响应(1.5分)。

相关辨识技术在工程中的应用、可归结为下述几个方面:(1)系统动态特性的在线测试。

包括机、炉、电等一次设备,风机、水泵等辅机以及二次自动控制系统;(1分)(2)对控制系统进行在线调试,使调节系统参数优化;(1分)(3)自适应控制中的非参数型模型辨识等。

(1分)2、答:计算中用一个数值来表示对观测数据的相对的“信任程度”,这就是权。

(2分)对于时变参数系统,其当前的观测数据最能反映被识对象当前的动态特性,数据愈“老”,它偏离当前对象特性的可能性愈大。

山东XX工程大学《系统辨识基础》复习题

山东XX工程大学《系统辨识基础》复习题

山东XX工程大学《系统辨识基础》复习题一、单项选择题1.如果对系统的客观规律一无所知,只能从系统的测试数据获取系统模型,则该问题为【】A 白箱B灰箱C黑箱 D 蓝箱2.下列哪种模型用来描述线性离散系统?【】A 描述函数B传递函数C微分方程D差分方程3.下列哪种信号是辨识中常用的输入信号?【】A伪随机序列B斜坡信号C阶跃信号D加速度信号4.下面哪些内容不属于系统辨识的基本内容?【】A观测数据B模型结构辨识C模型参数辨识D模型验证5.下面哪个不属于系统辨识过程中的3大要素之一?【】A输入输出数据 B AIC准则C模型类 D 等价准则6.下面哪个数学模型属于非参数型?【】A微分方程B状态方程C传递函数D脉冲响应模型7.下列哪个属于物理模型?【】A阶跃响应图B风洞C脉冲响应图 D 频率特性图8.下列哪种辨识方法需要输出量条件概率密度函数的先验知识?【】A最小二乘法B相关法C极大似然法D预报误差法9.以下哪种辨识算法对噪声最敏感【】A极大似然法B相关分析法C基本最小二乘D辅助变量法10.以下哪种方法可解决数据递推的饱和现象?【】5.下面哪个不属于系统辨识过程中的3大要素之一?【】A输入输出数据 B AIC准则C模型类 D 等价准则6.下面哪个数学模型属于参数型?【】A传递函数B频率响应C阶跃响应D脉冲响应模型7.下列哪个属于图表模型?【】A沙盘B风洞C频率特性图D汽车模型8.下列哪种辨识方法需要输出量条件概率密度函数的先验知识?【】A最小二乘法B相关法C预报误差法D极大似然法9.以下哪种辨识算法对噪声最敏感?【】A基本最小二乘B相关分析法C极大似然法D辅助变量法10.以下哪种方法可解决数据递推的饱和现象?【】A普通最小二乘法B随机逼近法C渐消记忆法D增广最小二乘法A限定记忆法B随机逼近法C普通最小二乘法D增广最小二乘法二、判断题11.极大似然法可以用于线性系统和非线性系统。

【】12.白噪声信号一定是均匀分布的。

系统辨识大作业1201张青

系统辨识大作业1201张青

《系统辨识》大作业学号:********班级:自动化1班姓名:**信息与控制工程学院自动化系2015-07-11第一题模仿index2,搭建对象,由相关分析法,获得脉冲响应序列ˆ()g k,由ˆ()g k,参照讲义,获得系统的脉冲传递函数()G z和传递函数()G s;应用最小二乘辨识,获得脉冲响应序列ˆ()g k;同图显示两种方法的辨识效果图;应用相关最小二乘法,拟合对象的差分方程模型;构建时变对象,用最小二乘法和带遗忘因子的最小二乘法,(可以用辨识工具箱) 辨识模型的参数,比较两种方法的辨识效果差异;答:根据index2搭建结构框图:相关分析法:利用结构框图得到UY 和tout其中的U就是题目中要求得出的M序列,根据结构框图可知序列的周期是1512124=-=-=npN。

在command window中输入下列指令,既可以得到脉冲相应序列()g k:aa=5;NNPP=15;ts=2; RR=ones(15)+eye(15); for i=15:-1:1UU(16-i,:)=UY(16+i:30+i,1)'; endYY=[UY(31:45,2)];GG=RR*UU*YY/[aa*aa*(NNPP+1)*ts]; plot(0:2:29,GG) hold onstem(0:2:29,GG,'filled') Grid;title('脉冲序列g(τ)')最小二乘法建模的响应序列由于是二阶水箱系统,可以假设系统的传递函数为221101)(sa s a sb b s G +++=,已知)(τg ,求2110,,,a a b b已知G (s )的结构,用长除法求得G(s)的s 展开式,其系数等于从 )( g 求得的各阶矩,然后求G(s)的参数。

得到结果: a1 =-1.1561 a2 =0.4283 b0 =-0.0028 b1=0.2961在command window 中输入下列指令得到传递函数:最小二乘一次算法相关参数%最小二乘法一次完成算法 M=UY(:,1); z=UY(:,2); H=zeros(100,4); for i=1:100 H(i,1)=-z(i+1); H(i,2)=-z(i); H(i,3)=M(i+1); H(i,4)=M(i); endEstimate=inv(H'*H)*H'*(z(3:102)) %结束得到相关系数为:Estimate =-0.7866 0.1388 0.5707 0.3115带遗忘因子最小二乘法:%带遗忘因子最小二乘法程序M=UY(:,1);z=UY(:,2);P=1000*eye(5); %Theta=zeros(5,200); %Theta(:,1)=[0;0;0;0;0];K=zeros(4,400); %K=[10;10;10;10;10];lamda=0.99;%遗忘因数for i=3:201h=[-z(i-1);-z(i-2);M(i);M(i-1);M(i-2)];K=P*h*inv(h'*P*h+lamda);Theta(:,i-1)=Theta(:,i-2)+K*(z(i)-h'*Theta(:,i-2));P=(eye(5)-K*h')*P/lamda;endi=1:200;figure(1)plot(i,Theta(1,:),i,Theta(2,:),i,Theta(3,:),i,Theta(4,:),i,Theta(5,:) )title('带遗忘因子最小二乘法')grid%结束Estimate 可由仿真图得出,可知两种方法参数确定十分接近。

系统辨识考试题最终

系统辨识考试题最终

系统辨识考试题最终2009-2010 学年第二学期研究生课程考核(读书报告、研究报告)考核科目:系统辨识理论及应用学生所在院:电信学院学生所在学科:信号与信息系统姓名:学号:1. 简述系统辨识的基本概念、定义和主要步骤(15分)答:系统辨识的概念:根据系统的输入输出时间函数来确定描述系统行为的数学模型。

对系统分析大的主要问题是根据输入时间函数和系统的特性来确定输出信号。

对系统进行控制的主要问题是根据系统的特性设计控制输入,使输出满足预先规定的要求。

而系统辨识所研究的问题恰好是这些问题的逆问题。

系统辨识的定义:根据系统的输入输出时间函数来确定描述系统行为的数学模型,是现代控制理论中的一个分支。

对系统进行分析的主要问题是根据输入时间函数和系统的特性来确定输出信号。

对系统进行控制的主要问题是根据系统的特性设计控制输入,使输出满足预先规定的要求。

系统辨识的主要步骤:系统辩识包括结构辩识和参数估计两个主要内容。

辩识的一般步骤如下:(1)明确目的和获取先验知识首先要尽可能多的获取关于辨识对象的先验知识和明确辩识的目的。

明确目的和掌握尽可能多的先验知识往往是辨识结果好坏的重要先决条件。

(2)实验设计实验设计主要包括以下六个方面内容:a.选择观测点;b.输入信号的形状和幅度(可持续激励条件);c.采样间隔T0 ;d.开环和闭环辩识(闭环可辩识条件);e.在线和离线辩识;f.测量数据的存储和预处理。

(3)模型结构的确定(4)参数估计(Parameter Estimation)(5)模型验证模型精度是否可以接受?否则需要重复实验,重复辩识。

系统辩识的内容和步骤见后示意框图。

辩识目的与先知识验实验设计模型结构的确定输入/输出数据获取参数估计模型验证最终模型2. 简述相关辨识的基本原理和基于二进制伪随机序列的相关辩识方法。

(15分)答:相关辨识的基本原理如下图所示。

g(t)延时τ1/Tπ×x(t)w(τ)x(t-τ)y(t) ×(t-τ)kg(t)x(t) —输入(白噪声); y(t) —测量输出;w(τ) ω(t )—随机干扰(不可测)基于二进制伪随机序列的相关辩识方法:x(t)用二位式周期性伪随机信号,积分时间大大缩短()()xy 0R () 1/T x t y(t )dt g()Tτττ=+?? ()s T T >二位式信号使得乘法运算简化。

系统辨识练习题

系统辨识练习题

系统辨识练习题在进行系统辨识练习题之前,我们需要明确什么是系统辨识。

系统辨识是指通过对系统输入和输出数据的分析,建立描述系统行为的模型,并通过模型参数的估计来预测系统的性能。

在现实生活中,系统辨识具有广泛的应用,如控制系统设计、信号处理、机器学习等领域。

一、系统辨识基础知识1.1 系统模型与辨识系统模型表示了系统内部因果关系和输入输出关系,它是描述系统行为的数学方程。

系统辨识则是通过收集系统输入输出数据,根据这些数据建立模型,进而估计模型参数。

1.2 时域与频域方法在进行系统辨识时,可以采用时域方法或频域方法。

时域方法是指通过观察系统的时域响应,建立时间上的模型。

频域方法是指将系统输入输出的频谱进行分析,建立频域模型。

1.3 参数辨识与结构辨识参数辨识是指根据已知的系统输入输出数据,估计系统模型中的参数。

而结构辨识是指在已知系统输入输出数据的基础上,确定系统模型的结构或形式。

二、系统辨识方法2.1 线性系统辨识方法线性系统辨识是指对线性系统进行辨识,常用的方法包括最小二乘法、最大似然法、滑动模式控制等。

这些方法都基于线性系统的假设,且对噪声具有一定的假设条件。

2.2 非线性系统辨识方法非线性系统辨识是指对非线性系统进行辨识,因为非线性系统的行为较为复杂,因此常常需要更加复杂的模型和算法来进行辨识。

常见的方法包括神经网络、遗传算法等。

2.3 时间序列分析时间序列分析是指对系统输入输出数据在时间上的变化进行分析,用来建立系统的模型。

常用的方法包括自回归模型、移动平均模型等。

2.4 频域分析频域分析是指对系统输入输出数据的频谱进行分析,从而建立频域模型。

常用的方法包括傅里叶变换、功率谱估计等。

三、系统辨识实践练习在进行系统辨识实践练习时,首先需要明确辨识的目标和问题。

然后,收集系统的输入输出数据,并对数据进行预处理,如去噪、插值等。

接下来,选择合适的辨识方法,建立系统的数学模型,并进行参数估计。

最后,对辨识结果进行验证和评估。

系统辨识作业及答案

系统辨识作业及答案

一. 问答题1. 介绍系统辨识的步骤。

答:(1)先验知识和建模目的的依据;(2)实验设计;(3)结构辨识;(4)参数估计;(5)模型适用性检验。

2. 考虑单输入单输出随机系统,状态空间模型[])()(11)()(11)(0201)1(k v k x k y k u k x k x +=⎥⎦⎤⎢⎣⎡+⎥⎦⎤⎢⎣⎡=+ 转换成ARMA 模型。

答:ARMA 模型的特点是u(k)=0,[])()(11)()(0201)1(k v k x k y k x k x +=⎥⎦⎤⎢⎣⎡=+3. 设有一个五级移位寄存器,反馈取自第2级和第3级输出的模2加法和。

试说明:(1) 其输出序列是什么? (2) 是否是M 序列?(3) 它与反馈取自第4级与第3级输出模2加法和所得的序列有何不同? (4) 其逆M 序列是什么? 答:(1)设设输入序列1 1 1 1 1111018110107101006010015100114001113011112111111)()()()()()()()(()()()()()()()01110161110115110101410100)13(010011210011110011110011109()()()()()()()001112401110)23(111012211010211010020010011910011180011117()()()()()()()()10011320011131011103000111291101028101002701001261001125 其输出序列为:1 1 1 1 1 0 0 1 0 1⑵不是M 序列⑶第4级与第3级模2相加结果100108001007010006100015000114001113011112111111)()()()()()()()(()()()()()()()11110161110115110101410101)13(010111210110110110010110019()()()()()()()110012410010)23(001002201000211000120000111900111180111117()()()()()()()()01111321111031111013011010291010128010112710110260110025 不同点:第2级和第3级模二相加产生的序列,是从第4时刻开始,每隔7个时刻重复一次;第4级与第3级模2相加产生的,序列,是从第2时刻开始每隔15个时刻重复一次。

系统辨识大作业

系统辨识大作业

系统辨识大作业专业班级:自动化09-3学号:09051325姓名:吴恩作业一:设某物理量Y与X满足关系式2=++,实验获得一批数据Y aX bX c如下表,试辨识模型参数,,a b c。

(15分)解答:问题描述:由题意知,这是一个已知模型为Y=aX2+bX+c,给出了10组实验输入输出数据,要求对模型参数a,b,c进行辨识。

问题求解:这里对该模型参数辨识采用最小二乘法的一次算法(LS)求解。

2=++可以写成矩阵形式Y=AE+e;其中A=[X^2,X,1]构成, Y aX bX c利用matlab不难求解出结果。

运行结果:利用所求的的参数,求出给定的X对应的YE值,列表如下做出上表的图形如下12345678910xyy=ax 2+bx+c 参数求解结果分析:根据运行结果可以看出,拟合的曲线与真是观测的数据有误差,有出入,但是误差较小,可以接受。

出现误差的原因,一方面是由于给出的数据只有十个点,数据量太少,难以真正的充分的计算出其参数,另外,该问题求解采用的是LS 一次算法,因此计算方法本身也会造成相应的误差。

作业二:模仿实验二,搭建对象,由相关分析法,获得脉冲相应序列()g k,由()G z;和传递函数g k,参照讲义,获得系统的脉冲传递函数()G s及应用相关最小二乘法,拟合对象的差分方程模型;加阶跃()扰动,用最小二乘法和带遗忘因子的最小二乘法,辨识二阶差分方程的参数,比较两种方法的辨识差异;采用不少于两种定阶方法,确定对象的阶次。

对象模型如图:利用相关分析法,得到对象的脉冲相应序列。

如下图:(1).由脉冲相应序列,求解系统的脉冲传递函数G(z)Transfer function:0.006072 z^2 + 0.288 z + 0.1671-------------------------------z^2 + 0.1018 z - 0.7509Sampling time: 2(2).由脉冲相应序列求解系统的传递函数G(s)Transfer function:(0.04849+2.494e-018i)-----------------------s^2 + 0.1315 s + 0.6048(3).利用相关最小二乘法拟合系统的差分方程模型如下:(4).在t=100,加入一个0.5的阶跃扰动,,利用RLS求解差分方程模型:RLS加入遗忘因子之后与未加之前的曲线情况如下:未加遗忘因子之前参数以及残差的计算过程加入0.99的遗忘因子得到的参数辨识过程与残差的变化过程根据上面两种方法所得到的误差曲线和参数过渡过程曲线,我们可以看出来利用最小二乘法得到的参数最终趋于稳定,为利用带遗忘因子的最小二乘算法,曲线参数最终还是有小幅度震荡。

(完整word版)2003版系统辨识最小二乘法大作业

(完整word版)2003版系统辨识最小二乘法大作业

西北工业大学系统辩识大作业题目:最小二乘法系统辨识一、 问题重述:用递推最小二乘法、加权最小二乘法、遗忘因子法、增广最小二乘法、广义最小二乘法、辅助变量法辨识如下模型的参数离散化有z^4 - 3.935 z^3 + 5.806 z^2 - 3.807 z + 0.9362---------------------------------------------- =z^4 - 3.808 z^3 + 5.434 z^2 - 3.445 z + 0.8187噪声的成形滤波器离散化有4.004e-010 z^3 + 4.232e-009 z^2 + 4.066e-009 z + 3.551e-010-----------------------------------------------------------------------------=z^4 - 3.808 z^3 + 5.434 z^2 - 3.445 z + 0.8187采样时间0.01s要求:1.用Matlab 写出程序代码;2.画出实际模型和辨识得到模型的误差曲线;3.画出递推算法迭代时各辨识参数的变化曲线;最小二乘法:在系统辨识领域中 ,最小二乘法是一种得到广泛应用的估计方法 ,可用于动态 ,静态 , 线性 ,非线性系统。

在使用最小二乘法进行参数估计时 ,为了实现实时控制 ,必须优化成参数递推算法 ,即最小二乘递推算法。

这种辨识方法主要用于在线辨识。

MATLAB 是一套高性能数字计算和可视化软件 ,它集成概念设计 ,算法开发 ,建模仿真 ,实时实现于一体 ,构成了一个使用方便、界面友好的用户环境 ,其强大的扩展功能为各领域的应用提供了基础。

对于一个简单的系统 ,可以通过分析其过程的运动规律 ,应用一些已知的定理和原理,建立数学模型 ,即所谓的“白箱建模 ”。

但对于比较复杂的生产过程 ,该建模方法有很大的局限性。

由于过程的输入输出信号一般总是可以测量的 ,而且过程的动态特性必然表现在这些输入输出数据中 ,那么就可以利用输入输出数据所提供的信息来建立过程的数学模型。

(完整)系统辨识大作业汇总,推荐文档

(完整)系统辨识大作业汇总,推荐文档

参数递推估计是指被辨识的系统,每取得一次新的测量数据后,就在前一 次估计结果的基础上,利用新引入的测量数据对前一次估计的结果进行修正, 从而递推地得出新的参数估计值。这样,随着新测量数据的引入,一次接一次 地进行参数估计,直到估计值达到满意的精确程度为止。最小二乘递推算法的 基本思想可以概括为:
当前的估计值ˆ(k) =上次估计值ˆ(k 1) +修正项 即新的估计值ˆ(k) 是在旧的估计值ˆ(k 1) 的基础上,利用新的观测数据对旧的 估计值进行修正而成的。
可以看出,取 (k) 1的时候,加权最小二乘估计就退化成了最小二乘参数 估计的递推算法(Recursive Least Squares, RLS)。加权参数 1 可以在
(0,1]范围内选择,如果选 1 1,所有的采样数据都是等同加权的,如果
(k)
1 1,则表示对新近获得的数据给予充分大的加权因子,而削弱历史观测 (k)
可以根据生成的白噪声序列和输入序列,以及必要的 0 初始值,带入表 达式即可得到采样输出数据。
2. 差分模型阶检验 在实际场景中,辨识模型的阶数和纯时延往往是未知的,在很多情况下仅
仅依靠猜测。在模型的阶数和纯时延不确定时,设系统模型为
n
n
y(t) ai y(t i) bj y(t i) (t)
数据的影响。 实际计算时,需要首先确定初始参数ˆ(0) 和 P(0) 。
P(0) 2I 为充分大实数
一般说来选取
(0)
为充分小的向量
对于这样的系统,使用最小二乘法参数估计的递推算法进行辨识可以得到 无偏估计,但是如果噪声模型必须用 C(z1)v(k) 表示时,此时就无法得到无偏估 计了,因为该方法没有把噪声模型考虑进去。
K (k) P(k 1)h(k)[hT (k) p(k 1)h(k) 1 ]1

系统辨识课后复习题

系统辨识课后复习题

系统辨识课后复习题课后复习题/作业题1.中文教材习题见各章后附习题,但不包括以下题目:第3章第2题第4章第3题第9章第2题2.英文教材复习题QUESTIONS1.What is System? Dynamic system? System identification?2.What are the three basic entities of system identification?3.What is time series? Could you give an example?4.Suppose we have got the transfer function and noise filter model, how do you describing the input-output relationship of a linear system with additive disturbance in a formula?5.G(q) and G(z) are all called transfer function of system, what is the difference between them?6.When we say the filter H(q) is monic, what does it mean?7.What is the difference between Quasi-stationary and stationary process (signal)?8.Give a definition of the (power) spectrum of {s(t)}and the cross spectrum between {s(t)}and {w(t)}?9.What is the definition of k-step-ahead prediction of output y?10.How do you evaluate the accuracy of prediction (prediction error)?11.We have two methods for getting the predictor of y, could you please give an explanation about them?12.How do you realize the stochastic disturbance influenceon the simulated system?13.What is the Equation Error Model structure? How many adjustable parameters exist in this model?14.Please write the ARMAX model formula and point out which is the AR part, which is the MA part? What does the X mean?15.Why do we call formula (4.23) the family of equation-error-related model sets?16.What is Input error? Equation error? Output error?17.What is the main difference between Equation error model and Output error model?18.What is the difference between original Output error model and Box-Jenkins model?19.What does “a good model ” mean? In other words, how do we evaluate “a good model ”?20.Why least-squares criterion can be minimized analytically respect to parameter θ ?21.For what purpose we apply the Matrix Inversion Lemma to reasoning the RLS algorithm?22.Fundamental Conception: Linear regressions, Least-squares criterion.23.Now we have got ξφθ+=Y ,what does the φ represent? Based on thisformula, what is the definition of residual ?24.Please give the formulae of Least-squares estimate (LSE), Recursive Least-squares algorithm.25.Please explain the meaning of RLS formula:What is the function of gain matrix )1N (K +?26.In what cases we apply LS and In what cases we apply RLS ?27.Explain: PRBS signals, Maximum Length PRBS, persistently exciting input.28.Explain: offsets, trends, drift, periodic (seasonal) variations, outliers, missing data, merging data sets.29.What are the three steps for choice of the model structure?30.Why the linear regression models are often a good first choice for an identification problem?31.What kind of system can be called the stiff system?32.How to test ranks in covariance matrices for the order estimation of a system?33.How to evaluate a model by visual inspection of plots of y(t)、)/(m t y k ∧and by numerical value for comparing model structure?34.What is cross-validation?35.How to use the curve of loss function for choice of model structure?36.What is residuals ? How to perform a whiteness test of residuals ?37.Give the work sequence (procedure) to produce a model by system identification ?39.What kind of models is preferable to work with in the multivariable case ?40.Taking the hairdryer process as an example, explain how to get its preliminary models, further models and final choice of model?)]N (?)1N ()1N ()[1N (K )N (?)1N (?θ?θθ+-+++=+T y上一页下一页。

系统辨识例题

系统辨识例题

系统辨识例题注:红色标出的不太确定;本答案仅供参考。

一、选择题1、下面哪个数学模型属于非参数型(D )A 、微分方程B 、状态方程C 、传递函数D 、脉冲响应函数2、频谱覆盖宽、能量均匀分布是下面哪种信号的特点(D )A 、脉冲信号B 、斜坡信号C 、阶跃信号D 、白噪声信号3、下面哪些辨识方法属于系统辨识的经典方法(ACD )A 、阶跃响应法B 、最小二乘法C 、相关分析法D 、频率响应法二、填空题1. SISO 系统的结构辨识可归结为确定(阶次)和(时滞)2. 通过图解和(计算)方法,可以由阶跃响应求出系统的传递函数3. 多变量线性系统辨识的步骤是()4. (渐消记忆)的最小二乘递归算法和(限定记忆)的最小二乘递推算法都成为实时辨识算法5. 遗传算法中变异概率选取的原则是(变异概率一般取得比较小,在0.001~0.01之间,变异概率越大,搜索到全局最优的可能性越大,但收敛速度越慢)6. 模型中含有色噪声时可采用(增广最小二乘)和(广义最小二乘)辨识方法7. 最小二乘法是(极大似然法)和(预报误差法)的特殊情况三、判断题1. 机理建模这种建模方法也称为“白箱问题”。

(√)2. 频率响应模型属于参数模型。

(×)非参数3. 白噪声和M 序列是两个完全相同的概念。

(×)不完全相同4. 渐消记忆法适合有记忆系统。

(×)5. 增长记忆估计算法给予新、老数据相同的信度。

(√)6. 最小二乘法考虑参数估计过程中所处理的各类数据的概率统计特性。

(×)基本不考虑7. 系统辨识不需要知道系统的阶次。

(×)需要8. 自变量是可控变量时,对变量间关系的分析称为回归分析。

(√)9. Newton-Raphson 方法就是随机梯度法。

(×)10. 模型验证属于系统辨识的基本内容。

(√)四、简答题1. 举例说明数学模型的定义及用途。

数学模型:以数学结构的形式反映过程的行为特性(代数方程、微分方程、差分方程、状态方程等参数模型)。

系统辨识复习题

系统辨识复习题

一、概念题1. 请给系统辨识下个定义。

2. 如何获得适合辨识的观测数据?3. 系统辨识有哪些应用?4. 为何要将辨识数据标准化?如何标准化?5. 白噪声的定义是什么?6. 什么是M 序列?7. 线性系统的结构由哪些参量来描述? 8. 什么是预报误差模型? 二、计算与问答题9. 请用双线性变换将连续传递函数)2(1)(++=s s s s W 转换为离散传递函数(T=0.5s)。

10. 一被识系统的观测数据含有有色噪声E(k)。

拟选的参考模型为A(q -1)y(k)=B(q -1)u(k)+E(k)请问:1)用LS 能否得到A(q -1)和B(q -1)的无偏估计?为什么?2)如果将)()(ˆ)(ˆ)(ˆ11k u q Aq Bk y LSLS --=作为辅助变量,能否得到A(q -1)和B(q -1)的无偏估计?写出此时的计算公式。

11. 试述相关最小二乘二步法的适用条件和计算过程。

12. 已选择被识系统的参考模型为)()(1)()()()(111k w q C k u q A q B k y ---+=,其中w(k)为白色噪声。

为了进行递推辨识,请将模型改写为伪线性回归形式,并给出其中所有估计量的表达式。

13. 试述一种多步最小二乘法的适用条件和计算过程。

14. 已选择被识系统的参考模型为)()()()()()(111k w q D k u q A q B k y ---+=,其中w(k)为白色噪声。

为了进行递推辨识,请将模型改写为伪线性回归形式,并给出其中所有估计量的表达式。

15. 如果一个系统的部分参数已知(例如,A(q-1)y(k)=B(q-1)u(k)+w(k)中,A(q-1)已知,B(q-1)未知),你怎么去辨识其他未知参数?写出你的计算公式。

16. Matlab 中Rand 函数产生的随机数是不是白噪声?说出你的理由。

17. 逐步回归法辨识模型结构的原理是什么?18. 结构判断准则FPE 和AIC 的共同特点是什么? 三、选择题1)要辨识一个实际系统,正确的获得辨识数据的过程是:A 在实验室做模拟仿真B 在被辨识系统处于正常工况时采集数据C 通过施加激励信号,使被辨识系统处于非正常工况时采集数据D 在实验室做数字仿真2)过滤观测数据中的噪声,正确的方法是:A 对系统输出数据做低通滤波B 对系统输入数据做低通滤波C 对系统输入、输出数据做不同的滤波D 对系统输入、输出数据做相同的滤波3) 最小二乘法的适用模型是:A 带白色噪声的线性回归模型;B 带白色噪声的连续传递函数模型;C 带白色噪声的离散传递函数模型;D 带白色噪声的伪线性回归模型;4)辨识结果是否好的标准是:A 模型阶次是小的;B 参数估计误差是小的;C 输出估计误差是小的;D 模型是稳定的;5)对于模型A(q -1)y(k)=B(q -1)u(k)+E(q -1)w(k),A(q -1)、B(q -1)、E(q -1)均是多项式。

系统辨识复习题

系统辨识复习题

系统辨识复习题系统辨识复习题系统辨识是一门研究如何从实验数据中提取系统动态特性的学科。

它在工程领域中有着广泛的应用,例如控制系统设计、信号处理、模型预测控制等。

在这篇文章中,我们将回顾一些系统辨识的基本概念和方法,并通过一些复习题来帮助读者巩固对这门学科的理解。

1. 什么是系统辨识?系统辨识是通过实验数据推断和确定系统的动态特性,包括系统的传递函数、状态空间模型等。

它是一种基于观测数据的反问题求解方法,通过对输入输出数据的分析,建立数学模型以描述系统的行为。

2. 为什么需要系统辨识?系统辨识在工程领域中具有重要的意义。

通过对系统进行辨识,我们可以了解系统的特性,从而设计出更好的控制策略。

此外,系统辨识还可以用于故障诊断、信号处理等方面的应用。

3. 系统辨识的基本步骤是什么?系统辨识的基本步骤包括:数据采集、模型结构选择、参数估计和模型验证。

首先,需要采集到系统的输入输出数据。

然后,根据数据的特点选择合适的模型结构,例如ARX模型、ARMA模型等。

接下来,通过最小二乘法等方法估计模型的参数。

最后,通过模型验证来评估模型的准确性和预测性能。

4. 什么是参数辨识?参数辨识是系统辨识中的一个重要环节,它是指通过实验数据估计系统模型的参数。

参数辨识的目标是找到一组参数,使得模型的输出与实际系统的输出之间的误差最小。

5. 常用的参数辨识方法有哪些?常用的参数辨识方法包括最小二乘法、极大似然估计、频域法等。

最小二乘法是一种常用的线性参数辨识方法,它通过最小化实际输出与模型输出之间的误差平方和来估计模型的参数。

极大似然估计是一种常用的非线性参数辨识方法,它通过最大化观测数据出现的概率来估计模型的参数。

频域法则是通过对输入输出数据进行频谱分析来估计模型的参数。

6. 如何评估辨识模型的准确性?评估辨识模型的准确性可以使用拟合优度指标,例如决定系数R^2、均方根误差RMSE等。

决定系数R^2反映了模型对数据的拟合程度,取值范围在0到1之间,值越接近1表示模型拟合效果越好。

系统辨识作业及答案

系统辨识作业及答案

系统辨识作业及答案一.问答题1. 介绍系统辨识的步骤。

答:(1)先验知识和建模目的的依据;(2)实验设计;(3)结构辨识;(4)参数估计;(5)模型适用性检验。

2. 考虑单输入单输出随机系统,状态空间模型[])()(11)()(11)(0201)1(k v k x k y k u k x k x +=+=+ 转换成ARMA 模型。

答:ARMA 模型的特点是u(k)=0,[])()(11)()(0201)1(k v k x k y k x k x +=??=+3. 设有一个五级移位寄存器,反馈取自第2级和第3级输出的模2加法和。

试说明:(1)其输出序列是什么?(2)是否是M 序列?(3)它与反馈取自第4级与第3级输出模2加法和所得的序列有何不同?(4)其逆M 序列是什么?答:(1)设设输入序列1 1 1 1 1111018110107101006010015100114001113011112111111)()()()()()()()(()()()()()()()01110161110115110101410100)13(0100112100111 10011110011109()()()()()()()001112401110)23(111012********* 010020010011910011180011117()()()()()()()()10011320011131011103000111291101028101002701001261001125 其输出序列为:1 1 1 1 1 0 0 1 0 1⑵不是M 序列⑶第4级与第3级模2相加结果100108001007010006100015000114001113011112111111)()()()()()()()(()()()()()()()11110161110115110101410101)13(0101112101101 10110010110019()()()()()()()110012410010)23(001002201000211 000120000111900111180111117()()()()()()()()01111321111031111013011010291010128010112710110260110025 不同点:第2级和第3级模二相加产生的序列,是从第4时刻开始,每隔7个时刻重复一次;第4级与第3级模2相加产生的,序列,是从第2时刻开始每隔15个时刻重复一次。

北航《系统辨识》课程作业

北航《系统辨识》课程作业
7
姓名:xx
学号:SYxx
2013/11/30
xlabel('迭代次数') ylabel('误差') hold off figure(2); plot(-1.5-error1,'b'); hold on plot(0.7-error2,'c') hold on plot(1-error3,'g') hold on plot(0.5-error4,'y') hold on plot(-1-error5,'m') hold on plot(0.2-error6,'r') legend('a1','a2','b1','b2','d1','d2',-1) title('参数估计值变化') xlabel('迭代次数') ylabel('参数') hold off 2. 题目 2 程序 clc close all total=1500; sigma=1.0; %M 序列输入 A1=1;A2=1;A3=1;A4=0; for i=1:1:total x1=xor(A3,A4); x2=A1; x3=A2; x4=A3; OUT(i)=A4; if OUT(i)<0.5 u(i)=1; else u(i)=-1; end A1=x1;A2=x2;A3=x3;A4=x4; end figure(1) stem(u,'r') grid on
6
%噪声
姓名:xx
学号:SYxx
2013/11/30
v_da2(k)=y(k-2)-d1*v_da2(k-1)-d2*v_da2(k-2); v_db1(k)=-u(k-1)-d1*v_db1(k-1)-d2*v_db1(k-2); v_db2(k)=-u(k-2)-d1*v_db2(k-1)-d2*v_db2(k-2); v_dd1(k)=-v(k-1)-d1*v_dd1(k-1)-d2*v_dd1(k-2); v_dd2(k)=-v(k-2)-d1*v_dd2(k-1)-d2*v_dd2(k-2); d_theta=[v_da1(k),v_da2(k),v_db1(k),v_db2(k),v_dd1(k),v_dd2(k)]'; J_d=J_d+v(k)*d_theta; JJ_d=JJ_d+d_theta'*d_theta; end bef=theta; theta=theta-inv(JJ_d)*J_d; v(1)=v(N+1);v(2)=v(N+2); v_da1(1)=v_da1(N+1);v_da2(1)=v_da2(N+1);v_db1(1)=v_db1(N+1);v_db2 (1)=v_db2(N+1);v_dd1(1)=v_dd1(N+1);v_dd2(1)=v_dd2(N+1); v_da1(2)=v_da1(N+2);v_da2(2)=v_da2(N+2);v_db1(2)=v_db1(N+2);v_db2 (2)=v_db2(N+2);v_dd1(2)=v_dd1(N+2);v_dd2(2)=v_dd2(N+2); %求取误差 error1(j)=-1.5-theta(1); error2(j)=0.7-theta(2); error3(j)=1-theta(3); error4(j)=0.5-theta(4); error5(j)=-1-theta(5); error6(j)=0.2-theta(6); v_error(j)=v(N+2); j=j+1; end theta%输出估计参数 %作图 figure(1); plot(error1) hold on plot(error2) hold on plot(error3) hold on plot(error4) hold on plot(error5,'r') hold on plot(error6,'r') title('参数估计误差')

系统辨识试卷-西建大

系统辨识试卷-西建大

西安建筑科技大学工程硕士《系统辨识》课程考试试卷班级姓名学号成绩一、选择题(每小题2分,共10分)1.平稳随机过程的均值。

a. 是随机数b. 等于0c. 等于恒定值2.按照建模分类方法,系统辨识属于建模。

a. white boxb. gray bo xc. black box3.模型y(K)=c(Z-1)v(K)称为模型。

a. ARMAXb. ARMAc. ARd. MA4. 模型y(K)= b(Z-1)u(K)+ c(Z-1)v(K)称为模型。

a. ARMAXb. ARMAc. ARd. MA5. 移位寄存器的初始状态(全“0”除外),对产生M序列。

a. 有影响b. 无影响二、名词解释(每小题4分,共20分)1.线性系统2.随机系统3.动态系统辨识4.正态白噪声信号5.各态历经性三、写出一下公式或表达式,并说明式中变量的意义。

(每小题5分,共20分)1. L序列的逆重复性2. Wiener-Hopf方程3.互相关函数Rxy(k)的数字计算机算法4.带遗忘因子最小二乘的目标函数四、简答题。

(每小题5分,共20分)1.双闭环不可逆调速系统运行中是否存在外部扰动?若有,请举例说明。

请说明是否存在随机性扰动?若有,请举例说明。

2.为什么用相关分析法辨识系统的动特性,在一定条件下能够抑制输出信号y(t)中噪声信号)ξ的不利影响?这个结论的前提条件是什么?(t3.说明用M序列/或L序列作为系统辨识实验的输入信号的原因。

4.说明根据已有M序列获取与其对应的L序列的方法。

五、设计计算(30分)1.设计一个线性反馈移位寄存器,使其产生的M序列为{u}=110100111010011101001………………(10分)2.已初步确定被辨识系统的过渡过程时间为T s=25min,最高工作频率(截止频率)f M=0.002Hz,设计 M序列的时钟周期)(t∆过大(t∆和序列长度N。

时钟周期)或过小会带来什么问题?长度N过大或过小会带来什么问题?(10分)3. 设某物体长度为x(真值是未知量),测量它的长度N次,得到(10分)x(1),x(2),……x(N)共N个观测值。

江南大学《系统辨识》试卷部分答案

江南大学《系统辨识》试卷部分答案

江南大学《系统辨识》实体部分参考答案一、【每小题2分,其中10小题,共计20分】假设a ,b ,c ,d ,i θ是未知参数,υ 是噪声,写出下列系统的辨识模型(1) 12()t y t t e θθ=++解答:12()()()[1,][,]t T T Te y t t t t ϕθϕθθθ⎧-+=⎪=⎨⎪=⎩(2) 12()2cos()t y t t e t θθ=+++解答:122cos()()()()[1,][,]t T T T e t y t t t t ϕθϕθθθ⎧--+=⎪=⎨⎪=⎩(3) 21231()()y t t t t θθυθ=+++解答: 2123()()()()[1,,]1[,,]T T Ty t t t t t t ϕθυϕθθθθ⎧⎪=+⎪⎪=⎨⎪⎪=⎪⎩(4) 123()()t y t t e t θθθυ=++++解答:132()()()()[1,][,]t T T T y t e t t t t ϕθυϕθθθθ⎧-=+⎪=⎨⎪=+⎩(5) ()()()()()()()()1212......n n y t ax t bx t cx t dx t x t x t t υ=+++++ 解答:()()()()()()()1212()()()[,,...,,...][,,...,,]T T n n T y t t v t t x t x t x t x t x t x t a b c d ϕθϕθ⎧=+⎪=⎨⎪=⎩二、【每个2分,共计20分】假设i θ是未知参数,υ是噪声,写出下列系统辨识模型(1) 123()1t y t t e θθθ=+++解答: 1231()()()[1,,][,,]T T t T y t t t t e ϕθϕθθθθ⎧-+=⎪=⎨⎪=⎩(2) 212()()()...()()m m y t u t u t u t t θθθυ=++++解答:212()()()()[(),(),...,()][,,...,]T T m T m y t t t t u t u t u t ϕθυϕθθθθ⎧=+⎪=⎨⎪=⎩(3) 1234()()(1)(2)(1)(2)()y t t y t y t u t u t t θθθθυ+-+-=-+-+ 解答:()12341234()()(1)(2)(1)(2)()()()()[(1),(2),1,(2)][,,,]T T T y t t y t y t u t u t t t t t y t y t u t u t θθθθυϕθυϕθθθθθ⎧=----+-+-+=+⎪=------⎨⎪=⎩(4) 123()sin(/)(1)(1)cos()()y t t y t u t t t θπθθυ+-=-++解答:()123123()()s i n (/)(1)(1)c o s ()()()()()[s i n (/)(1),1,c o s ()][,,]T T T y t t t y t u t t t t t t t y t u t t θπθθυϕθυϕπθθθθ⎧=--+-++=+⎪=---⎨⎪=⎩ (5) 2()()()2s i n (/)y t a u t b u t c d t π=+++ 解答: 2()()()[(),(),2,sin(/)][,,,]T T T y t t t u t u t t a b c d ϕθϕπθ⎧=⎪=⎨⎪=⎩三、【10分】设三阶MA 模型为)3()2()1()()(321-+-+-+=t v d t v d t v d t v t y .其中,{})(t y 是已知观测序列,{})(t v 是零均值方差为2σ的随机白噪声序列,其便是模型为 )()()(t v t t y T +=θϕ● 写出信息向量)(t ϕ和参数向量θ的表达式● 写出θ的递推增广最小二乘(RELS)辨识算法.解答:)()()(t v t t y T +=θϕ)]3(),2(),1([)(---=t v t v t v t T θ其中,T d d d ],,[321=θ算法如下:的RELS R -θ)(ˆ)1()(ˆ1)(ˆ)1()(ˆ)()()]1(ˆ)(ˆ)()[()1(ˆ)(ˆt t p t t t p t t p t L t t t y t L t t T ϕϕϕϕθϕθθ-+-==--+-= )1()](ˆ)(1[)(--=t p t t L t p T ϕI p p 0)0(= T T T T d d d t t t t t v t v t v t v t ]ˆˆˆ[)(ˆ)(ˆ)(ˆ)()()]3(ˆ),2(ˆ),1(ˆ[)(ˆ321=-=---=θθϕϕϕ四、证明题【每小题2分,其中5题,计10分】设n T R t t t t t p t p ∈≥+-=--)(,0)(),()()1()(211ϕϕϕϕ格式阶单位矩阵,证明以下为n I I p n n ,)0(=(1))()(t t p ϕ )()1()(1)()1(t t p t t t p T ϕϕϕ-+-= (2)1)()()(≤t t p t T ϕϕ(3) )()()(1)()()()1(t t p t t t p t t p T ϕϕϕϕ-=-(4) )()1()()()()()(2t t p t p t t t p t T T ϕϕϕϕ-≤(5) 1()()(1)()T t t p t p t t ϕϕ∞=-∞∑(6) )()()(21t t p t t T ϕϕ∑∞=∞解答:(1)11()(1)()()T p t p t t t ϕϕ--=-+ ①对①式用矩阵求逆引理,则1()(1)(1)()[()(1)()]()(1)T T p t p t p t t I t p t t t p t ϕϕϕϕ-=---+-- 对上式两边乘)(t ϕ,可得)()1()(1)()1()()()1()()1()()(t t p t t t p t t t p t t p t t p T T ϕϕϕϕϕϕϕ-+----= )()1()(1)()1(t t p t t t p T ϕϕϕ-+-= (2)∵ )()1()(1)()1()()(t t p t t t p t t p T ϕϕϕϕ-+-=② 对②式左乘)(t Tϕ,可得)()1()(1)()1()()()()(t t p t t t p t t t p t T T T ϕϕϕϕϕϕ-+-= ∵0)1(≥-t p ∴1)()()(≤t t p t T ϕϕ (3)对①右乘p(t),可得)()()()()1(1t p t t t p t p IT ϕϕ+-=- ③ 面对③左乘)1(-t p ,右乘)(t ϕ,则有)()()()()1()()()()1(t t p t t t p t t p t t p T ϕϕϕϕϕ-+=- ④ 移向合并,可得)()()(1)()()()1(t t p t t t p t t p T ϕϕϕϕ-=-④对②式左乘(t)p(t) T ϕ,得)()1()(1)()1()()()()()(t t p t t t p t p t t t p t T T TT ϕϕϕϕϕϕ-+-= ∵0)1(≥-t p ∴0)()1()(≥-t t p t T ϕϕ∴)()1()()()()()(t t p t p t t t p t T T T ϕϕϕϕ-≤(1)()(1)()()()T p t p t p t t t p t ϕϕ-=+-∴11(1)()()()()(0)()T t i p t t t p t p t p p ϕϕ∞∞==-=∆=-∞∑∑ ⑤ ∵)()()1()(11t t t p t p T ϕϕ+-=--11(0)()()T t p t t ϕϕ∞-==+∑ ∴)0()(11--≥p t p∴when ∞→t ,则)()0(∞≥p p对⑤式两队取迹,得)]()1()()([)]()()()1([11t t p t p t tr t p t t t p tr i T i Tϕϕϕϕ-=-∑∑∞=∞= [(0)()]tr p p =-∞∞⑥∵)()1()()()()()(t t p t p t t t p t T T T ϕϕϕϕ-≤∴∞-≤∑∑∞=∞= )]()1()()()()()(11t t p t p t t t p t t T T t T ϕϕϕϕ。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

系统辨识练习题方法一:%递推最小二乘参数估计(RLS)clear all; close all;a=[1 -1.5 0.7]'; b=[1 0.5]'; d=3; %对象参数na=length(a)-1; nb=length(b)-1; %na、nb为A、B阶次L=480; %仿真长度uk=zeros(d+nb,1); %输入初值:uk(i)表示u(k-i)yk=zeros(na,1); %输出初值u=randn(L,1); %输入采用白噪声序列xi=sqrt(0.1)*randn(L,1); %白噪声序列theta=[a(2:na+1);b]; %对象参数真值thetae_1=zeros(na+nb+1,1); %thetae初值P=10^6*eye(na+nb+1);for k=1:Lphi=[-yk;uk(d:d+nb)]; %此处phi为列向量y(k)=phi'*theta+xi(k); %采集输出数据%递推最小二乘法K=P*phi/(1+phi'*P*phi);thetae(:,k)=thetae_1+K*(y(k)-phi'*thetae_1);P=(eye(na+nb+1)-K*phi')*P;%更新数据thetae_1=thetae(:,k);for i=d+nb:-1:2uk(i)=uk(i-1);enduk(1)=u(k);for i=na:-1:2yk(i)=yk(i-1);endyk(1)=y(k);endplot([1:L],thetae); %line([1,L],[theta,theta]);xlabel('k'); ylabel('参数估计a、b');legend('a_1','a_2','b_0','b_1'); axis([0 L -2 2]);方法三:%遗忘因子递推最小二乘参数估计(FFRLS)clear all; close all;a=[1 -1.5 0.7]'; b=[1 0.5]'; d=3; %对象参数na=length(a)-1; nb=length(b)-1; %na、nb为A、B阶次L=1000; %仿真长度uk=zeros(d+nb,1); %输入初值:uk(i)表示u(k-i)yk=zeros(na,1); %输出初值u=randn(L,1); %输入采用白噪声序列xi=sqrt(0.1)*randn(L,1); %白噪声序列thetae_1=zeros(na+nb+1,1); %thetae初值P=10^6*eye(na+nb+1);lambda=0.98; %遗忘因子范围[0.9 1]for k=1:Lif k==501a=[1 -1 0.4]';b=[1.5 0.2]'; %对象参数突变endtheta(:,k)=[a(2:na+1);b]; %对象参数真值phi=[-yk;uk(d:d+nb)];y(k)=phi'*theta(:,k)+xi(k); %采集输出数据%遗忘因子递推最小二乘法K=P*phi/(lambda+phi'*P*phi);thetae(:,k)=thetae_1+K*(y(k)-phi'*thetae_1);P=(eye(na+nb+1)-K*phi')*P/lambda;%更新数据thetae_1=thetae(:,k);for i=d+nb:-1:2uk(i)=uk(i-1);enduk(1)=u(k);for i=na:-1:2yk(i)=yk(i-1);endyk(1)=y(k);endsubplot(1,2,1)plot([1:L],thetae(1:na,:)); hold on; plot([1:L],theta(1:na,:),'k:');xlabel('k'); ylabel('参数估计a');legend('a_1','a_2'); axis([0 L -2 2]);subplot(1,2,2)plot([1:L],thetae(na+1:na+nb+1,:)); hold on; plot([1:L],theta(na+1:na+nb+1,:),'k:'); xlabel('k'); ylabel('参数估计b');legend('b_0','b_1'); axis([0 L -0.5 2]);方法四:%递推极大似然参数估计(RML)clear all; close all;a=[1 -1.5 0.7]'; b=[1 0.5]'; c=[1 -0.5]'; d=1; %对象参数na=length(a)-1; nb=length(b)-1; nc=length(c)-1; %na、nb、nc为A、B、C阶次nn=max(na,nc); %用于yf(k-i)、uf(k-i)更新L=480; %仿真长度uk=zeros(d+nb,1); %输入初值:uk(i)表示u(k-i)yk=zeros(na,1); %输出初值xik=zeros(nc,1); %白噪声初值xiek=zeros(nc,1); %白噪声估计初值yfk=zeros(nn,1); %yf(k-i)ufk=zeros(nn,1); %uf(k-i)xiefk=zeros(nc,1); %ξf(k-i)u=randn(L,1); %输入采用白噪声序列xi=randn(L,1); %白噪声序列thetae_1=zeros(na+nb+1+nc,1); %参数估计初值P=eye(na+nb+1+nc);for k=1:Ly(k)=-a(2:na+1)'*yk+b'*uk(d:d+nb)+c'*[xi(k);xik]; %采集输出数据%构造向量phi=[-yk;uk(d:d+nb);xiek];xie=y(k)-phi'*thetae_1;phif=[-yfk(1:na);ufk(d:d+nb);xiefk];%递推极大似然参数估计算法K=P*phif/(1+phif'*P*phif);thetae(:,k)=thetae_1+K*xie;P=(eye(na+nb+1+nc)-K*phif')*P;yf=y(k)-thetae(na+nb+2:na+nb+1+nc,k)'*yfk(1:nc); %yf(k)uf=u(k)-thetae(na+nb+2:na+nb+1+nc,k)'*ufk(1:nc); %uf(k)xief=xie-thetae(na+nb+2:na+nb+1+nc,k)'*xiefk(1:nc); %xief(k)%更新数据thetae_1=thetae(:,k);for i=d+nb:-1:2uk(i)=uk(i-1);enduk(1)=u(k);for i=na:-1:2yk(i)=yk(i-1);endyk(1)=y(k);for i=nc:-1:2xik(i)=xik(i-1);xiek(i)=xiek(i-1);xiefk(i)=xiefk(i-1);endxik(1)=xi(k);xiek(1)=xie;xiefk(1)=xief;for i=nn:-1:2yfk(i)=yfk(i-1);ufk(i)=ufk(i-1);endyfk(1)=yf;ufk(1)=uf;endfigure(1)plot([1:L],thetae(1:na,:),[1:L],thetae(na+nb+2:na+nb+1+nc,:)); xlabel('k'); ylabel('参数估计a、c');legend('a_1','a_2','c_1'); axis([0 L -2 2]);figure(2)plot([1:L],thetae(na+1:na+nb+1,:));xlabel('k'); ylabel('参数估计b');legend('b_0','b_1'); axis([0 L 0 1.5])自适应控制习题(1) %可调增益MIT-MRACclear all; close all;h=0.1; L=100/h; %数值积分步长、仿真步数num=[1]; den=[1 1 1]; n=length(den)-1; %对象参数kp=1; [Ap,Bp,Cp,Dp]=tf2ss(kp*num,den); %传递函数型转换为状态空间型km=1; [Am,Bm,Cm,Dm]=tf2ss(km*num,den); %参考模型参数gamma=0.1; %自适应增益yr0=0; u0=0; e0=0; ym0=0; %初值xp0=zeros(n,1); xm0=zeros(n,1); %状态向量初值kc0=0; %可调增益初值r=0.1; yr=r*[ones(1,L/4) -ones(1,L/4) ones(1,L/4) -ones(1,L/4)]; %输入信号for k=1:Ltime(k)=k*h;xp(:,k)=xp0+h*(Ap*xp0+Bp*u0);yp(k)=Cp*xp(:,k)+Dp*u0; %计算ypxm(:,k)=xm0+h*(Am*xm0+Bm*yr0);ym(k)=Cm*xm(:,k)+Dm*yr0; %计算yme(k)=ym(k)-yp(k); %e=ym-ypkc=kc0+h*gamma*e0*ym0; %MIT自适应律u(k)=kc*yr(k); %控制量%更新数据yr0=yr(k); u0=u(k); e0=e(k); ym0=ym(k);xp0=xp(:,k); xm0=xm(:,k);kc0=kc;endplot(time,ym,'r',time,yp,':');xlabel('t'); ylabel('y_m(t)、y_p(t)');%axis([0 L*h -10 10]);legend('y_m(t)','y_p(t)');(2)%可调增益MIT-MRACclear all; close all;h=0.1; L=100/h; %数值积分步长、仿真步数num=[1]; den=[1 1 1]; n=length(den)-1; %对象参数kp=1; [Ap,Bp,Cp,Dp]=tf2ss(kp*num,den); %传递函数型转换为状态空间型km=1; [Am,Bm,Cm,Dm]=tf2ss(km*num,den); %参考模型参数gamma=0.1; %自适应增益yr0=0; u0=0; e0=0; ym0=0; %初值xp0=zeros(n,1); xm0=zeros(n,1); %状态向量初值kc0=0; %可调增益初值r=1; yr=r*[ones(1,L/4) -ones(1,L/4) ones(1,L/4) -ones(1,L/4)]; %输入信号for k=1:Ltime(k)=k*h;xp(:,k)=xp0+h*(Ap*xp0+Bp*u0);yp(k)=Cp*xp(:,k)+Dp*u0; %计算ypxm(:,k)=xm0+h*(Am*xm0+Bm*yr0);ym(k)=Cm*xm(:,k)+Dm*yr0; %计算yme(k)=ym(k)-yp(k); %e=ym-ypkc=kc0+h*gamma*e0*ym0; %MIT自适应律u(k)=kc*yr(k); %控制量%更新数据yr0=yr(k); u0=u(k); e0=e(k); ym0=ym(k);xp0=xp(:,k); xm0=xm(:,k);kc0=kc;endplot(time,ym,'r',time,yp,':');xlabel('t'); ylabel('y_m(t)、y_p(t)');%axis([0 L*h -10 10]);legend('y_m(t)','y_p(t)');(3)(1)%可调增益MIT-MRAC归一化算法clear all; close all;h=0.1; L=100/h; %数值积分步长和仿真步数num=[1]; den=[1 1 1]; n=length(den)-1; %对象参数kp=1; [Ap,Bp,Cp,Dp]=tf2ss(kp*num,den); %传递函数型转换为状态空间型km=1; [Am,Bm,Cm,Dm]=tf2ss(km*num,den); %参考模型参数gamma=0.1; %自适应增益alpha=0.01; beta=2;yr0=0; u0=0; e0=0; ym0=0; %初值xp0=zeros(n,1); xm0=zeros(n,1); %状态向量初值kc0=0; %可调增益初值r=0.1; yr=r*[ones(1,L/4) -ones(1,L/4) ones(1,L/4) -ones(1,L/4)]; %输入信号for k=1:Ltime(k)=k*h;xp(:,k)=xp0+h*(Ap*xp0+Bp*u0);yp(k)=Cp*xp(:,k)+Dp*u0; %计算ypxm(:,k)=xm0+h*(Am*xm0+Bm*yr0);ym(k)=Cm*xm(:,k)+Dm*yr0; %计算yme(k)=ym(k)-yp(k); %e=ym-ypDD=e0*ym0/km/(alpha+(ym0/km)^2);if DD<-betaDD=-beta;endif DD>betaDD=beta;endkc=kc0+h*gamma*DD; %MIT自适应律u(k)=kc*yr(k); %控制量%更新数据yr0=yr(k); u0=u(k); e0=e(k); ym0=ym(k);xp0=xp(:,k); xm0=xm(:,k);kc0=kc;endplot(time,ym,'r',time,yp,':');xlabel('t'); ylabel('y_m(t)、y_p(t)');legend('y_m(t)','y_p(t)');(2)%可调增益MIT-MRAC归一化算法clear all; close all;h=0.1; L=100/h; %数值积分步长和仿真步数num=[1]; den=[1 1 1]; n=length(den)-1; %对象参数kp=1; [Ap,Bp,Cp,Dp]=tf2ss(kp*num,den); %传递函数型转换为状态空间型km=1; [Am,Bm,Cm,Dm]=tf2ss(km*num,den); %参考模型参数gamma=0.1; %自适应增益alpha=0.01; beta=2;yr0=0; u0=0; e0=0; ym0=0; %初值xp0=zeros(n,1); xm0=zeros(n,1); %状态向量初值kc0=0; %可调增益初值r=1; yr=r*[ones(1,L/4) -ones(1,L/4) ones(1,L/4) -ones(1,L/4)]; %输入信号for k=1:Ltime(k)=k*h;xp(:,k)=xp0+h*(Ap*xp0+Bp*u0);yp(k)=Cp*xp(:,k)+Dp*u0; %计算ypxm(:,k)=xm0+h*(Am*xm0+Bm*yr0);ym(k)=Cm*xm(:,k)+Dm*yr0; %计算yme(k)=ym(k)-yp(k); %e=ym-ypDD=e0*ym0/km/(alpha+(ym0/km)^2);if DD<-betaDD=-beta;endif DD>betaDD=beta;endkc=kc0+h*gamma*DD; %MIT自适应律u(k)=kc*yr(k); %控制量%更新数据yr0=yr(k); u0=u(k); e0=e(k); ym0=ym(k);xp0=xp(:,k); xm0=xm(:,k);kc0=kc;endplot(time,ym,'r',time,yp,':');xlabel('t'); ylabel('y_m(t)、y_p(t)');legend('y_m(t)','y_p(t)');。

相关文档
最新文档