基于LS-SVM的电力电子电路故障预测方法
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
基于LS-SVM的电力电子电路故障预测方法 [摘要]电力电子电路是整个电力电子设备中最关键的部分,面对其可能出现的故障及其严重后果,对其的故障预测就显得尤其重要。
为此,根据现有故障预测理论和方法,在总结前人经验的基础上,本文采用最小二乘支持向量机预测算法对电力电子电路进行故障预测。
具体内容如下:
以基本降压斩波电路为例,选择电路输出电压作为监测信号,提取输出电压平均值及纹波值作为电路特征性能参数,并利用LS-SVM 回归预测算法实现故障预测。
仿真结果表明,利用LS-SVM 对基本降压斩波电路输出平均电压与输出纹波电压的预测相对误差均低于2%,能够跟踪故障特征性能参数的变化趋势,有效实现电力电子电路故障预测。
[关键词]电力电子电路故障预测特征性能参数最小二乘支持向量机
The power electronic circuit fault prediction method
based on the LS-SVM
Abstract:The power electronic circuit is the most important part of the power electronic equipment . facing its possible faults and its serious consequences , its fault prediction is especially important. Therefore, in view of the existing power electronic circuit fault prediction of the characteristics of the technology , the paper proposes the least square support vector machine forecasting algorithm for the power electronic circuit fault prediction. Specific content as follows: With basic buck-chopper circuit , choose circuit output voltage signal as monitoring signal, extract output voltage ripple and average value as circuit features performance parameters, then using LS-SVM regression algorithm to the fault prediction . The experimental result shows that the use of the output circuit LS-SVM average voltage and output voltage ripple of the relative prediction error less than 2%, it can follow the fault feature performance parameters change trend, realize the power electronic circuit fault prediction effectively .
Key words:The power electronic circuit , fault prediction , features performance parameters , least square support vector machine .
目录
1.绪论 (1)
1.1 课题研究的目的及意义 (1)
1.1.1对电力电子电路进行故障预测的目的和前景 (1)
1.1.2 本课题的主要思想和方法 (1)
1.2 电力电子电路故障诊断特点和作用 (1)
1.2.1 电力电子电路故障诊断特点 (1)
1.2.2 电力电子电路故障预测的作用 (1)
1.3 传统的电力电子电路故障诊断方法 (2)
1.4 电力电子电路故障预测方法的研究现状 (3)
1.5 本论文主要内容 (3)
2. 最小二乘支持向量机理论 (4)
2.1 支持向量机 (4)
2.1.1 支持向量机概述 (4)
2.1.2 统计学习理论 (4)
2.1.3 支持向量机原理 (5)
2.2 最小二乘法 (9)
2.2.1 最小二乘法原理 (9)
2.2.2 最小二乘法公式 (10)
2.3 最小二乘支持向量机和支持向量机的比较 (10)
2.4 本章小结 (11)
3. 基于LS-SVM的电力电子电路故障预测 (12)
3.1 电力电子电路故障预测步骤 (12)
3.2 特征性能参数的提取 (12)
3.2.1 电力电子电路仿真模型的建立 (12)
3.2.2 特征性能参数的计算 (13)
3.2.3 特征性能参数数据 (13)
3.3 本章小结 (14)
4.LS-SVM 预测结果及故障分析 (15)
4.1 特征性能参数预测结果 (15)
4.2 buck电路故障预测结果 (17)
4.3 核函数参数寻优 (18)
4.4 本章小结 (21)
5.结论与展望 (22)
参考文献 (23)
致谢 (24)
外文文献翻译 (25)
1.绪论
1.1 课题研究的目的及意义
1.1.1对电力电子电路进行故障预测的目的和前景
随着新型飞机的研制开发及其安全性、可靠性要求的不断提高,作为提高飞机安全性的有效手段,以及促进现有飞机维修保障技术的智能化发展,飞机健康预报与管理技术已经得到国内外越来越多的重视关注[1-2]。
飞机电源系统故障预测[3]是飞机健康管理系统的重要组成部分,而飞机电源系统故障预测的关键在于对电力电子电路的故障预测,因此对电力电子电路故障预测关键技术研究在飞机的健康管理系统中具有十分重要的理论意义和应用前景。
另外,由于各种电力电子设备在国民生产及人民生活中的广泛应用,能及时保证各种设备的良好运行,避免不必要的损失,对其的故障预测就显得尤为重要,而由于电力电子设备由很多部分组成,其中包括电力电子主电路、电动机、发电机和各种应用电路等。
电力电子电路又是整个电力电子设备中最关键的部分,故对电力电子电路的故障预测和诊断就显得尤其重要。
1.1.2 本课题的主要思想和方法
将电路特征性能参数和最小二乘支持向量机( least squares support vector machine,LS-SVM) 预测算法结合,对电力电子电路进行故障预测。
以基本降压斩波电路(buck chopper)为例,选择电路输出电压作为监测信号,提取输出电压平均值及纹波值(峰-峰值)作为电路特征性能参数,并利用LS-SVM 回归算法实现故障预测,实现电力电子电路的故障预测。
由此,本课题采用基于最小二乘支持向量机( least squares support vector machine,LS-SVM ) 的电力电子电路故障预测方法,其基本思想为: 优选电路级故障特征性能参数,利用LS-SVM回归算法预测所选故障特征性能参数,实现电力电子电路的故障预测。
1.2 电力电子电路故障诊断特点和作用
1.2.1 电力电子电路故障诊断特点
电力电子电路的实际运行表明,大多数故障表现为功率开器件的损坏,其中以功率开关器件的开路和直通最为常见,属于硬故障。
但是,电力电子电路的故障诊断与一般的模拟电路和数字电路的故障诊断还有一个重要的差别,那就是故障信息仅存在于发生故障到停电之前的数毫秒到数十毫秒之间,因此需要实时监视、在线诊断。
电力电子设备一旦发生故障,小则造成电器产品损坏、交通阻塞、工矿企业停产,大则会威胁人民生命、财产安全,甚至造成重大的人员伤亡或灾难事故,影响国民经济的正常运行。
所以,对电力电子电路进行故障预测和诊断显得日趋重要。
长期以来,人们采取两种维修对策:一是等设备坏了再进行维修,称为事后维修,这种办法的缺陷是经济损失很大。
二是定期检修设备,称为预防维修。
这种方法有一定的计划性和预防性,但其缺陷是如果没有故障,则没有必要的经济损失比较大。
1.2.2 电力电子电路故障预测的作用
(1)实现早期预报,防止事故发生;
(2)预知性维修,提高设备管理水平;
(3)方便检修,缩短了维修时间,提高设备利用率;
(4)对提高设备的设计制造水平,改善产品质量有指导意义。
1.3 传统的电力电子电路故障诊断方法
一般来说,电力电子电路故障诊断技术包括两方面的内容:一是故障信息的检测:以一定的检测技术,获取故障发生时的所需故障信息,供故障分析,推理用;二是故障的诊断:依据检测的故障信息,运用合适的故障诊断方法,对故障进行分析、推理,找出故障发生的原因并定位故障发生部位。
传统的故障诊断方法在电力电子电路故障诊断中也得到的广泛应用,如故障字典法、故障树、专家系统等[4]。
(1)故障字典法。
把一组典型的测量特征值和故障值以一定的表格形式存放,通过比较测量值和特征值,判断故障。
先用计算机对电路正常状态和所有硬故障状态模拟,建立故障字典。
然后对端口测试进行分析,以识别故障,即将选定节点上测出的电压与故障字典中电压比较,运用某些隔离算法查出对应故障。
故障字典法对于模拟电路和数字电路故障诊断具有很大的实用价值,但故障字典法只能解决单故障诊断,多故障的组合数大,在实际中很难实现。
(2)故障树法。
故障树诊断法就是对可能造成系统失效的各种因素(包括硬件、软件、环境、人为因素)进行分析,画出逻辑框图,即故障树,从故障树的顶事件进行搜索从而找出故障原因的方法。
故障树表达了系统内在联系,并指出了元部件故障与系统之间的逻辑关系。
故障树诊断直观、灵活、通用,但建树工作量大,繁琐易错,对诊断故障空间较小的问题比较合适。
(3)残差法。
残差法是一种基于解析模型的故障诊断方法。
即通过研究实际系统与参考模型特征输出量间的残差来进行电力电子装置主电路在线故障诊断和故障定位的过程。
该方法同样适用于逆变器主电路的故障诊断,参考模型法用于电力电子电路的故障诊断具有检测量少、判据简单且与输出大小无关的特点。
特别是在复杂电力电子电路的故障诊断中该法的优势更加明显。
(4)直接检测功率器件两端电压或桥臂电流的方法。
通过检测各功率器件两端的电压,或检测各桥臂电流,得到功率器件的工作方式,再与触发脉冲进行时序逻辑比较,从而判断被诊断对象是否故障,此方法需要检测每个被诊断器件的电压和电流,所需测点较多,需要专门的检测电路和逻辑电路。
该方法还可以通过测量电路的输入输出来实现故障诊断。
正常工作时,电路的输入输出在一定的范围内变动,当超出此范围时,可认为故障已经发生。
另外,还可以测量输入输出变量的变化率是否超出范围来判断是否发生故障。
该方法虽然简单,但抗干扰性差。
(5)专家系统诊断的方法。
专家系统就是利用计算机推理能力和领域专家的丰富经验,以及系统内部因果关系和人工智能的机器学习功能,设计出的一种智能计算机程序系统,解决复杂的系统故障诊断问题。
专家系统对经验性的诊断知识进行形式化描述,突破个人局限广为传播,有利于存储和推广专家的经验,发挥专门人才作用,开辟了综合利用专家知识的新途径,比人类专家更可靠、灵活,不受环境影响。
专家系统的知识结构中知识库与推理控制相对独立,可重写增删,可以结合其它诊断方法,构成知识结构的应用程序,拥有人机联诊功能,充分发挥了现场技术人员的主观能动性,并能逐步积累经验日趋完善,因此是很有生命力的故障诊断法。
专家系统诊断的基本思想是:先通过实验或仿真建立起一个可靠的知识库,该知识库包含了电路的环境知识、系统知识和一个规则库,其中知识库反映了系统的因果关系,具体到故障诊断系统中就是系统变量和故障类型、故障点之间的因果关系:然后通过人机接口得到实际运行中的特征变量值;将它应用到规则库进行推理,就得到了电路的基本工作状态和故障信息。
该方法的缺点是知识库建立困难,特别是知识库庞大时更是如此。
传统的故障诊断专家系统,大多是基于规则的专家系统,它将领域知识编成一系列产生式规则(表示形式为if…,then…)。
这种专家系统可以解决许多系统的故障诊断问题,但是由于对复杂的系统要利用大量的产生式规则,因而故障诊断专家系
统运行很慢,很难适应实时环境的要求;另外,当遇到未见过的新故障或新信息时,如此建立的专家故障诊断系统往往不能正确处理,会因推理能力弱而出现“匹配冲突”、“组合爆炸”及“无穷递归”等问题。
要解决这些问题,除非不断进行规则更新,可是新规则与原有规则很有可能相互牵连,这必然导致在规则添加和删除时遇到难以处理的困难。
总之,专家诊断系统存在知识获取“瓶颈”问题、难以维护、应用面窄以及诊断能力弱和不适应模糊问题等缺点。
1.4 电力电子电路故障预测方法的研究现状
目前,飞机机载机电设备、发动机系统等健康预测研究比较热,机载电子设备故障预测技术研究也逐步受到重视。
现有故障预测算法种类繁多,其中时间序列[5]、神经网络[6]、支持向量机回归预测[7]三种方法应用最为广泛。
时间序列预测方法对序列变化比较均匀的短期预测情况较为理想,优点是所需历史数据少、工作量小,但该方法在非线性预测中预测精确度较差。
神经网络方法在非线性领域中得到了广泛的应用,但该方法容易陷入局部最优、收敛速度慢等缺点。
而支持向量机回归预测解决了神经网络容易陷入局部极小点的问题,并且和时间序列预测方法相比有泛化能力较强、预测准确度较高等多方面优点。
另外,现阶段电力电子电路故障预测大多是对电路中关键元器件的故障预测,如电解电容器,故障特征参数多为元器件的特征参数,而对电路级的故障预测研究很少。
1.5 本论文主要内容
本论文根据需要,一共分为五章。
第一章:绪论;主要讲述内容有电力电子电路故障预测的特点及现有的预测方法的研究现状。
第二章:最小二乘支持向量机;主要讲述内容有支持向量机原理、最小二乘法,最小二乘支持向量机和支持向量机的比较。
第三章:基于LS-SVM的电力电子电路故障预测;主要讲述内容有,电力电子电路故障预测步骤,特征性能参数的提取等。
第四章:LS-SVM 预测结果及故障分析。
第五章:结论与展望。
最后附参考文献和致谢。
2. 最小二乘支持向量机理论
2.1 支持向量机
2.1.1 支持向量机概述
支持向量机(Support Vector Machine ,SVM)是一种基于统计学习理论的机器学习方法,主要应用于模式识别领域。
这个方法是由Boser, Guyon和Vapnik等人于1995年首先提出,并从此迅速发展起来的。
它在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中。
支持向量机方法是建立在统计学习理论的VC维理论和结构风险最小化归纳原则基础上的,根据有限的样本信息在模型的复杂性(即对特定训练样本的学习精度)和学习能力(即无错误地识别任意样本的能力)之间寻求最佳折衷,以期获得最好的推广能力。
通常来说,我们希望分类的过程是一个机器学习的过程。
比如这些数据点是n维实空间中的点,我们希望能够把这些点通过一个n-1维的超平面分开,通常这被称为线性分类器。
有很多分类器都符合这个要求,但我们还希望找到分类最佳的平面,即使得属于两个不同类的数据点间隔最大的那个平面,该平面亦称为最大间隔超平面。
如果我们能够找到这个面,那么这个分类器就称为最大间隔分类器。
而支持向量机将向量映射到一个更高维的空间里,在这个空间里建立有一个最大间隔超平面。
在分开数据的超平面的两边建有两个互相平行的超平面,建立方向合适的分隔超平面使两个与之平行的超平面间的距离最大化。
并且,平行超平面间的距离或差距越大,分类器的总误差越小。
所谓“支持向量”是指那些在间隔区边缘的训练样本点,而这里的“机”实际上是一个算法。
在机器学习领域,常把一些算法看做是一个机器。
同时,支持向量机又与神经网络类似,都是学习型的机制,但与神经网络不同的是支持向量机使用的是数学方法和优化技术。
2.1.2 统计学习理论
(1)VC维(Vapnik-Chervonenkis Dimension)
模式识别方法中VC维的直观定义是:对一个指示函数集,如果存在h个样本能够被函数集里的函数按照所有可能的2h种形式分开,则称函数集能够把h个样本打散。
函数集的VC维就是它能打散的最大样本数目h(如图2.1所示)。
VC维反映了函数集的一种学习能力。
VC维越大则学习机越复杂。
图2.1 VC维实例
(2)结构风险最小化原则(Structure Risk Minimization ,SRM )
假设输出变量Y 与输入变量X 之间存在某种对应的依赖关系,即一未知概率分布F(X,Y),F(X,Y)反映了某种知识。
学习问题可以概括为:根据L 个独立同分布的观测样本 (x1,y1),(x2,y2),…,(xn , yn)的训练。
现学习到一个假设(,)H f x w = 作为预测函数,它对F(X,Y) 的期望风险()R w (即统计学习的实际风险)是:
()(,(,))(,)R w L y f x w dF x y =⎰ (2.1)
其中,(){},f x w 称作预测函数集,w 为函数的广义参数。
(){},f x w 可以表示任何函数集 。
(,(,))L y f x w 为由于用(,)f x w 对y 进行预测而造成的损失。
不同类型的学习问题有不同形式的损失函数。
而对训练上所产生的风险e R ()mp w 被称为经验风险: e 1
1R ()(,(,))l
mp i i i w L y f x w l ==∑ (2.2) 首先e R ()mp w 和()R w 都是w 的函数,传统概率论中的定理只说明了在一定条件下当样本趋于无穷多时e R ()mp w 将在概率意义上趋近于()R w ,却没有保证使e R ()mp w 最小的点也能够使()R w 最小(即同步最小)。
统计学习理论研究了关于各种类型的函数集,经验风险和实际风险之间的关系,即推广性的界。
对于两分类的问题,推广性的界是指对指示函数集中的所有函数f ,经验风险e R ()mp w 和实际风险()R w 之间至少以不下于1-p (0≤p ≤1) 的概率存在这样的关系:
e ()R ()mp R w w ≤
其中h 是函数集的VC 维,n 是样本数。
要使实际风险最小,就需要使得上述不等式中两项相互平衡,共同趋于最小。
统计学习理论中提出了一种新的策略,即使函数集合构造为一个函数子集序列:12......n f f f ⊂⊂⊂⊂
各个子集按照VC 维的大小排列:12......n h h h ≤
≤≤≤ 而
e 1e 2e R ()R ()...R ()...mp mp mp n w w w >>>
2.1.3 支持向量机原理
支持向量机是从线性可分情况下的最优分类面发展而来的,基本思想可用图2.2的两维情况说明。
图2.2 关于最优分类线的说明
如图2.2所示,方形点和圆形点代表两类样本,H 为分类线,H1,H2分别为过各类中离分类线最近的样本且平行于分类线的直线,,它们之间的距离叫做分类间隔(margin)。
所谓最优分类线就是要求分类线不但能将两类正确分开,而且使分类间隔最大。
推广到高维空间,最优分类线就变为最优分类面。
支持向量机的理论最初来自于对数据分类问题的处理。
对于线性可分数据的二值分类,如果采用神经网络来实现,其机理可以简单描述为:系统随机的产生一个超平面并移动它,直到训练集合中属于不同类别的点正好位于该超平面的不同侧面,就完成了对网络的设计要求。
但是这种机理决定了不能保证最终所获得的分割平面位于两个类别的中心,这对于分类问题的容错性是不利的。
支持向量机方法很巧妙地解决了这一问题。
它是在统计学习理论基础上发展起来的一种学习机器。
在线性情况下,在原空间寻找两类样本的最优分类超平面,而在非线性情况下,首先将原始模式空间映射到高维的特征空间,并在该特征空间中寻找最优分类超平面。
支持向量机利用一些具有特殊性质的核函数,将特征空间中的内积运算转化为低维空间中的非线性运算,从而避免了高维空间中的计算问题。
现分情况说明。
(1)线性可分最优分类面
a) 最优分类面
考虑一个两类训练样本集的分类问题:
()(){}{}11,,...,,,,1,1n n n D x y x y x R y =∈∈- (2.4) 存在如下超平面: 0w x b ++=,使得训练样本集完全正确分开,同时满足距离超平面最近的两类点间隔最大,我们称样本集被超平面最优划分。
归一化超平面方程,使得所有样本集满足如下约束条件:
(),1,1,...i i y w x b i n <>+≥= (2.5)
此时分类间隔为2/||w||,最大间隔等价于使 ||w||2最小。
使分类间隔最大实际上就是对学习机推广能力的控制,这是支持向量机的核心思想之一。
统计学习理论指出,在N
维空间中,设样本分布
在一个半径为R 的超球范围内,则满足条件||||w A ≤的正则超平面构成的指示函数集
(,,)sgn(,)f X W b W X b =<>+的 VC 维满足下面的界:
22
min(,,)1h R A N ⎡⎤=+⎣⎦ (2.6)
因此,使||w||2最小就是使 VC 维的上界最小,从而实现结构风险最小化准则中对函数复杂性的
选择。
b) 最优问题求解
在线性可分情况下,在结构风险最小化准则下的最优超平面问题,可以表示为如下的约束优化问题:
21m i n ||||2..(,)1,w s t y i w i b ⎧
⎪
⎨⎪+≥⎩
1,...,i n = (2.7)
上式问题的最优解可以通过求解拉格朗日函数的鞍点得到,定义如下的拉格朗日函数:
(
)2
11
(,,)||||,
12
n
i i i i L w b w y w x b α
α=⎡⎤=-+-⎣⎦∑ (2.8)
其中,0i α≥为各样本对应的拉格朗日系数。
求解式(,,)L w b α的最小值,可以令该泛函对 w 和 b 求偏导,并令它们等于0,就可以把上述求最优分类面的问题转化为较简单的对偶问题。
其对偶问题由如下形式给出:
111
11(),2..0,0,1,...,n
n n k i j i j i j K i j n
i i i i Q y y x x s t y i n αααααα====⎧
=-⎪⎪⎨⎪=≤=⎪⎩
∑∑∑∑ (2.9) 这是一个不等式约束下二次函数寻优的问题,存在唯一解。
以上优化问题的最优解为:
1*(*,...*)T n ααα=;
这样,计算得到: 1
*n
i i i i w y x α==∑ ,
1
**,2
r s b w x x =-
+ (2.10)
其中, r x 和s x 是两类中任意的支持向量。
c) 构造判别函数
获得支持向量及相关参数后,就可以求得上述问题的最优最终判别函数:
(
)()sgn *,*sgn **i i i x SV f x w x b y x x b α∈⎛⎫
=+=∙+ ⎪⎝⎭
∑ (2.11)
(2)线性不可分最优分类面
以上讨论仅限定在训练样本数据是线性可分的情况,即经验风险e R mp 为 0的前提下,通过对分类间隔最大化,使分类器获得最好的推广性能。
然而,实际中存在大量线性不可分情况,解决方案是在条件式(2.5)中引入非负松弛项0,1,2,...,i i n ξ≥= 这时约束条件式成为:
(,)1,1,...i i i y w x b i n ξ+≥-= (2.12)
容许错分的分类超平面称作线性软间隔分类超平面。
由于允许存在错分样本,此时的软间隔分
类超平面表示在剔除那些错分样本后最大分类间隔的超平面。
此时,目标函数由式(2.7)变为:
2
1
1(,)||||2n
i w w C i ξξ=Φ=+∑ (2.13) 即折衷考虑最少错分样本和最大分类间隔。
其中惩罚参数 C 作为综合这两个目标的权重。
线性软间隔优化问题对应的拉格朗日函数形式如下:
2111
1(,,,,)||||()12n n n
T
i i i i i i i i i j L w b w C y w x b αξβξαξβξ===⎡⎤=+-+-+-⎣⎦∑∑∑
(2.14) 其中,0,0,i i αβ≥≥对偶表示可以通过求,,w b ξ的偏导等于0得到:
1
1(,,,,)
00(,,,,)
0(,,,,)
0i n
i i i n
i i i i i i L w b y b L w b y x w L w b C αξβααξβααξβαβξ==⎧∂=⇒=⎪∂⎪
⎪∂=⇒⎨
∂⎪
⎪∂=⇒+=⎪
∂⎩
∑∑ (2.15) 线性软间隔分类超平面的对偶问题与线性可分目标函数相同。
仅有的区别只是约束条件变为: 0i C α≤≤,最优判别函数的形式与式( 2.11 )一样。
(3)非线性支持向量机
前面介绍了在样本线性可分和线性不可分的情况下,如何求解最优超平面。
而在实际分类问题中,分类问题往往是一个非线性的问题,理想的分类面应该也是非线性的。
支持向量机处理非线性问题的方法是,首先将训练集从原始模式空间经过特定函数的非线性变换,映射到高维特征空间,将非线性问题转化为某个高维空间中的线性问题,然后在高维特征空间中,寻找最优分类超平面,该超平面实际上对应着原始模式空间中的非线性分类面。
因此,支持向量机在处理非线性分类问题时,仅比线性情况多了一个非线性映射环节。
假定该非线性映射为:()X X φ→,这时对偶形式的目标函数变为:
1
111()(),()2n
n n
k i j i j i j k i j Q y y X X ααααϕϕ====-∑∑∑ (2.16)
由于对偶形式中只出现两向量的内积运算,此时采用满足核函数(,)(),()i i i j K X Y X X ϕ=来代替内积运算,实现非线性软间隔分类。
常用的核函数包括线性核函数、多项式核函数、径向基核函
数以及Sigmoid 核函数等。
其核形式的最优判别函数为:
()sgn(*()*)i i i i x SV
f x y K x x b α∈=∙+∑ (2.17)
2.2 最小二乘法 2.2.1 最小二乘法原理
最小二乘法(又称最小平方法)是一种数学优化技术。
它通过最小化误差的平方和寻找数据的最佳函数匹配。
利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。
在我们研究两个变量(x,y )之间的相互关系时,通常可以得到一系列成对的数据(x1,y1.x2,y2... xm,ym );将这些数据描绘在x-y 直角坐标系中,若发现这些点在一条直线附近,可以令这条直线方程如式(2.18)所示:
01=a +a X Y (2.18)
其中:a 0、a 1 是任意实数。
可见,为建立这个直线方程就要确定a 0和a 1。
并且,在此将实测值Yi 与利用(2.18)得到的计算值 01=a +a X Y 的差的平方和()2
()Yi Y -∑的最小定义为“优化判据”。
令:2
()
Yi Y ϕ=-∑ (2.19)
把(2.18)代入(2.19)中得:
201(a -a i)Yi X ϕ=-∑ (2.20)
当()2
(
)Yi Y -∑最小,即满足优化判据时,可用函数201(a -a i)Yi X ϕ=-∑对a 0、a 1求偏导数,
令这两个偏导数等于零。
得到:
010
011
2()02()0i i i i i Y a a X a X Y a a X a φ
φ
∂=---=∂∂=---=∂∑∑ (2.21)
得到的两个关于a 0、 a 1为未知数的两个方程组,解这两个方程组得出:
10()
()
Yi a Xi a m
m
=
-
∑∑ (2.22)。