趋势线分析法及其应用
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
趋势线分析法及其应用
1引言
趋势分析法称之趋势曲线分析、曲线拟合或曲线回归,它是迄今为止研究最多,也最为流行的定量预测方法。它是根据已知的历史资料来拟合一条曲线,使得这条曲线能反映负荷本身的增长趋势,然后按照这个增长趋势曲线,对要求的未来某一点估计出该时刻的负荷预测值。常用的趋势模型有线性趋势模型、多项式趋势模型、线性趋势模型、对数趋势模型、幂函数趋势模型、指数趋势模型、逻辑斯蒂(logistic)模型、龚伯茨(gompertz)模型等,寻求趋势模型的过程是比较简单的,这种方法本身是一种确定的外推,在处理历史资料、拟合曲线,得到模拟曲线的过程,都不考虑随机误差。采用趋势分析拟合的曲线,其精确度原则上是对拟合的全区间都一致的。在很多情况下,选择合适的趋势曲线,确实也能给出较好的预测结果。但不同的模型给出的结果相差会很大,使用的关键是根据地区发展情况,选择适当的模型。
回归分析是统计分析中应用最为广泛的一个分支,它起源于19世纪高斯的最小二乘法,20世纪初形成。回归是研究自变量与因变量之间关系的分析方法,它根据已知的自变量来估计和预测因变量的总平均值。根据回归分析方法得出的数学表达式称为回归方程,它可能是直线,也可能是曲线。在统计中有许多不同类型的回归,但是它们的基本思想都是创建的模型能够匹配预测属性中的值。回归分析中,我们需要通过一个或几个变量的变化去解释另一变量的变化,包括找出自变量与因变量、设定数学模型、检验模型、估计预测等环节。变量之间的关系,有的是确定的函数关系,有的则没有,变量y 随着变量x 而变化,但不能由x 的取值精确求出y 的值,变量y 与x 间的这种关系称为相关关系。回归分析就是研究变量间相关关系的一种数理统计方法。它使用逐次回归分析法进行变量的筛选以生成最优回归模型: 即是将因子一个个引入, 引入因子的条件是, 该因子的偏回归平方和经检验是显著的。同时, 每加入一个因子后,要对老因子逐个检验, 将偏回归平方和变为不显著的因子删除。最后,对最终生成的回归模型做方差分析和假设检验, 判断最终得到的回归方程是否有意义。
2基本理论
回归分析法是在掌握大量观察数据的基础上,利用数理统计方法建立因变量与自变量之间的回归关系函数表达式(称回归方程式)。回归分析法不能用于分析与评价工程项目风险。
回归分析预测法,是在分析市场现象自变量和因变量之间相关关系的基础上,建立变量之间的回归方程,并将回归方程作为预测模型,根据自变量在预测期的数量变化来预测因变量关系大多表现为相关关系,因此,回归分析预测法是一种重要的市场预测方法,当我们在对市场现象未来发展状况和水平进行预测时,如果能将影响市场预测对象的主要因素找到,并且能够取得其数量资料,就可以采用回归分析预测法进行预测。它是一种具体的、行之有效的、实用价值很高的常用市场预测方法。
2.1回归分析预测法的步骤
1.根据预测目标,确定自变量和因变量
明确预测的具体目标,也就确定了因变量。如预测具体目标是下一年度的销售量,那么
销售量Y就是因变量。通过市场调查和查阅资料,寻找与预测目标的相关影响因素,即自
变量,并从中选出主要的影响因素。
2.建立回归预测模型
依据自变量和因变量的历史统计资料进行计算,在此基础上建立回归分析方程,即回归分析预测模型。
3.进行相关分析
回归分析是对具有因果关系的影响因素(自变量)和预测对象(因变量)所进行的数理统计分析处理。只有当变量与因变量确实存在某种关系时,建立的回归方程才有意义。因此,作为自变量的因素与作为因变量的预测对象是否有关,相关程度如何,以及判断这种相关程度的把握性多大,就成为进行回归分析必须要解决的问题。进行相关分析,一般要求出相关关系,以相关系数的大小来判断自变量和因变量的相关的程度。
4.检验回归预测模型,计算预测误差
回归预测模型是否可用于实际预测,取决于对回归预测模型的检验和对预测误差的计算。回归方程只有通过各种检验,且预测误差较小,才能将回归方程作为预测模型进行预测。
5.计算并确定预测值
利用回归预测模型计算预测值,并对预测值进行综合分析,确定最后的预测值。
2.2应用回归预测法时应注意的问题
应用回归预测法时应首先确定变量之间是否存在相关关系。如果变量之间不存在相关关系,对这些变量应用回归预测法就会得出错误的结果。
正确应用回归分析预测时应注意:
①用定性分析判断现象之间的依存关系;
②避免回归预测的任意外推;
③应用合适的数据资料;
2.3基本原理
2.3.1一元线性回归方法
(1) 一元线性回归模型
1. 一般形式
一元回归模型的一般形式记为
()01x x ηββ=+
并设观测值为y ,则
01y x ββε=++
其中 01,ββ 是未知的待定常数,称为回归系数;x 是回归变量,可以是随机变量,也可以是一般变量.; ε 是随机因素对响应变量 y 所产生的影响——随机误差,也是随机变量. 为了便于作估计和假设检验,总是假设 ()()20,E D εεσ==,亦即
()20,N εσ,则随机变量()201,y
N x ββσ+. 2. 模型的分析
假设有一组试验数据 ()(),1,2,
,i i x y i n = ,并假设 ()1,2,,i y i n = 是相互独
立的随机变量,则有 01,1,2,
,i i i y x i n ββε=++= 其中 i ε 是相互独立的,且 ()()22010,,,i i i N y N x εσββσ+.
若用 01ˆˆ,ββ 分别表示 01,ββ 的估计值,则称 01
ˆˆˆy x ββ=+ 为 y 关于 x 的一元线性回归方程. 要研究的问题是:
(1)如何根据 ()(),1,2,,i i x y i n = 来求 01,ββ 的估计值?
(2)如何检验回归方程的可信度?
要解决第一个问题,通常采用最小二乘估计,第二个问题采用统计检验的方法.
(2)参数的最小二乘估计
1. 最小二乘法
用最小二乘法估计 01,ββ 的值,即取 01,ββ 的一组估计值 01
ˆˆ,ββ 使其随机误差i ε 的平方和达到最小,即使 i y 与 01ˆˆˆi i
y x ββ=+ 的拟合最佳. 若记 ()201011,()n
i i i Q y x ββββ==--∑
则
()()012010101,1ˆˆˆˆ,min ,()n
i i i Q Q y x ββββββββ===--∑ 显然 ()01,0Q ββ≥ ,且关于 01,ββ 可微,则由多元函数存在极值的必要条件得