Eviews数据统计与分析教程5章 基本回归模型的OLS估计-普通最小二乘法

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

EViews统计分析基础教程
一、普通最小二乘法(OLS)
1.最小二乘原理
设双变量的总体回归方程为 yt= B1 + B2xt +μt 样本回归函数为 yt= b1 + b2xt + et 其中,et为残差项,
5-3式为估计方程,b1 和b2分别为B1和B2的估计量, 因而 e = 实际的yt –估计的yt
EViews统计分析基础教程
五、 线性回归模型的检验
2.显著性检验
方程显著性检验(F 检验) 原假设为: H0:1= 0,2= 0,…,k= 0, 备择假设为: H1:i 中至少有一个不为 0, 如果原假设成立,表明解释变量x对被解释变量y没 有显著的影响;当原假设不成立时,表明解释变量 x对被解释变量y有显著的影响,此时接受备择假设。
EViews统计分析基础教程
二、一元线性回归模型
1.模型设定
一元线性回归模型的形式为
yi = 0 + 1 xi + ui
(i=1,2,…,n)
其中,y为被解释变量,也被称为因变量;x为解释变量或自 变量;u是随机误差项(random error term),也被称为误 差项或扰动项,它表示除了x之外影响y的因素,即y的变化 中未被x所解释的部分;n为样本个数。
(1)杜宾(D .W .—Durbin-Watson)检验法
(2)LM(拉格朗日乘数—Lagrange Multiplier)检验法
EViews统计分析基础教程
五、 线性回归模型的检验
4.序列相关检验
(1)杜宾(D .W .—Durbin-Watson)检验法 J. Durbin, G. S. Watson于1950年提出了D .W .检验法。 它是通过对残差构成的统计量来判断误差项ut 是否存在自 相关。D .W .检验法用来判定一阶序列相关性的存在。 D .W .的统计量为
EViews统计分析基础教程
二、一元线性回归模型
2.实际值、拟合值和残差
估计方程为
表示的是yt的拟合值, 和 分别是 0 和1的估计量。 实际值指的是回归模型中被解释变量(因变量)y的原始观 测数据。拟合值就是通过回归模型计算出来的yt的预测值。
EViews统计分析基础教程
二、一元线性回归模型
EViews统计分析基础教程
五、 线性回归模型的检验
3.异方差性检验 (1)图示检验法 检验步骤:
建立方程对象进行模型的OLS(最小二乘)估计, 此时产生的残差保存在主窗口界面的序列对象 resid中。 建立一个新的序列对象,并将残差序列中的数据 复制到新建立的对象中。 然 后 选 择 主 窗 口 中 的 “ Quick‖ | ―Graph‖ | ―Scatter‖选项,生成散点图,进而可判断随机项 是否存在异方差性。
EViews统计分析基础教程
一、普通最小二乘法(OLS)
1.最小二乘原理
估计总体回归函数的最优方法是选择B1和B2的估计量b1 ,b2, 使得残差et尽可能达到最小。 用公式表达即为
总之,最小二乘原理就是选择样本回归函数使得y的估计值 与真实值之差的平方和最小。
EViews统计分析基础教程
一、普通最小二乘法(OLS)
EViews统计分析基础教程
五、 线性回归模型的检验
4.序列相关检验
(1)杜宾(D .W .—Durbin-Watson)检验法
如果, 0 < dt < du < 4-du < 4-dt <
EViews统计分析基础教程
四、 线性回归模型的基本假定
假定5:解释变量x1,x2,…,xi是非随机的确定性变量, 并且解释变量间互不相关。则这说明yi的概率分布具有 均值,即
E(yi|xi)= E(0 +1xi +ui)=0 +1xi
该式被称为总体回归函数。 如果两个或多个解释变量间出现了相关性,则说明该模 型存在多重共线性问题。
2.方程对象
选择工作文件窗口工具栏中的“Object‖| ―New Object‖| ―Equation‖选项,在下图所示的对话框中输入方程变量。
EViews统计分析基础教程
一、普通最小二乘法(OLS)
2.方程对象
EViews5.1提供了8种估计方法: “LS‖为最小二乘法; “TSLS‖为两阶段最小二乘法; “GMM‖为广义矩法; “ARCH‖为自回归条件异方差; “BINARY‖为二元选择模型,其中包括Logit模型、Probit 模型和极端值模型; “ORDERED‖为有序选择模型; “CENSORED‖截取回归模型; “COUNT‖为计数模型。
EViews统计分析基础教程
五、 线性回归模型的检验
1.拟合优度检验
总体平方和( TSS )反映了样本观测值总体离差的 大小,也被称为离差平方和;残差平方( RSS )说 明的是样本观测值与估计值偏离的程度,反映了因 变量总的波动中未被回归模型所解释的部分;回归 平方和( ESS )反映了拟合值总体离差大小,这个 拟合值是根据模型解释变量算出来的。
EViews统计分析基础教程
四、 线性回归模型的基本假定
假定2:不同样本点下的随机误差项u之间是不相关的, 即 Cov(ui,uj)=0,i≠j,i,j=1,2,…,n 其中,cov表示协方差。当此假定条件不成立时,则 称该回归模型存在序列相关问题,也称为自相关问题。
EViews统计分析基础教程
EViews统计分析基础教程
五、 线性回归模型的检验
2.显பைடு நூலகம்性检验
方程显著性检验(F 检验)
F 统计量为
该统计量服从自由度为(k,n-k-1)的F分布。 给定一个显著性水平α,当F统计量的数值大于该 显著性水平下的临界值Fα(k,n-k-1)时,则 在(1-α)的水平下拒绝原假设H0,即模型通过 了方程的显著性检验,模型的线性关系显著成立。
四、 线性回归模型的基本假定
假定3:同一个样本点下的随机误差项u与解释变量x之间 不相关,即
Cov(xi,ui)=0
i=1,2,…,n
EViews统计分析基础教程
四、 线性回归模型的基本假定
假定4:随机误差项u服从均值为0、同方差的正态分布, 即 u ~N(0,σ2) 如果回归模型中没有被列出的各因素是独立的随机 变量,则随着这些随机变量个数的增加,随机误差项u服 从正态分布。
EViews统计分析基础教程
五、 线性回归模型的检验
3.异方差性检验
(2)怀特(White)检验法
在EViews5.1软件中选择方程对象工具栏中的“View‖ | ―Residual Tests‖ | ―White Heteroskedasticity‖选项即 可完成操作。
EViews统计分析基础教程
EViews统计分析基础教程
五、 线性回归模型的检验
1.拟合优度检验
拟合优度R2的计算公式为 R2 = ESS / TSS = 1-RSS / TSS 当回归平方(ESS)和与总体平方和(TSS)较为接 近时,模型的拟合程度较好;反之,则模型的拟合 程度较差。因此,模型的拟合程度可通过这两个指 标来表示。
EViews统计分析基础教程
四、 线性回归模型的基本假定
线性回归模型必须满足以下几个基本假定:
假定1:随机误差项u具有0均值和同方差,即 E ( ui ) = 0 i=1,2,…,n Var ( ui ) = σ2 i=1,2,…,n 其中,E表示均值,也称为期望,在这里随机误差项u的 均值为0。Var表示随机误差项u的方差,对于每一个样本 点i,即在i=1,2,…,n的每一个数值上,解释变量y对 被解释变量x的条件分布具有相同的方差。当这一假定条 件不成立是,称该回归模型存在异方差问题。
2.实际值、拟合值和残差
三条曲线分别是实际值(Actual),拟合值(Fitted) 和残差(Residual)。实际值和拟合值越接近,方程拟 合效果越好。
EViews统计分析基础教程
三、多元线性回归模型
通常情况下,将含有多个解释变量的线性回归模型(多 元线性回归模型)写成如下形式, yi = 0 + 1 x1i +2 x2i+3 x3i+…k xki + ui (i=1, 2,…,n) 其中,y为被解释变量,也被称为因变量;x为解释变量 或自变量;u是随机误差项(random error term),也 被称为误差项或扰动项; n为样本个数。
EViews统计分析基础教程
五、 线性回归模型的检验
3.异方差性检验 (1)图示检验法
图示检验法通过散点图来判断用OLS方法估计的模 型异方差性,这种方法较为直观。通常是先将回归 模型的残差序列和因变量一起绘制一个散点图,进 而判断是否存在相关性,如果两个序列的相关性存 在,则该模型存在异方差性。
EViews统计分析基础教程
第5章 基本回归模型的OLS估计
重点内容:
• 普通最小二乘法
• 线性回归模型的估计
• 线性回归模型的检验
EViews统计分析基础教程
一、普通最小二乘法(OLS)
1.最小二乘原理
设(x1,y1),(x2,y2),…,(xn,yn)是平面直角坐标 系下的一组数据,且x1< x2<…< xn,如果这组图像接近于一 条直线,我们可以确定一条直线y = a + bx ,使得这条直 线能反映出该组数据的变化。 如果用不同精度多次观测一个或多个未知量,为了确定各未 知量的可靠值,各观测量必须加改正数,使其各改正数的平 方乘以观测值的权数的总和为最小。因而称最小二乘法。
EViews统计分析基础教程
五、 线性回归模型的检验
3.异方差性检验
(2)怀特(White)检验法 检验步骤: 用OLS(最小二乘法)估计回归方程,得到残差e。 作辅助回归模型: 求辅助回归模型的拟合优度R2的值。 White检验的统计量服从χ2分布,即 N·R 2 ~χ2 (k) 其中,N为样本容量,k为自由度,k等于辅助回归模型() 中解释变量的个数。如果χ2值大于给点显著性水平下对应 的临界值,则可以拒绝原假设,即存在异方差;反之,接 受原假设,即不存在异方差。
EViews统计分析基础教程
五、 线性回归模型的检验
1.拟合优度检验
拟合优度检验用来验证回归模型对样本观测值(实 际值)的拟合程度,可通过R2统计量来检验。
EViews统计分析基础教程
五、 线性回归模型的检验
1.拟合优度检验
公式
三者的关系为
TSS = RSS +ESS TSS为总体平方和, RSS为残差平方和, ESS为回归 平方和。
EViews统计分析基础教程
三、 多元线性回归模型
在多元线性回归模型中,要求解释变量x1,x2,…,xk之 间互不相关,即该模型不存在多重共线性问题。如果有 两个变量完全相关,就出现了完全多重共线性,这时参 数是不可识别的,模型无法估计。
EViews统计分析基础教程
三、 多元线性回归模型
通常情况下,把多元线性回归方程中的常数项看作虚拟 变量的系数,在参数估计过程中该常数项始终取值为1。 因而模型的解释变量个数为k+1.多元回归模型的矩阵形 式为 Y = X + u 其中,Y是因变量观测值的T维列向量;X是所有自变量 (包括虚拟变量)的T个样本点观测值组成的T×(k+1) 的矩阵;是k+1维系数向量;u是T维扰动项向量。
EViews统计分析基础教程
五、 线性回归模型的检验
3.异方差性检验
(2)怀特(White)检验法 White检验的统计量服从χ2分布,即 N·R 2 ~χ2 (k) 其中,N为样本容量,k为自由度,k等于辅助回归模型() 中解释变量的个数。如果χ2值大于给点显著性水平下对应 的临界值,则可以拒绝原假设,即存在异方差;反之,接 受原假设,即不存在异方差。
五、 线性回归模型的检验
3.异方差性检验
异方差性的后果 :
当模型出现异方差性时,用OLS(最小二乘估计法)得到的 估计参数将不再有效;变量的显著性检验(t检验)失去意 义;模型不再具有良好的统计性质,并且模型失去了预测 功能。
EViews统计分析基础教程
五、 线性回归模型的检验
4.序列相关检验
方法:
EViews统计分析基础教程
五、 线性回归模型的检验
2.显著性检验
变量显著性检验(t检验) 检验中的原假设为: 备择假设为:
H0:i= 0,
H1:i ≠ 0,
如果原假设成立,表明解释变量x对被解释变量y没 有显著的影响;当原假设不成立时,表明解释变量 x对被解释变量y有显著的影响,此时接受备择假设。
相关文档
最新文档