Eviews数据统计与分析教程章基本回归模型的OLS估计普通最小二乘法
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
EViews统计分析基础教程
四、 线性回归模型的基本假定
线性回归模型必须满足以下几个基本假定:
假定1:随机误差项u具有0均值和同方差,即 E ( ui ) = 0 i=1,2,…,n Var ( ui ) = σ2 i=1,2,…,n
其中,E表示均值,也称为期望,在这里随机误差项u的 均值为0。Var表示随机误差项u的方差,对于每一个样 本点i,即在i=1,2,…,n的每一个数值上,解释变量y 对被解释变量x的条件分布具有相同的方差。当这一假定
五、 线性回归模型的检验
2.显著性检验
方程显著性检验(F 检验)
F 统计量为
该统计量服从自由度为(k,n-k-1)的F分布。 给定一个显著性水平α,当F统计量的数值大于该显 著性水平下的临界值Fα(k,n-k-1)时,则在 (1-α)的水平下拒绝原假设H0,即模型通过了
方程的显著性检验,模型的线性关系显著成立。
EViews统计分析基础教程
五、 线性回归模型的检验
2.显著性检验
变量显著性检验(t检验)
检验中的原假设为:
备择假设为:
H0:i= 0,
H1:i ≠ 0,
如果原假设成立,表明解释变量x对被解释变量y没
有显著的影响;当原假设不成立时,表明解释变量
x对被解释变量y有显著的影响,此时接受备择假设。
EViews统计分析基础教程
4.序列相关检验 方法:
(1)杜宾(D .W .—Durbin-Watson)检验法 (2)LM(拉格朗日乘数—Lagrange Multiplier)检验法
EViews统计分析基础教程
五、 线性回归模型的检验
4.序列相关检验
(1)杜宾(D .W .—Durbin-Watson)检验法
J. Durbin, G. S. Watson于1950年提出了D .W .检验法。 它是通过对残差构成的统计量来判断误差项ut 是否存在自 相关。D .W .检验法用来判定一阶序列相关性的存在。 D .W .的统计量为
条件不成立是,称该回归模型存在异方差问题。
EViews统计分析基础教程
四、 线性回归模型的基本假定
假定2:不同样本点下的随机误差项u之间是不相关的, 即
Cov(ui,uj)=0,i≠j,i,j=1,2,…,n 其中,cov表示协方差。当此假定条件不成立时,则 称该回归模型存在序列相关问题,也称为自相关问题。
总之,最小二乘原理就是选择样本回归函数使得y的估计值 与真实值之差的平方和最小。
EViews统计分析基础教程
一、普通最小二乘法(OLS)
2.方程对象
选择工作文件窗口工具栏中的“Object”| “New Object”| “Equation”选项,在下图所示的对话框中输入方程变量。
EViews统计分析基础教程
EViews统计分析基础教程
三、 多元线性回归模型
通常情况下,把多元线性回归方程中的常数项看作虚拟 变量的系数,在参数估计过程中该常数项始终取值为1。 因而模型的解释变量个数为k+1.多元回归模型的矩阵形 式为
Y = X + u 其中,Y是因变量观测值的T维列向量;X是所有自变量 (包括虚拟变量)的T个样本点观测值组成的T×(k+1) 的矩阵;是k+1维系数向量;u是T维扰动项向量。
量,则随着这些随机变量个数的增加,随机误差项u服
从正态分布。
EViews统计分析基础教程Baidu Nhomakorabea
四、 线性回归模型的基本假定
假定5:解释变量x1,x2,…,xi是非随机的确定性变量, 并且解释变量间互不相关。则这说明yi的概率分布具有
均值,即
E(yi|xi)= E(0 +1xi +ui)=0 +1xi
该式被称为总体回归函数。 如果两个或多个解释变量间出现了相关性,则说明该模 型存在多重共线性问题。
一、普通最小二乘法(OLS)
2.方程对象
EViews5.1提供了8种估计方法: “LS”为最小二乘法; “TSLS”为两阶段最小二乘法; “GMM”为广义矩法; “ARCH”为自回归条件异方差; “BINARY”为二元选择模型,其中包括Logit模型、 Probit模型和极端值模型; “ORDERED”为有序选择模型; “CENSORED”截取回归模型; “COUNT”为计数模型。
2.实际值、拟合值和残差
三条曲线分别是实际值(Actual),拟合值(Fitted) 和残差(Residual)。实际值和拟合值越接近,方程拟 合效果越好。
EViews统计分析基础教程
三、多元线性回归模型
通常情况下,将含有多个解释变量的线性回归模型(多 元线性回归模型)写成如下形式,
yi = 0 + 1 x1i +2 x2i+3 x3i+…k xki + ui (i=1, 2,…,n)
条直线能反映出该组数据的变化。
如果用不同精度多次观测一个或多个未知量,为了确定各未 知量的可靠值,各观测量必须加改正数,使其各改正数的平 方乘以观测值的权数的总和为最小。因而称最小二乘法。
EViews统计分析基础教程
一、普通最小二乘法(OLS)
1.最小二乘原理
设双变量的总体回归方程为
样本回归函数为
五、 线性回归模型的检验
3.异方差性检验
(1)图示检验法 检验步骤:
建立方程对象进行模型的OLS(最小二乘)估计, 此时产生的残差保存在主窗口界面的序列对象resid 中。 建立一个新的序列对象,并将残差序列中的数据 复制到新建立的对象中。 然后选择主窗口中的“Quick” | “Graph” | “Scatter”选项,生成散点图,进而可判断随机 项是否存在异方差性。
yt= B1 + B2xt +μt
yt= b1 + b2xt + et 其中,et为残差项,
5-3式为估计方程,b1 和b2分别为B1和B2的估计量, 因而
e = 实际的yt –估计的yt
EViews统计分析基础教程
一、普通最小二乘法(OLS)
1.最小二乘原理 估计总体回归函数的最优方法是选择B1和B2的估计量b1 , b2,使得残差et尽可能达到最小。 用公式表达即为
EViews统计分析基础教程
五、 线性回归模型的检验
1.拟合优度检验
总体平方和(TSS)反映了样本观测值总体离差的 大小,也被称为离差平方和;残差平方(RSS)说
明的是样本观测值与估计值偏离的程度,反映了因 变量总的波动中未被回归模型所解释的部分;回归
平方和(ESS)反映了拟合值总体离差大小,这个
拟合值是根据模型解释变量算出来的。
EViews统计分析基础教程
五、 线性回归模型的检验
1.拟合优度检验 拟合优度R2的计算公式为
R2 = ESS / TSS = 1-RSS / TSS
当回归平方(ESS)和与总体平方和(TSS)较为
接近时,模型的拟合程度较好;反之,则模型的拟 合程度较差。因此,模型的拟合程度可通过这两个 指标来表示。
EViews统计分析基础教程
四、 线性回归模型的基本假定
假定3:同一个样本点下的随机误差项u与解释变量x之
间不相关,即
Cov(xi,ui)=0
i=1,2,…,n
EViews统计分析基础教程
四、 线性回归模型的基本假定
假定4:随机误差项u服从均值为0、同方差的正态分布, 即
u ~N(0,σ2)
如果回归模型中没有被列出的各因素是独立的随机变
EViews统计分析基础教程
五、 线性回归模型的检验
4.序列相关检验
(1)杜宾(D .W .—Durbin-Watson)检验法
如果,
0 < D .W . < dt ,存在一阶正自相关 dt < D .W . < du ,不能确定是否存在自相关 du < D .W . < 4-du ,不存在自相关 4-du < D .W . < 4-dt 不能确定是否存在自相关 4-dt < D .W . < 4 ,存在一阶负自相关
EViews统计分析基础教程
第5章 基本回归模型的OLS估计
重点内容: • 普通最小二乘法 • 线性回归模型的估计 • 线性回归模型的检验
EViews统计分析基础教程
一、普通最小二乘法(OLS)
1.最小二乘原理
设(x1,y1),(x2,y2),…,(xn,yn)是平面直角坐 标系下的一组数据,且x1< x2<…< xn,如果这组图像接近 于一条直线,我们可以确定一条直线y = a + bx ,使得这
其中,y为被解释变量,也被称为因变量;x为解释变量 或自变量;u是随机误差项(random error term), 也被称为误差项或扰动项; n为样本个数。
EViews统计分析基础教程
三、 多元线性回归模型
在多元线性回归模型中,要求解释变量x1,x2,…,xk之
间互不相关,即该模型不存在多重共线性问题。如果有 两个变量完全相关,就出现了完全多重共线性,这时参 数是不可识别的,模型无法估计。
五、 线性回归模型的检验
2.显著性检验
方程显著性检验(F 检验)
原假设为:
H0:1= 0,2= 0,…,k= 0,
备择假设为:
H1:i 中至少有一个不为 0,
如果原假设成立,表明解释变量x对被解释变量y没
有显著的影响;当原假设不成立时,表明解释变量
x对被解释变量y有显著的影响,此时接受备择假设。
EViews统计分析基础教程
EViews统计分析基础教程
二、一元线性回归模型
1.模型设定
一元线性回归模型的形式为
yi = 0 + 1 xi + ui (i=1,2,…,n)
其中,y为被解释变量,也被称为因变量;x为解释变量或自 变量;u是随机误差项(random error term),也被称为 误差项或扰动项,它表示除了x之外影响y的因素,即y的变 化中未被x所解释的部分;n为样本个数。
EViews统计分析基础教程
五、 线性回归模型的检验
3.异方差性检验
(1)图示检验法
图示检验法通过散点图来判断用OLS方法估计的模 型异方差性,这种方法较为直观。通常是先将回归 模型的残差序列和因变量一起绘制一个散点图,进 而判断是否存在相关性,如果两个序列的相关性存 在,则该模型存在异方差性。
EViews统计分析基础教程
中解释变量的个数。如果χ2值大于给点显著性水平下对应 的临界值,则可以拒绝原假设,即存在异方差;反之,接 受原假设,即不存在异方差。
EViews统计分析基础教程
五、 线性回归模型的检验
3.异方差性检验
(2)怀特(White)检验法
White检验的统计量服从χ2分布,即
N· R 2 ~χ2 (k) 其中,N为样本容量,k为自由度,k等于辅助回归模型()
EViews统计分析基础教程
五、 线性回归模型的检验
1.拟合优度检验
拟合优度检验用来验证回归模型对样本观测值(实
际值)的拟合程度,可通过R2统计量来检验。
EViews统计分析基础教程
五、 线性回归模型的检验
1.拟合优度检验
公式
三者的关系为 TSS = RSS +ESS
TSS为总体平方和, RSS为残差平方和, ESS为回归 平方和。
EViews统计分析基础教程
二、一元线性回归模型
2.实际值、拟合值和残差 估计方程为
表示的是yt的拟合值, 和 分别是 0 和1的估计量。实 际值指的是回归模型中被解释变量(因变量)y的原始观测 数据。拟合值就是通过回归模型计算出来的yt的预测值。
EViews统计分析基础教程
二、一元线性回归模型
中解释变量的个数。如果χ2值大于给点显著性水平下对应 的临界值,则可以拒绝原假设,即存在异方差;反之,接 受原假设,即不存在异方差。
EViews统计分析基础教程
五、 线性回归模型的检验
3.异方差性检验
(2)怀特(White)检验法
在EViews5.1软件中选择方程对象工具栏中的“View” | “Residual Tests” | “White Heteroskedasticity”选项 即可完成操作。
EViews统计分析基础教程
五、 线性回归模型的检验
3.异方差性检验
异方差性的后果 :
当模型出现异方差性时,用OLS(最小二乘估计法)得到
的估计参数将不再有效;变量的显著性检验(t检验)失去
意义;模型不再具有良好的统计性质,并且模型失去了预 测功能。
EViews统计分析基础教程
五、 线性回归模型的检验
EViews统计分析基础教程
五、 线性回归模型的检验
3.异方差性检验
(2)怀特(White)检验法 检验步骤:
用OLS(最小二乘法)估计回归方程,得到残差e。
作辅助回归模型:
求辅助回归模型的拟合优度R2的值。
White检验的统计量服从χ2分布,即
N· R 2 ~χ2 (k) 其中,N为样本容量,k为自由度,k等于辅助回归模型()