Eviews数据统计与分析教程5章 基本回归模型OLS估计-普通最小二乘法

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

EViews统计分析基础教程
一、普通最小二乘法(OLS)
1.最小二乘原理
估计总体回归函数的最优方法是选择B1和B2的估计量b1 ,b2, 使得残差Βιβλιοθήκη t尽可能达到最小。 用公式表达即为
总之,最小二乘原理就是选择样本回归函数使得y的估计值 与真实值之差的平方和最小。
EViews统计分析基础教程
一、普通最小二乘法(OLS)
EViews统计分析基础教程
一、普通最小二乘法(OLS)
1.最小二乘原理
设双变量的总体回归方程为 yt= B1 + B2xt +μt 样本回归函数为 yt= b1 + b2xt + et 其中,et为残差项,
5-3式为估计方程,b1 和b2分别为B1和B2的估计量, 因而 e = 实际的yt –估计的yt
EViews统计分析基础教程
四、 线性回归模型的基本假定
假定5:解释变量x1,x2,…,xi是非随机的确定性变量, 并且解释变量间互不相关。则这说明yi的概率分布具有 均值,即
2.实际值、拟合值和残差
三条曲线分别是实际值(Actual),拟合值(Fitted) 和残差(Residual)。实际值和拟合值越接近,方程拟 合效果越好。
EViews统计分析基础教程
三、多元线性回归模型
通常情况下,将含有多个解释变量的线性回归模型(多 元线性回归模型)写成如下形式, yi = 0 + 1 x1i +2 x2i+3 x3i+…k xki + ui (i=1, 2,…,n) 其中,y为被解释变量,也被称为因变量;x为解释变量 或自变量;u是随机误差项(random error term),也 被称为误差项或扰动项; n为样本个数。
EViews统计分析基础教程
四、 线性回归模型的基本假定
假定2:不同样本点下的随机误差项u之间是不相关的, 即 Cov(ui,uj)=0,i≠j,i,j=1,2,…,n 其中,cov表示协方差。当此假定条件不成立时,则 称该回归模型存在序列相关问题,也称为自相关问题。
EViews统计分析基础教程
EViews统计分析基础教程
二、一元线性回归模型
1.模型设定
一元线性回归模型的形式为
yi = 0 + 1 xi + ui
(i=1,2,…,n)
其中,y为被解释变量,也被称为因变量;x为解释变量或自 变量;u是随机误差项(random error term),也被称为误 差项或扰动项,它表示除了x之外影响y的因素,即y的变化 中未被x所解释的部分;n为样本个数。
2.方程对象
选择工作文件窗口工具栏中的“Object”| “New Object”| “Equation”选项,在下图所示的对话框中输入方程变量。
EViews统计分析基础教程
一、普通最小二乘法(OLS)
2.方程对象
EViews5.1提供了8种估计方法: “LS”为最小二乘法; “TSLS”为两阶段最小二乘法; “GMM”为广义矩法; “ARCH”为自回归条件异方差; “BINARY”为二元选择模型,其中包括Logit模型、Probit 模型和极端值模型; “ORDERED”为有序选择模型; “CENSORED”截取回归模型; “COUNT”为计数模型。
EViews统计分析基础教程
四、 线性回归模型的基本假定
线性回归模型必须满足以下几个基本假定:
假定1:随机误差项u具有0均值和同方差,即 E ( ui ) = 0 i=1,2,…,n Var ( ui ) = σ2 i=1,2,…,n 其中,E表示均值,也称为期望,在这里随机误差项u的 均值为0。Var表示随机误差项u的方差,对于每一个样本 点i,即在i=1,2,…,n的每一个数值上,解释变量y对 被解释变量x的条件分布具有相同的方差。当这一假定条 件不成立是,称该回归模型存在异方差问题。
EViews统计分析基础教程
二、一元线性回归模型
2.实际值、拟合值和残差
估计方程为
表示的是yt的拟合值, 和 分别是 0 和1的估计量。 实际值指的是回归模型中被解释变量(因变量)y的原始观 测数据。拟合值就是通过回归模型计算出来的yt的预测值。
EViews统计分析基础教程
二、一元线性回归模型
EViews统计分析基础教程
三、 多元线性回归模型
在多元线性回归模型中,要求解释变量x1,x2,…,xk之 间互不相关,即该模型不存在多重共线性问题。如果有 两个变量完全相关,就出现了完全多重共线性,这时参 数是不可识别的,模型无法估计。
EViews统计分析基础教程
三、 多元线性回归模型
通常情况下,把多元线性回归方程中的常数项看作虚拟 变量的系数,在参数估计过程中该常数项始终取值为1。 因而模型的解释变量个数为k+1.多元回归模型的矩阵形 式为 Y = X + u 其中,Y是因变量观测值的T维列向量;X是所有自变量 (包括虚拟变量)的T个样本点观测值组成的T×(k+1) 的矩阵;是k+1维系数向量;u是T维扰动项向量。
四、 线性回归模型的基本假定
假定3:同一个样本点下的随机误差项u与解释变量x之间 不相关,即
Cov(xi,ui)=0
i=1,2,…,n
EViews统计分析基础教程
四、 线性回归模型的基本假定
假定4:随机误差项u服从均值为0、同方差的正态分布, 即 u ~N(0,σ2) 如果回归模型中没有被列出的各因素是独立的随机 变量,则随着这些随机变量个数的增加,随机误差项u服 从正态分布。
EViews统计分析基础教程
第5章 基本回归模型的OLS估计
重点内容:
• 普通最小二乘法
• 线性回归模型的估计
• 线性回归模型的检验
EViews统计分析基础教程
一、普通最小二乘法(OLS)
1.最小二乘原理
设(x1,y1),(x2,y2),…,(xn,yn)是平面直角坐标 系下的一组数据,且x1< x2<…< xn,如果这组图像接近于一 条直线,我们可以确定一条直线y = a + bx ,使得这条直 线能反映出该组数据的变化。 如果用不同精度多次观测一个或多个未知量,为了确定各未 知量的可靠值,各观测量必须加改正数,使其各改正数的平 方乘以观测值的权数的总和为最小。因而称最小二乘法。
相关文档
最新文档