Eviews数据统计与分析教程 PPT

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

四、 线性回归模型的基本假定
假定3:同一个样本点下的随机误差项u与解释变量x之
间不相关,即
Cov(xi,ui)=0
i=1,2,…,n
大家好
15
四、 线性回归模型的基本假定
假定4:随机误差项u服从均值为0、同方差的正态分布, 即
u ~N(0,σ2)
如果回归模型中没有被列出的各因素是独立的随机变
量,则随着这些随机变量个数的增加,随机误差项u服
线性回归模型必须满足以下几个基本假定:
假定1:随机误差项u具有0均值和同方差,即 E ( ui ) = 0 i=1,2,…,n Var ( ui ) = σ2 i=1,2,…,n
其中,E表示均值,也称为期望,在这里随机误差项u的 均值为0。Var表示随机误差项u的方差,对于每一个样 本点i,即在i=1,2,…,n的每一个数值上,解释变量y 对被解释变量x的条件分布具有相同的方差。当这一假定
2.方程对象
EViews5.1提供了8种估计方法: “LS”为最小二乘法; “TSLS”为两阶段最小二乘法; “GMM”为广义矩法; “ARCH”为自回归条件异方差; “BINARY”为二元选择模型,其中包括Logit模型、 Probit模型和极端值模型; “ORDERED”为有序选择模型; “CENSORED”截取回归模型; “COUNT”为计数模型。
和残差(Residual)。实际值和拟合值越接近,方程拟
合效果越好。
大家好
9
三、多元线性回归模型
通常情况下,将含有多个解释变量的线性回归模型(多 元线性回归模型)写成如下形式,
yi = 0 + 1 x1i +2 x2i+3 x3i+…k xki + ui (i=1, 2,…,n)
其中,y为被解释变量,也被称为因变量;x为解释变量 或自变量;u是随机误差项(random error term), 也被称为误差项或扰动项; n为样本个数。
yt= b1 + b2xt + et 其中,et为残差项,
5-3式为估计方程,b1 和b2分别为B1和B2的估计量,
因而
e = 实际的yt –估计的yt
大家好
3
一、普通最小二乘法(OLS)
1.最小二乘原理 估计总体回归函数的最优方法是选择B1和B2的估计量b1 , b2,使得残差et尽可能达到最小。 用公式表达即为
总之,最小二乘原理就是选择样本回归函数使得y的估计值 与真实值之差的平方和最小。
大家好
4
一、普通最小二乘法(OLS)
2.方程对象
选择工作文件窗口工具栏中的“Object”| “New Object”| “Equation”选项,在下图所示的对话框中输入方程变量。
大家好
5
一、普通最小二乘法(OLS)
大家好
6
二、一元线性回归模型
1.模型设定
一元线性回归模型的形式为
yi = 0 + 1 xi + ui (i=1,2,…,n)
其中,y为被解释变量,也被称为因变量;x为解释变量或自 变量;u是随机误差项(random error term),也被称为 误差项或扰动项,它表示除了x之外影响y的因素,即y的变 化中未被x所解释的部分;n为样本个数。
大家好
17
五、 线性回归模型的检验
1.拟合Fra Baidu bibliotek度检验
拟合优度检验用来验证回归模型对样本观测值(实
际值)的拟合程度,可通过R2统计量来检验。
大家好
18
五、 线性回归模型的检验
1.拟合优度检验
公式
三者的关系为
TSS = RSS +ESS
TSS为总体平方和, RSS为残差平方和, ESS为回归
从正态分布。
大家好
16
四、 线性回归模型的基本假定
假定5:解释变量x1,x2,…,xi是非随机的确定性变量, 并且解释变量间互不相关。则这说明yi的概率分布具有
均值,即
E(yi|xi)= E(0 +1xi +ui)=0 +1xi
该式被称为总体回归函数。 如果两个或多个解释变量间出现了相关性,则说明该模 型存在多重共线性问题。
条件不成立是,称该回归模型存在异方差问题。
大家好
13
四、 线性回归模型的基本假定
假定2:不同样本点下的随机误差项u之间是不相关的, 即
Cov(ui,uj)=0,i≠j,i,j=1,2,…,n
其中,cov表示协方差。当此假定条件不成立时,则 称该回归模型存在序列相关问题,也称为自相关问题。
大家好
14
第5章 基本回归模型的OLS估计
重点内容: • 普通最小二乘法 • 线性回归模型的估计 • 线性回归模型的检验
大家好
1
一、普通最小二乘法(OLS)
1.最小二乘原理
设(x1,y1),(x2,y2),…,(xn,yn)是平面直角坐 标系下的一组数据,且x1< x2<…< xn,如果这组图像接近 于一条直线,我们可以确定一条直线y = a + bx ,使得这
条直线能反映出该组数据的变化。
如果用不同精度多次观测一个或多个未知量,为了确定各未 知量的可靠值,各观测量必须加改正数,使其各改正数的平 方乘以观测值的权数的总和为最小。因而称最小二乘法。
大家好
2
一、普通最小二乘法(OLS)
1.最小二乘原理
设双变量的总体回归方程为
样本回归函数为
yt= B1 + B2xt +μt
大家好
10
三、 多元线性回归模型
在多元线性回归模型中,要求解释变量x1,x2,…,xk之
间互不相关,即该模型不存在多重共线性问题。如果有 两个变量完全相关,就出现了完全多重共线性,这时参 数是不可识别的,模型无法估计。
大家好
11
三、 多元线性回归模型
通常情况下,把多元线性回归方程中的常数项看作虚拟
变量的系数,在参数估计过程中该常数项始终取值为1。
因而模型的解释变量个数为k+1.多元回归模型的矩阵形
式为
Y = X + u 其中,Y是因变量观测值的T维列向量;X是所有自变量 (包括虚拟变量)的T个样本点观测值组成的T×(k+1) 的矩阵;是k+1维系数向量;u是T维扰动项向量。
大家好
12
四、 线性回归模型的基本假定
大家好
7
二、一元线性回归模型
2.实际值、拟合值和残差 估计方程为
表示的是yt的拟合值, 和 分别是 0 和1的估计量。实 际值指的是回归模型中被解释变量(因变量)y的原始观测 数据。拟合值就是通过回归模型计算出来的yt的预测值。
大家好
8
二、一元线性回归模型
2.实际值、拟合值和残差
三条曲线分别是实际值(Actual),拟合值(Fitted)
相关文档
最新文档