6.4自相关的解决方法
合集下载
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
n2
n 1
即存在一阶自相关时,
1 1 1 Ω 2 1- 1 2 1
1 2 1 2
若取
1 2 1 P 1- 2 1
Yt = 0 + 1 X t + ut
ˆ (1) ˆ (1) X ˆt 计算残差:et(1) Y 0 1 t
2.利用残差et(1)做如下回归: et(1) = et(1) -1 + vt
ˆ(1) 可得的第一次估计的结果
(1) ˆ 3.利用 ,对模型进行广义差分变换,即
将上式改写成:
Yt 0 (1 ) Yt 1 1 X t 1 X t 1 t
设
0 0 (1 ),1 1 ,2 1
则又可以写成:
Yt 0 Yt 1 1 X t 2 X t 1 t
式中,vt 满足基本假定,所以可以用OLS估计参数, ˆ. 则Yt 1前面的系数估计值就是的估计值
对上述Ω,可以分三种情况来讨论:
(1)当Ω I,即满足基本假定时,
ˆ ( X X)1 XY β
为OLS估计,可见OLS估计是GLS估计的特例。
(2)当Ω为对角矩阵,即存在异方差时,
12 2 2 Ω 2 n
1 2 1 Ω1
ˆ (1)Yt -1 = 0 (1- ˆ (1) ) + 1 ( X t - ˆ (1) X t -1 ) + ut - ˆ (1)ut -1 Yt -
令
ˆ (1)Yt -1 Yt* = Yt -
ˆ (1) X t -1 X t* = X t -
ˆ (1) ) = 0 (1-
广义差分法注意事项
(1)对变换后的模型进行OLS估计,可以直接得 ˆ1和A的估计值A ˆ, 0的估计值需要 到1的估计值 ˆ A ˆ0 换算, . 1
(2)在广义差分过程中,损失了一个观测值,为保 持样本容量不变,可以将第一个值这样定义: Y1* Y1 1 2 , X 1* X 1 1 2 .
1
2 2
1 2 n
广义最小二乘法就是使
*2 * * ˆ* * * ˆ* e ( Y X β ) ( Y X β) i
ˆ * ) (PY PXβ ˆ*) =(PY PXβ
ˆ * ) PP(Y Xβ ˆ*) (Y Xβ
该方法利用残差et 去估计未知的。对于一元线 性回归模型
Yt = 0 + 1 X t + ut
假定ut为一阶自回归形式,即:
ut ut 1 vt
科克伦-奥克特(Cochrane-Orcutt)迭代法估计 的步骤如下:
1.使用普遍最小二乘法估计模型
ˆ (1)、 ˆ (1) 并获得OLS估计量: 0 1
[(PX)PX]1[(PX)PY]
(XPPX)1 ( XPPY)
(XΩ1X)1 ( XΩ1Y)
Байду номын сангаас
这种估计方法称为广义最小二乘法(Generalized Least Square,简称GLS),得到的估计量称为 广义最小二乘估计量。
从估计过程可以看出,GLS的基本思想就是对违反 基本假定的模型做适当的变换,使其转化为满足基 本假定的模型,从而可以用OLS法估计模型。
令
Yt* Yt Yt 1 * X t X t X t 1 A (1 ) 0
则(3)式可表示为:
Yt* A 1 X t* vt
变换后的模型的随机误差项满足基本假定,所 以可以对变换后的模型用OLS估计参数。 这种变换称为广义差分变换,变换后的模型称 为广义差分模型,这种消除自相关性,求参数估计 量的方法称为广义差分法。
ˆ (2)、 ˆ (2) 使用普通最小二乘法,可得参数估计量为: 0 1
ˆ - ˆ X 求得新的残差:et(2) Yt - t
4.利用残差et(2)做如下的回归:
et(2) = et(2) -1 + vt
ˆ (2) 可估计得到的第二轮估计值
(2) ˆ 我们并不能确认 是否是的最佳估计值,
ˆ) DW 2(1
所以可以用DW的值近似估计
DW ˆ 1 2
2.科克伦-奥科特(Cochrane-Orcutt)迭代法
用DW 统计量估计 得到的是一个比较组略的结 果,是对的精度不高的估计。其根本原因在于 我们对有自相关的回归模型使用了普通最小二乘 法。为了得到的精确的估计值,人们通常采用 科克伦-奥克特(Cochrane-Orcutt)迭代法。
第四节 自相关的解决办法
• 广义差分法 • 自相关系数ρ的估计方法 • 广义最小二乘法
如果模型被检验证明存在自相关性,则需要发 展新的方法估计模型。最常用的方法是广义差分法。 一、广义差分法 设一元线性回归模型: Yt 0 1 X t ut 存在一阶自相关性: ( 1)
ut ut 1 vt
如果模型为多元线性回归模型,同样可以进 行类似的广义差分变换。
设多元线性回归模型:
Yt 0 1 X1t 2 X 2t k X kt ut
( 1)
将模型滞后一期得:
Yt 1 0 1 X1,t 1 2 X 2,t 1 k X k ,t 1 ut 1
1
i
2 2 e w e i i 最小 2 i
可见,在异方差情况下,GLS估计即为WLS估计, 或者说,WLS估计也是GLS估计的特例。
(3)当Ω矩阵具有以下形式:
1 1 Ω n 1 n2 1
其中,vt为满足基本假定的随机误差项。
将模型滞后一期得:
Yt 1 0 1 X t 1 ut 1
在上式两端同乘以得
Yt 1 0 1 X t 1 ut 1
(1)式减去(2)式得:
( 2)
Yt Yt 1 0 (1 ) 1 ( X t X t 1 ) (ut ut 1 ) (3)
同样可以得到满足基本假定的模型:
Yt* A 1 X t* vt
二、自相关系数ρ的估计方法
进行广义差分变换的前提是已知的值,但 是随 机误差项的相关系数,ut的不可观测性使得的值也 是未知的。所以利用广义差分法处理自相关时,需 要事先估计出的值。
1.用DW统计量的值估计
在大样本情况下,因为
1 1
则
PP Ω1
GLS估计就是用P左乘原模型的两端,即:
PY PXβ PU
这实际上是对原模型进行广义差分变换(对损失 的第一个观测值进行了补充)。所以存在一阶自 相关性时,如果对第一个观测值进行补充,则广 义差分法的结果完全等同于广义最小二乘法估计 量。
令
Yt * Yt Yt 1 * X 1t X 1t X 1,t 1 * X kt X kt X k,t 1 A 0 (1 )
仍然可以得到满足基本假定的广义差分模型:
* * Yt* A 1 X1*t 2 X 2 X t k kt vt
在上式两端同乘以得
Yt 1 0 1 X1,t 1 2 X 2,t 1 k X k ,t 1 ut 1
( 2)
(1)式减去(2)式得:
Yt Yt 1 0 (1 ) 1 ( X1t X1,t 1 ) k ( X kt X k ,t 1 ) (ut ut 1 )
( 2)
随机误差项的方差-协方差矩阵为
E (U*U* ) E[PU(PU)]
E[PUUP] PE[UU]P
2 2 PE[UU ]P PΩP I
这表明变换后的模型满足同方差和非自相关 的假定,因此可以用OLS法估计模型。 参数的OLS估计量为
ˆ * ( X* X* )1 X*Y* β
12 E (u1u2 ) E (u1un ) 2 E (u2u1 ) 2 E (u2un ) 2 = Ω 2 E (unu1 ) E (unu2 ) n
其中Ω为n阶实对称正定矩阵, 2为常数。
如果随机误差项的方差相同且等于 2,并且非自相关, 则Ω I。
三、广义最小二乘法(Generalized Least Square,简称GLS) 对于多元线性回归模型
Y Xβ U
(1)
随机误差项u的方差-协方差矩阵为
u12 u1u2 u1un 2 u2u1 u2 u2un Var (U) E (UU) E 2 unu1 unu2 un
ˆ (3)。当估计 还要继续估计的第三轮估计值 ˆ ( k )与 ˆ ( k +1)相差很小时,就找到了的最 的 佳估计值。
3.杜宾(Durbin)估计法 以一元线性回归模型为例:
Yt 0 1 X t ut
其中
ut ut 1 vt
对此模型进行广义差分变换得:
Yt Yt 1 0 (1 ) 1 ( X t X t 1 ) (ut ut 1 )
如果自相关类型为高阶自回归形式:
ut 1ut 1 2ut 2 p ut p vt
则广义差分变换为(以一元线性回归模型为例):
Yt* Yt 1Yt 1 2Yt 2 pYt p * X t X t 1 X t 1 2 X t 2 p X t p A (1 ) 0 1 2 p
如果Ω I,因为Ω为n阶实对称正定矩阵,根据线性 代数的知识,存在n阶非奇异矩阵P, 使得
PΩP I
由此可得:
Ω P 1 (P)1
Ω1 PP
用P左乘(1)式得 PY PXβ PU 令
Y* PY X* PX U* PU
则模型(1)式变换为
Y* X*β U*
n 1
即存在一阶自相关时,
1 1 1 Ω 2 1- 1 2 1
1 2 1 2
若取
1 2 1 P 1- 2 1
Yt = 0 + 1 X t + ut
ˆ (1) ˆ (1) X ˆt 计算残差:et(1) Y 0 1 t
2.利用残差et(1)做如下回归: et(1) = et(1) -1 + vt
ˆ(1) 可得的第一次估计的结果
(1) ˆ 3.利用 ,对模型进行广义差分变换,即
将上式改写成:
Yt 0 (1 ) Yt 1 1 X t 1 X t 1 t
设
0 0 (1 ),1 1 ,2 1
则又可以写成:
Yt 0 Yt 1 1 X t 2 X t 1 t
式中,vt 满足基本假定,所以可以用OLS估计参数, ˆ. 则Yt 1前面的系数估计值就是的估计值
对上述Ω,可以分三种情况来讨论:
(1)当Ω I,即满足基本假定时,
ˆ ( X X)1 XY β
为OLS估计,可见OLS估计是GLS估计的特例。
(2)当Ω为对角矩阵,即存在异方差时,
12 2 2 Ω 2 n
1 2 1 Ω1
ˆ (1)Yt -1 = 0 (1- ˆ (1) ) + 1 ( X t - ˆ (1) X t -1 ) + ut - ˆ (1)ut -1 Yt -
令
ˆ (1)Yt -1 Yt* = Yt -
ˆ (1) X t -1 X t* = X t -
ˆ (1) ) = 0 (1-
广义差分法注意事项
(1)对变换后的模型进行OLS估计,可以直接得 ˆ1和A的估计值A ˆ, 0的估计值需要 到1的估计值 ˆ A ˆ0 换算, . 1
(2)在广义差分过程中,损失了一个观测值,为保 持样本容量不变,可以将第一个值这样定义: Y1* Y1 1 2 , X 1* X 1 1 2 .
1
2 2
1 2 n
广义最小二乘法就是使
*2 * * ˆ* * * ˆ* e ( Y X β ) ( Y X β) i
ˆ * ) (PY PXβ ˆ*) =(PY PXβ
ˆ * ) PP(Y Xβ ˆ*) (Y Xβ
该方法利用残差et 去估计未知的。对于一元线 性回归模型
Yt = 0 + 1 X t + ut
假定ut为一阶自回归形式,即:
ut ut 1 vt
科克伦-奥克特(Cochrane-Orcutt)迭代法估计 的步骤如下:
1.使用普遍最小二乘法估计模型
ˆ (1)、 ˆ (1) 并获得OLS估计量: 0 1
[(PX)PX]1[(PX)PY]
(XPPX)1 ( XPPY)
(XΩ1X)1 ( XΩ1Y)
Байду номын сангаас
这种估计方法称为广义最小二乘法(Generalized Least Square,简称GLS),得到的估计量称为 广义最小二乘估计量。
从估计过程可以看出,GLS的基本思想就是对违反 基本假定的模型做适当的变换,使其转化为满足基 本假定的模型,从而可以用OLS法估计模型。
令
Yt* Yt Yt 1 * X t X t X t 1 A (1 ) 0
则(3)式可表示为:
Yt* A 1 X t* vt
变换后的模型的随机误差项满足基本假定,所 以可以对变换后的模型用OLS估计参数。 这种变换称为广义差分变换,变换后的模型称 为广义差分模型,这种消除自相关性,求参数估计 量的方法称为广义差分法。
ˆ (2)、 ˆ (2) 使用普通最小二乘法,可得参数估计量为: 0 1
ˆ - ˆ X 求得新的残差:et(2) Yt - t
4.利用残差et(2)做如下的回归:
et(2) = et(2) -1 + vt
ˆ (2) 可估计得到的第二轮估计值
(2) ˆ 我们并不能确认 是否是的最佳估计值,
ˆ) DW 2(1
所以可以用DW的值近似估计
DW ˆ 1 2
2.科克伦-奥科特(Cochrane-Orcutt)迭代法
用DW 统计量估计 得到的是一个比较组略的结 果,是对的精度不高的估计。其根本原因在于 我们对有自相关的回归模型使用了普通最小二乘 法。为了得到的精确的估计值,人们通常采用 科克伦-奥克特(Cochrane-Orcutt)迭代法。
第四节 自相关的解决办法
• 广义差分法 • 自相关系数ρ的估计方法 • 广义最小二乘法
如果模型被检验证明存在自相关性,则需要发 展新的方法估计模型。最常用的方法是广义差分法。 一、广义差分法 设一元线性回归模型: Yt 0 1 X t ut 存在一阶自相关性: ( 1)
ut ut 1 vt
如果模型为多元线性回归模型,同样可以进 行类似的广义差分变换。
设多元线性回归模型:
Yt 0 1 X1t 2 X 2t k X kt ut
( 1)
将模型滞后一期得:
Yt 1 0 1 X1,t 1 2 X 2,t 1 k X k ,t 1 ut 1
1
i
2 2 e w e i i 最小 2 i
可见,在异方差情况下,GLS估计即为WLS估计, 或者说,WLS估计也是GLS估计的特例。
(3)当Ω矩阵具有以下形式:
1 1 Ω n 1 n2 1
其中,vt为满足基本假定的随机误差项。
将模型滞后一期得:
Yt 1 0 1 X t 1 ut 1
在上式两端同乘以得
Yt 1 0 1 X t 1 ut 1
(1)式减去(2)式得:
( 2)
Yt Yt 1 0 (1 ) 1 ( X t X t 1 ) (ut ut 1 ) (3)
同样可以得到满足基本假定的模型:
Yt* A 1 X t* vt
二、自相关系数ρ的估计方法
进行广义差分变换的前提是已知的值,但 是随 机误差项的相关系数,ut的不可观测性使得的值也 是未知的。所以利用广义差分法处理自相关时,需 要事先估计出的值。
1.用DW统计量的值估计
在大样本情况下,因为
1 1
则
PP Ω1
GLS估计就是用P左乘原模型的两端,即:
PY PXβ PU
这实际上是对原模型进行广义差分变换(对损失 的第一个观测值进行了补充)。所以存在一阶自 相关性时,如果对第一个观测值进行补充,则广 义差分法的结果完全等同于广义最小二乘法估计 量。
令
Yt * Yt Yt 1 * X 1t X 1t X 1,t 1 * X kt X kt X k,t 1 A 0 (1 )
仍然可以得到满足基本假定的广义差分模型:
* * Yt* A 1 X1*t 2 X 2 X t k kt vt
在上式两端同乘以得
Yt 1 0 1 X1,t 1 2 X 2,t 1 k X k ,t 1 ut 1
( 2)
(1)式减去(2)式得:
Yt Yt 1 0 (1 ) 1 ( X1t X1,t 1 ) k ( X kt X k ,t 1 ) (ut ut 1 )
( 2)
随机误差项的方差-协方差矩阵为
E (U*U* ) E[PU(PU)]
E[PUUP] PE[UU]P
2 2 PE[UU ]P PΩP I
这表明变换后的模型满足同方差和非自相关 的假定,因此可以用OLS法估计模型。 参数的OLS估计量为
ˆ * ( X* X* )1 X*Y* β
12 E (u1u2 ) E (u1un ) 2 E (u2u1 ) 2 E (u2un ) 2 = Ω 2 E (unu1 ) E (unu2 ) n
其中Ω为n阶实对称正定矩阵, 2为常数。
如果随机误差项的方差相同且等于 2,并且非自相关, 则Ω I。
三、广义最小二乘法(Generalized Least Square,简称GLS) 对于多元线性回归模型
Y Xβ U
(1)
随机误差项u的方差-协方差矩阵为
u12 u1u2 u1un 2 u2u1 u2 u2un Var (U) E (UU) E 2 unu1 unu2 un
ˆ (3)。当估计 还要继续估计的第三轮估计值 ˆ ( k )与 ˆ ( k +1)相差很小时,就找到了的最 的 佳估计值。
3.杜宾(Durbin)估计法 以一元线性回归模型为例:
Yt 0 1 X t ut
其中
ut ut 1 vt
对此模型进行广义差分变换得:
Yt Yt 1 0 (1 ) 1 ( X t X t 1 ) (ut ut 1 )
如果自相关类型为高阶自回归形式:
ut 1ut 1 2ut 2 p ut p vt
则广义差分变换为(以一元线性回归模型为例):
Yt* Yt 1Yt 1 2Yt 2 pYt p * X t X t 1 X t 1 2 X t 2 p X t p A (1 ) 0 1 2 p
如果Ω I,因为Ω为n阶实对称正定矩阵,根据线性 代数的知识,存在n阶非奇异矩阵P, 使得
PΩP I
由此可得:
Ω P 1 (P)1
Ω1 PP
用P左乘(1)式得 PY PXβ PU 令
Y* PY X* PX U* PU
则模型(1)式变换为
Y* X*β U*