计量经济学讲义第二讲(共十讲)
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第二讲 普通最小二乘估计量 一、基本概念:估计量与估计值
对总体参数的一种估计法则就是估计量。例如,为了估计总体均值为u ,我们可以抽取一个容量为N 的样本,令Y i 为第i 次观测值,则u 的一个很自然的
估计量就是ˆi
Y u
Y N
==∑。A 、B 两同学都利用了这种
估计方法,但手中所掌握的样本分别是12(,,...,)A A A
N y y y 与12(,,...,)B B B N y y y 。A 、B 两同学分别计算出估计值
ˆA
i
A y u
N
=∑
与ˆB
i
B y u
N
=∑
。因此,在上例中,估计量ˆu
是随机的,而ˆˆ,A B u u 是该随机变量可能的取值。估计量
所服从的分布称为抽样分布。
如果真实模型是:01y x ββε=++,其中01,ββ是待估计的参数,而相应的OLS 估计量就是:
1
01
2
()ˆˆˆ;()
i
i
i
x x y
y x x x βββ-==--∑∑ 我们现在的任务就是,基于一些重要的假定,来考察上述OLS 估计量所具有的一些性质。
二、高斯-马尔科夫假定
●假定一:真实模型是:01y x ββε=++。有三种
情况属于对该假定的违背:(1)遗漏了相关的解释变量或者增加了无关的解释变量;(2)y 与x 间的关系是非线性的;(3)01,ββ并不是常数。
●假定二:在重复抽样中,12(,,...,)N x x x 被预先固定
下来,即12(,,...,)N x x x 是非随机的(进一步的阐释见附录),显然,如果解释变量含有随机的测量误差,那么该假定被违背。还存其他的违背该假定的情况。
笔记:
12(,,...,)N x x x 是随机的情况更一般化,此时,高斯-马尔科夫假定二被更改为:对任意,i j ,i x 与j ε不相关,此即所谓的解释变量具有严格外生性。显然,当12(,,...,)N x x x 非随机时,i x 与j ε必定不相关,这是因为j ε是随机的。
●假定三:误差项期望值为0,即
()0,1,2i E i N ε==。
笔记:
1、当12(,,...,)N x x x 随机时,标准假定是:
12(,,...,)0,1,2,...,i N E x x x i N ε==
根据迭代期望定律有:12[(,,...,)]()i N i E E x x x E εε=,因
此,如果12(,,...,)0i N E x x x ε=成立,必定有:()0i E ε=。
另外,根据迭代期望定律也有:
12[(,,...,)]()i N j i j E E x x x E x x εε=
而1212(,,...,)(,,...,)i N i N j j E x x x E x x x x x εε=。故有:12()0
(,,...,)0()0
()()()0
(,)i N i i j i j i j i j E E x x x E E E E x C ov x x x εεεεεε==⇒=-=⎧⎨
⎩⇒=
因此,在12(,,...,)N x x x 是随机的情况下,假定二、三可以
修正为一个假定:12(,,...,)0i N E x x x ε=。
2、所谓迭代期望定律是指:如果信息集Θ⊆Ω,则有
][()()E E X E X ΩΘ=
Θ。为了理解上述等式,考虑一个极端
情况:Ω包含了全部的信息,此时X 丧失了随机性,故
()
E X
X Ω=,因此必有][()()E E X E X ΩΘ=Θ。无条件期
望所对应的信息集是空集,因此[()]()E E X E X Ω=。
3、回忆第一讲,对模型01y x ββε=++,在OLS 法下
我们一定能保证:(1)残差均值为零;(2)残差与x 样本不相关。残差是对误差的近似,如果假定二、三不成立,即误差项与解释变量相关,误差项期望值不为零,显然此时残差并不是对误差项的有效的近似,换句话说,此时OLS 估计量是有严重问题的。因此,假定二、三非常重要。
●假定四:22i
εδδ=,即所谓的同方差假定。
笔记:
在12(,,...,)N x x x 是随机的情况下,该假定修订为:
122
Var(,,...,)i N x x x εδ=
●假定五:(,)0,i j C ov i j εε=≠,即所谓的序列不
相关假定。
笔记:
在12(,,...,)N x x x 是随机的情况下,该假定修订为:
12C ov(,,...,),0i j
N x x x εε
= ,i j ≠
●假定六:2()0i x x -≠∑,在多元回归中,该假
定演变为X X '的逆存在,即各解释变量不完全共线。
三、高斯-马尔科夫定理
当高斯-马尔科夫假定成立时,在所有线性无偏估计量中,OLS 估计量方差最小。或者说,OLS 估计量是最优线性无偏估计量(best linear unbiased esti mator,BLUE )。这被称为高斯-马尔科夫定理。 (一)OLS 估计量是线性估计量
所谓OLS 估计量是线性估计量,是指它能够被表示为i y 的线性函数。例如:
12
ˆ[]()i i i i i x x
y k y x x β-==-
∑
∑∑
注意,在假定二下,k i 是非随机的。