伍德里奇《计量经济学导论--现代观点》1

合集下载

伍德里奇1.1 计量经济学绪论

伍德里奇1.1 计量经济学绪论

时间序列数据(Time-series Data)
• Stationary Time Series – 适合于经典计量模型
时间序列数据指对一个变量按照不同时 间取值的一组观测结果。

Avgmin: 当年的最低工资; avgcov: 最低工资的覆盖率(最低工资法所涵盖的工人占工人总数的 百分比); unemp: 失业率; gnp: 国民生产总值。
• Stochastic Sampling Data – 经典计量模型理论以该类数据为基础
截面数据(cross-section data)指对一个变量 或多个变量在同一时间里收集的数据。

gpcrgdp: 真实人均GDP的平均增长率; govcons60: 政府消费占GDP的比重; second60: 成人中受过中等教育的比重。
– 1933年创刊《Econometrica》《计量经济学刊》
○ 20世纪40、50年代的大发展和60年代的扩张 ○ 20世纪70年代的批评和反思(Lucas 、Sarget、 Sims)
○ 20世纪70年代末以来非经典(现代)计量经济学的发展
• 定义
计量经济学可以定义为这样的社会科学:它把经济 理论、数学和统计学推断作为工具,应用于经济现 象的分析。 ---《Econometrics Theory》 计量经济学是研究经济定律的经验判定。 ---《Principles of Econometrics》 计量经济学的主要目标是推动研究经济问题的理论 定量方法与经验定量方法的统一。 ---《Econometrica》
(四)模型的检验
⑴ 经济意义检验
根据拟定的符号、大小、关系,对参数估计结 果的可靠性进行判断。
⑵ 统计检验
由数理统计理论决定。包括: 拟合优度检验(Coefficient of Determination) 总体显著性检验(Overall Significance of Regression) 变量显著性检验(Significance of Variables)

计量经济学应用研究的可信性革命

计量经济学应用研究的可信性革命

计量经济学应用研究的可信性革命在过去的几十年中,计量经济学作为经济学的一个重要分支,已经经历了两次可信性革命。

这些革命彻底改变了我们对于计量经济学应用研究可信性的理解和实践。

第一次可信性革命发生在20世纪70年代,以弗朗哥·魁奈尔(Franco Modigliani)和默顿·米勒(Merton Miller)的诺贝尔经济学奖获奖研究——MM定理(Modigliani-Miller Theorem)为标志。

MM定理为企业的投资决策和财务政策提供了新的视角,并改变了经济学家对于公司财务政策的研究方向。

这一理论革命强调了如果一个公司的投资决策和财务政策不受到税收、破产成本、以及代理关系等因素的影响,那么公司的投资决策和财务政策将与企业的市场价值无关。

这一革命性的研究为后来的企业金融、资产定价和宏观经济学等领域的研究提供了重要的理论基础。

第二次可信性革命发生在21世纪初,以本·伯南克(Ben Bernanke)和亚当·斯密(Adam Smith)的宏观经济理论为标志。

他们强调了货币政策对于稳定经济的重要性,并提出了一个基于“流动性陷阱”和“自然失业率”的理论框架来解释经济周期。

这一理论框架强调了中央银行通过控制货币供应量来稳定经济的必要性,以及经济中的结构性因素如劳动力市场和金融市场的不完善对于宏观经济稳定的影响。

这一革命性的研究为后来的货币政策制定、经济周期分析以及国际经济政策协调等领域的研究提供了重要的理论基础。

今天,我们正处在一个新的可信性革命的边缘。

以大数据和人工智能为代表的新兴技术正在对计量经济学应用研究产生深远的影响。

大数据的出现使得我们能够处理和分析了更多的数据,而人工智能则帮助我们更加深入地挖掘和理解这些数据背后的经济规律和趋势。

大数据已经改变了计量经济学应用研究的范式。

传统的计量经济学研究通常依赖于假设和简化现实世界的复杂性。

然而,大数据为我们提供了一个更为接近现实的、复杂的数据世界,使我们能够更准确地刻画和理解经济现象。

伍德里奇《计量经济学导论》(第5版)笔记和课后习题详解

伍德里奇《计量经济学导论》(第5版)笔记和课后习题详解
伍德里奇《计量经济学导论》(第5 版)笔记和课后习题详解
读书笔记模板
01 思维导图
03 目录分析 05 读书笔记
目录
02 内容摘要 04 作者介绍 06 精彩摘录
思维导图
本书关键字分析思维导图
第版
计量经济 学
时间
习题
序列
经典
变量
笔记
教材
笔记 复习
模型
导论
笔记
第章
习题
分析
数据
回归
内容摘要
本书是伍德里奇《计量经济学导论》(第5版)教材的配套电子书,主要包括以下内容:(1)整理名校笔记, 浓缩内容精华。每章的复习笔记以伍德里奇所著的《计量经济学导论》(第5版)为主,并结合国内外其他计量经 济学经典教材对各章的重难点进行了整理,因此,本书的内容几乎浓缩了经典教材的知识精华。(2)解析课后习 题,提供详尽答案。本书参考国外教材的英文答案和相关资料对每章的课后习题进行了详细的分析和解答。(3) 补充相关要点,强化专业知识。一般来说,国外英文教材的中译本不太符合中国学生的思维习惯,有些语言的表 述不清或条理性不强而给学习带来了不便,因此,对每章复习笔记的一些重要知识点和一些习题的解答,我们在 不违背原书原意的基础上结合其他相关经典教材进行了必要的整理和分析。本书特别适用于参加研究生入学考试 指定考研考博参考书目为伍德里奇所著的《计量经济学导论》的考生,也可供各大院校学习计量经济学的师生参 考。

2.1复习笔记 2.2课后习题详解
3.1复习笔记 3.2课后习题详解
4.1复习笔记 4.2课后习题详解
5.1复习笔记 5.2课后习题详解
6.1复习笔记 6.2课后习题详解
7.1复习笔记 7.2课后习题详解

计量经济学 伍德里奇 第一章

计量经济学 伍德里奇 第一章
⇒ “What would have been the outcome of the treatment group if the intervention had not taken place?”.
The main challenge of an impact evaluation is the construction of a suitable counterfactual situation.
An ideal experiment can be conducted to obtain the causal effect of fertilizer amount on yield when the levels of fertilizer are assigned to plots independently of other plot features that affect yield.
.12
.1
.08
unemployment rate
.06
.04
1976 1980
1985
1990
1995
2000
2005
Note: Shaded areas are times of recession following the definition of Elsby et al. (2009).
2010
Dandan Zhang (NSD)
Sep.-Dec. 2014 1 / 37
1. Introduction
Course Structure
1. Introduction (We4 Chapter 1) 2. Mathematical Foundations,Probability Theory (We4 Appendix B & C) 3. The Bivariate Linear Regression Model (We4 Chapter 2) 4. The Multivariate Linear Regression Model (We4 Chapter 3) 5. Inference (We4 Chapter 4) 6. Further Issues (We4 Chapter 6) 7. Multiple Regression Analysis with Qualitative Information (We4 Chapter 7) 8. Heteroscedasticity (We4 Chapter 8) 9. Specification and Data Issues (We4 Chapter 9) 10. Instrument variables (We4 Chapter 15) 11. Panel Data (We4 Chapter 14)

伍德里奇计量经济学导论第6版笔记和课后习题答案

伍德里奇计量经济学导论第6版笔记和课后习题答案

第1章计量经济学的性质与经济数据1.1复习笔记考点一:计量经济学★1计量经济学的含义计量经济学,又称经济计量学,是由经济理论、统计学和数学结合而成的一门经济学的分支学科,其研究内容是分析经济现象中客观存在的数量关系。

2计量经济学模型(1)模型分类模型是对现实生活现象的描述和模拟。

根据描述和模拟办法的不同,对模型进行分类,如表1-1所示。

(2)数理经济模型和计量经济学模型的区别①研究内容不同数理经济模型的研究内容是经济现象各因素之间的理论关系,计量经济学模型的研究内容是经济现象各因素之间的定量关系。

②描述和模拟办法不同数理经济模型的描述和模拟办法主要是确定性的数学形式,计量经济学模型的描述和模拟办法主要是随机性的数学形式。

③位置和作用不同数理经济模型可用于对研究对象的初步研究,计量经济学模型可用于对研究对象的深入研究。

考点二:经济数据★★★1经济数据的结构(见表1-3)2面板数据与混合横截面数据的比较(见表1-4)考点三:因果关系和其他条件不变★★1因果关系因果关系是指一个变量的变动将引起另一个变量的变动,这是经济分析中的重要目标之计量分析虽然能发现变量之间的相关关系,但是如果想要解释因果关系,还要排除模型本身存在因果互逆的可能,否则很难让人信服。

2其他条件不变其他条件不变是指在经济分析中,保持所有的其他变量不变。

“其他条件不变”这一假设在因果分析中具有重要作用。

1.2课后习题详解一、习题1.假设让你指挥一项研究,以确定较小的班级规模是否会提高四年级学生的成绩。

(i)如果你能指挥你想做的任何实验,你想做些什么?请具体说明。

(ii)更现实地,假设你能搜集到某个州几千名四年级学生的观测数据。

你能得到它们四年级班级规模和四年级末的标准化考试分数。

你为什么预计班级规模与考试成绩成负相关关系?(iii)负相关关系一定意味着较小的班级规模会导致更好的成绩吗?请解释。

答:(i)假定能够随机的分配学生们去不同规模的班级,也就是说,在不考虑学生诸如能力和家庭背景等特征的前提下,每个学生被随机的分配到不同的班级。

伍德里奇计量经济学课件 (1)

伍德里奇计量经济学课件 (1)
n
18
计量经济学
n
若贝尔经济学奖获奖名单
2004 Finn Kydland , Edward Prescott 2003 Robert F. Engle, Clive W. J. Granger 2002 Daniel Kahneman, Vernon L. Smith 2001 George A. Akerlof, A. Michael Spence, Joseph E. Stiglitz 2000 James J Heckman, Daniel L McFadden 1999 Robert A. Mundell 1998 Amartya Sen 1997 Robert C. Merton, Myron S. Scholes 1996 James A. Mirrlees, William Vickrey
INTERMEDIATE ECONOMETRICS
计量经济学导论
Fall, 2012
1
Outline
有关信息 n 什么是计量经济学 n 计量经济学的作用 n 数据: 输入数据 n 经验分析的步骤 n 本课程涵盖的内容
n
2
信息:课程——计量经济学
金融计量学 课号:01663 学分:4 课程性质:教育部规定核心课程
△诺贝尔经济学奖与计量经济学
77位获奖者中10位直接因为对计量经济学发展的贡献而获奖 1969 R. Frish J. Tinbergen 1973 W. Leotief 1980 L. R. Klein 1984 R. Stone 1989 T. Haavelmo 2000 J. J. Heckman D. L. McFadden 2003 R. F. Engle C. W. J. Granger

伍德里奇《计量经济学导论》(第4版)笔记和课后习题详解-第1~4章【圣才出品】

伍德里奇《计量经济学导论》(第4版)笔记和课后习题详解-第1~4章【圣才出品】
二、经验经济分析的步骤 经验分析就是利用数据来检验某个理论或估计某种关系。 1.对所关心问题的详细阐述 在某些情形下,特别是涉及到对经济理论的检验时,就要构造一个规范的经济模型。经 济模型总是由描述各种关系的数理方程构成。 2.经济模型变成计量模型 先了解一下计量模型和经济模型有何关系。与经济分析不同,在进行计量经济分析之前, 必须明确函数的形式。 通过设定一个特定的计量经济模型,就解决了经济模型中内在的不确定性。
Байду номын сангаас
2.假设让你进行一项研究,以确定较小的班级规模是否会提高四年级学生的成绩。
4 / 119
圣才电子书 十万种考研考证电子书、题库视频学习平台

(i)如果你能设定你想做的任何实验,你想做些什么?请具体说明。 (ii)更现实地,假设你能搜集到某个州几千名四年级学生的观测数据。你能得到他们 四年级班级规模和四年级末的标准化考试分数。你为什么预计班级规模与考试成绩存在负相 关关系? (iii)负相关关系一定意味着较小的班级规模会导致更好的成绩吗?请解释。 答:(i)假定能够随机的分配学生们去不同规模的班级,也就是说,在不考虑学生诸如 能力和家庭背景等特征的前提下,每个学生被随机的分配到不同的班级。因此可以看到班级 规模(在伦理考量和资源约束条件下的主体)的显著差异。 (ii)负相关关系意味着更大的班级规模与更差的考试成绩是有直接联系的,因此可以 发现班级规模越大,导致考试成绩越差。 通过数据可知,两者之间的负相关关系还有其他的原因。例如,富裕家庭的孩子在学校 可能更多的加入小班,而且他们的成绩优于平均水平。 另外一个可能性是:学校的原则是将成绩较好的学生分配到小班。或者部分父母可能坚 持让自己的孩子进入更小的班级,而同样这些父母也更多的参与子女的教育。 (iii)鉴于潜在的其他混杂因素(如 ii 所列举),负相关关系并不一定意味着较小的班 级规模会导致更好的成绩。控制混杂因素的方法是必要的,而这正是多重回归分析的主题。

犯罪率的影响因素分析——以美国北卡莱罗纳州的县为例

犯罪率的影响因素分析——以美国北卡莱罗纳州的县为例

犯罪率的影响因素分析——以美国北卡莱罗纳州的县为例一、引言一个地区的犯罪率受多种社会、政治和经济因素等影响,本文参考伍德里奇《计量经济学导论现代观点》一书,采用美国背卡莱罗纳州的县犯罪率为研究对象,分析逮捕概率、判罪概率、人均警察数和人口密度对犯罪率的影响。

二、模型设计crmrte=本文分别用固定效应回归和随机效应回归来进行分析,然后采用hausman 检验方法进行判断,若检验结果拒绝解释非观测效应与解释变量无关的假设,则选择固定效应模型,否则选择随机效应模型。

其中,αi表示年度固定效应(非观测效应),可能包含地理区位、对犯罪的态度、历史记录和报告惯例等各种因素。

crmrte表示犯罪率,我们还引进全套年度虚拟变量以控制犯罪率在该州的变化趋势。

prbarr表示逮捕概率,prbconv 表示判罪概率、polpc表示人均警察数、density表示人口密度。

三、样本和数据本文的样本包括1981年和1987年的90个城市的面板数据,共得到630个观测值。

数据全部来自伍德里奇《计量经济学导论现代观点》一书。

本文所有数据的整理、计算和回归过程所使用的的软件为STATA 14。

四、实证结果与分析(一)固定效应回归分析从表1可以看出:prbarr(逮捕概率)的系数为负,表明逮捕概率减少一个百分点,则犯罪率增加0.00707个百分点,逮捕概率和犯罪率呈反相关。

并且逮捕概率和犯罪率在1%的水平上显著,这表明逮捕概率和犯罪率具有显著的反相关。

Prbconv(判罪概率)的系数为负,表明判罪概率减少一个百分点,则犯罪率增加0.000958个百分点,判罪概率和犯罪率呈反相关。

并且判罪概率和犯罪率在1%的水平上显著,这表明判罪概率和犯罪率具有显著的反相关。

Polpc(人均警察数)的系数为正,表明人均警察数增加一人,则犯罪率增加2.122个百分点,人均警察数和犯罪率呈正相关。

并且人均警察数和犯罪率在1%的水平上显著,这表明人均警察数和犯罪率具有显著的正相关。

伍德里奇《计量经济学导论》 第 版 笔记和课后习题详解 章

伍德里奇《计量经济学导论》 第 版 笔记和课后习题详解 章

使用普通最小二乘法,此时最小化的残差平方和为()211niii y x β=-∑利用一元微积分可以证明,1β必须满足一阶条件()110niiii x y x β=-=∑从而解出1β为:1121ni ii nii x yxβ===∑∑当且仅当0x =时,这两个估计值才是相同的。

2.2 课后习题详解一、习题1.在简单线性回归模型01y x u ββ=++中,假定()0E u ≠。

令()0E u α=,证明:这个模型总可以改写为另一种形式:斜率与原来相同,但截距和误差有所不同,并且新的误差期望值为零。

证明:在方程右边加上()0E u α=,则0010y x u αββα=+++-令新的误差项为0e u α=-,因此()0E e =。

新的截距项为00αβ+,斜率不变为1β。

2(Ⅰ)利用OLS 估计GPA 和ACT 的关系;也就是说,求出如下方程中的截距和斜率估计值01ˆˆGPA ACT ββ=+^评价这个关系的方向。

这里的截距有没有一个有用的解释?请说明。

如果ACT 分数提高5分,预期GPA 会提高多少?(Ⅱ)计算每次观测的拟合值和残差,并验证残差和(近似)为零。

(Ⅲ)当20ACT =时,GPA 的预测值为多少?(Ⅳ)对这8个学生来说,GPA 的变异中,有多少能由ACT 解释?试说明。

答:(Ⅰ)变量的均值为: 3.2125GPA =,25.875ACT =。

()()15.8125niii GPA GPA ACT ACT =--=∑根据公式2.19可得:1ˆ 5.8125/56.8750.1022β==。

根据公式2.17可知:0ˆ 3.21250.102225.8750.5681β=-⨯=。

因此0.56810.1022GPA ACT =+^。

此处截距没有一个很好的解释,因为对样本而言,ACT 并不接近0。

如果ACT 分数提高5分,预期GPA 会提高0.1022×5=0.511。

(Ⅱ)每次观测的拟合值和残差表如表2-3所示:根据表可知,残差和为-0.002,忽略固有的舍入误差,残差和近似为零。

计量经济学导论伍德里奇数据集

计量经济学导论伍德里奇数据集

数据集概述:计量经济学导论伍德里奇数据集是一个包含了多个经济指标的样本数据集,用于开展计量经济学研究和统计推断。

该数据集是经济计量学领域中常用的数据集之一,可用于分析各种经济现象之间的相互关系和影响。

本篇文章将介绍数据集的基本情况、样本选择的原因和意义,以及数据预处理和结果分析的方法。

数据集特点:计量经济学导论伍德里奇数据集包含了多个经济指标的时间序列数据,包括国内生产总值、失业率、消费支出、投资额等。

这些指标涵盖了宏观经济领域的多个方面,可以用于分析各种经济现象之间的相互关系和影响。

数据集的时间跨度较长,包含了多个年份的数据,为研究经济变化提供了丰富的样本。

此外,数据集还提供了不同年份的季节调整数据,方便了对经济指标进行更准确的统计分析。

样本选择原因和意义:本篇文章选择计量经济学导论伍德里奇数据集作为研究样本的原因和意义在于,该数据集包含了多个重要的宏观经济指标,可以用于分析宏观经济现象之间的相互关系和影响。

通过对该数据集进行深入分析和挖掘,可以更好地了解经济运行规律和趋势,为政策制定和预测提供更有价值的参考依据。

此外,该数据集还可以用于检验计量经济学模型的准确性和适用性,为经济学的理论研究和应用提供有力的支持。

数据预处理:在进行数据分析之前,需要对数据进行预处理,包括缺失值填充、异常值处理和数据清洗等。

在本篇文章中,我们采用了以下方法进行数据预处理:1. 缺失值填充:对于缺失的数据,我们采用了均值插补的方法进行了填充。

2. 异常值处理:通过对数据进行箱型图观察,剔除了明显异常的数据点。

3. 数据清洗:对不符合要求的数据进行了清洗,如去除无效样本和不符合研究目的的数据。

结果分析:通过对预处理后的数据进行统计分析,我们发现了一些有趣的结论:1. 国内生产总值和失业率之间存在负相关关系,即当失业率上升时,国内生产总值也相应下降。

这可能是由于失业率上升时,消费者和投资者的信心受到影响,导致需求下降,进而影响到经济增长。

伍德里奇计量经济学导论ppt课件

伍德里奇计量经济学导论ppt课件
l 确定性总体回归函数
E(Y|Xi) = 0 + 1 Xi,
ppt课件.
21
Ø 随机误差项u的意义:
l 反映被忽略掉的因素对被解释变量的影响。 或者理论不够完善,或者数据缺失;或者影响轻微。
l 模型设定误差 l 度量误差 l 人类行为内在的随机性
ppt课件.
22
Ø 随机误差项主要包括下列因素:
在解释变量中被忽略的因素的影响; 变量观测值的观测误差的影响; 残缺数据; 模型关系的设定误差的影响; 其他随机因素的影响。
l 对于某一个家庭,如何描述可支配收入和消费支出的关系?
Yi=E(Y|Xi) + ui =0 + 1 Xi + ui
某个家庭的消费支出分为两部分:一是E(Y|Xi)=0 + 1 Xi ,称为系统成
分或确定性成分;二是ui,称为非系统或随机性成分。
ppt课件.
20
l 随机性总体回归函数
Yi=0 + 1 Xi + ui
260
— 152
— — 180 185 — 3 517
ppt课件.
26
样本回归线
样本均值连线
ppt课件.
27
Ø 总体回归模型和样本回归模型的比较
ppt课件.
28
注意:分清几个关系式和表示符号
E(Y|Xi) = 0 + 1 Xi (1)总体(真实的)回归直线: Yi
E(Y|Xi)01Xi
Y2
Y1
或: Yi ˆ0ˆ1Xi ei
其中: Yˆi 为Yi的估计值(拟合值); ˆ0 , ˆ1 为 0 , 1 的估计值;
110 115 120 130 135 140
- 6 750

伍德里奇《计量经济学导论》(第6版)复习笔记和课后习题详解-第一篇(第4~6章)【圣才出品】

伍德里奇《计量经济学导论》(第6版)复习笔记和课后习题详解-第一篇(第4~6章)【圣才出品】

型中未知参数的个数(即 k 个斜率参数和截距β0)。


t 统计量服从 t 分布而不是标准正态分布的原因是 se(βj)中的常数σ已经被随机变量σ
所取代。t


统计量的计算公式可写成标准正态随机变量(βj-βj)/sd(βj)与
σ∧ 2/σ2
的平方
根之比,可以证明二者是独立的;而且(n-k-1)σ∧ 2/σ2~χ2n-k-1。于是根据 t 随机变量
有一个联合正态分布。
考点二:单个总体参数检验:t 检验 ★★★★
1.总体回归函数 总体模型的形式为:y=β0+β1x1+…+βkxk+u。假定该模型满足 CLM 假定,βj 的 OLS 量是无偏的。
2.定理 4.2:标准化估计量的 t 分布


在 CLM 假定 MLR.1~MLR.6 下,(βj-βj)/se(βj)~tn-k-1,其中,k+1 是总体模
定理 4.1(正态抽样分布):在 CLM 假定 MLR.1~MLR.6 下,以自变量的样本值为条




件,有:βj~Normal(βj,Var(βj))。将正态分布函数标准化可得:(βj-βj)/sd(βj)~
Normal(0,1)。
1 / 89




注:β1,β2,…,βk 的任何线性组合也都符合正态分布,且 βj 的任何一个子集也都具
1.对排除性约束的检验 对排除性约束的检验是指检验一组自变量是否对因变量都没有影响,该检验不适用于不 同因变量的检验。F 统计量通常对检验一组变量的排除有用处,特别是当变量高度相关的时 候。 含有 k 个自变量的不受约束模型为:y=β0+β1x1+…+βkxk+u,其中参数有 k+1 个。 假设有 q 个排除性约束要检验,且这 q 个变量是自变量中的最后 q 个:xk-q+1,…,xk,则 受约束模型为:y=β0+β1x1+…+βk-qxk-q+u。 虚拟假设为 H0:βk-q+1=0,…,βk=0,对立假设是列出的参数至少有一个不为零。 定义 F 统计量为 F=[(SSRr-SSRur)/q]/[SSRur/(n-k-1)]。其中,SSRr 是受约束模型 的残差平方和,SSRur 是不受约束模型的残差平方和。由于 SSRr 不可能比 SSRur 小,所以 F 统计量总是非负的。q=dfr-dfur,即 q 是受约束模型与不受约束模型的自由度之差,也是 约束条件的个数。n-k-1=分母自由度=dfur,且 F 的分母恰好就是不受约束模型中σ2= Var(u)的一个无偏估计量。 假设 CLM 假定成立,在 H0 下 F 统计量服从自由度为(q,n-k-1)的 F 分布,即 F~ Fq,n-k-1。如果 F 值大于显著性水平下的临界值,则拒绝 H0 而支持 H1。当拒绝 H0 时,就 说,xk-q+1,…,xk 在适当的显著性水平上是联合统计显著的(或联合显著)。

伍德里奇计量经济学课件 (1)

伍德里奇计量经济学课件 (1)

Ragnar Frisch Norway
Jan Tinbergen the Etherlands
The Bank of Sweden Prize in Economic Sciences in Memory of Alfred Nobel 1973 "for the development of the input-output method and for its application to important economic problems"
n n
近20位担任过世界计量经济学会会长 30余位左右在获奖成果中应用了计量经济学
17
计量经济学
若贝尔经济学奖获奖名单 2010彼得·戴蒙德和戴尔·莫滕森 、克里斯托 弗·皮萨里季斯 失业 2009奥利弗·威廉森、艾利诺-奥斯特罗姆 公 共资源管理 2008 保罗-克鲁格曼 国际贸易模式 2007赫维奇 马斯金 迈尔森 机制设计 2006埃德蒙·费尔普斯 通货膨胀与失业 2005罗伯特·奥曼和托马斯·谢林 博弈论
n
8
计算机及软件
Eviews n Stata n S-plus n SAS n ☆R
n
9
教材及参考书
★Introductory Econometrics》(4E),Jeffrey M. Woodldridge, 2009(英文改编版《计量经济学导 论》,已经由中国人民大学出版社2010年6月出版 《Basic Econometrics》(fourth edition),Damodar N. Gujarrati,2003 《金融计量经济学》, Chris Brooks,西南财经大学 出版社,2005 《经济计量分析》,William H.Greene,中国人民大 学出版社 2007年 《计量经济学(第3版)》,李子奈、潘文卿,高等 教育出版社,2010年

伍德里奇《计量经济学导论--现代观点》

伍德里奇《计量经济学导论--现代观点》

X
22
3
1.
15
p
0.2 0.1 0.1 0.1 0.1 0.3 0.1
( X ,Y ) (1,1) (1,0) (1,1) (2,1) (2,1) (3,0) (3,1)
( X Y )2 4 1 0 9 1 9 4
得 E[(X Y )2] 4 0.3 1 0.2 0 0.1 9 0.4 5.
( X ,Y ) (1,1) (1,0) (1,1) (2,1) (2,1) (3,0) (3,1) Y X 1 0 1 1 2 1 2 0 1 3
于是
E Y 1 0.2 0 0.1 1 0.1 1 0.1 1 0.1 0 0.3 1 0.1
(2) 级数的绝对收敛性保证了级数的和不 随级数各项次序的改变而改变 , 之所以这样要 求是因为数学期望是反映随机变量X 取可能值 的平均值,它不应随可能值的排列次序而改变.
(3) 随机变量的数学期望与一般变量的算 术平均值不同.
例1 谁的技术比较好? 甲,乙两个射手,他们的射击技术分别为
甲射手
击中环数 8 9 10 概率 0.3 0.1 0.6
第四章
随机变量的数字特征
第一节 数学期望
一、随机变量的数学期望 二、随机变量函数的数学期望 三、数学期望的性质 四、小结
一、随机变量的数学期望
1. 离散型随机变量的数学期望
定义4.1设离散型随机变量 X 的分布律为
P{ X xk } pk , k 1,2,.

若级数
xk pk 绝对收敛,则称级数
故甲射手的技术比较好.
例2 如何确定投资决策方向?
某人有10万元现金, 想投资

计量经济学导论伍德里奇数据集

计量经济学导论伍德里奇数据集

计量经济学导论伍德里奇数据集全文共四篇示例,供读者参考第一篇示例:计量经济学导论伍德里奇数据集是一个广泛使用的经济学数据集,它收集了来自不同国家和地区的大量经济数据,包括国内生产总值(GDP)、人口、失业率、通货膨胀率等指标。

这些数据被广泛用于经济学研究和实证分析,帮助经济学家们了解和预测经济现象。

伍德里奇数据集由经济学家Robert S. Pindyck和Daniel L. Rubinfeld于1991年编撰而成,现已成为许多大学和研究机构的经济学教学和研究工具。

该数据集包含了大量的时间序列和横截面数据,涵盖了从1960年至今的多个国家和地区。

在伍德里奇数据集中,经济指标按照国家和地区进行分类,每个国家或地区都有各种经济指标的时间序列数据。

这些数据不仅涵盖了宏观经济指标,如GDP、人口、通货膨胀率等,还包括了一些特定领域的数据,如能源消耗、就业情况、教育水平等。

研究人员可以使用伍德里奇数据集进行各种经济学研究,例如分析不同国家和地区的经济增长趋势、比较不同国家之间的经济表现、评估各种经济政策的效果等。

通过对数据集的分析,经济学家们可以更好地理解和解释经济现象,为政策制定和经济预测提供依据。

除了为经济学研究提供数据支持外,伍德里奇数据集还可以帮助经济学教学。

许多经济学课程都会使用这个数据集进行案例分析和实证研究,让学生们更直观地理解经济理论,并将理论应用到实际问题中去。

通过实际数据的分析,学生们可以培养独立思考和解决问题的能力,提高他们的经济学研究水平。

要正确使用伍德里奇数据集进行经济学研究和教学,研究人员和教师们需要对数据集的结构和特点有深入的了解。

他们需要了解数据集中各个变量的定义和计量单位,以确保数据分析的准确性。

他们需要熟悉数据集的时间跨度和覆盖范围,以便选择合适的时间段和国家样本进行研究。

他们还需要掌握数据处理和分析的方法,如时间序列分析、横截面分析等,以确保研究结论的可靠性和科学性。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

T his appendix derives various results for ordinary least squares estimation of themultiple linear regression model using matrix notation and matrix algebra (see Appendix D for a summary). The material presented here is much more ad-vanced than that in the text.E.1THE MODEL AND ORDINARY LEAST SQUARES ESTIMATIONThroughout this appendix,we use the t subscript to index observations and an n to denote the sample size. It is useful to write the multiple linear regression model with k parameters as follows:y t ϭ␤1ϩ␤2x t 2ϩ␤3x t 3ϩ… ϩ␤k x tk ϩu t ,t ϭ 1,2,…,n ,(E.1)where y t is the dependent variable for observation t ,and x tj ,j ϭ 2,3,…,k ,are the inde-pendent variables. Notice how our labeling convention here differs from the text:we call the intercept ␤1and let ␤2,…,␤k denote the slope parameters. This relabeling is not important,but it simplifies the matrix approach to multiple regression.For each t ,define a 1 ϫk vector,x t ϭ(1,x t 2,…,x tk ),and let ␤ϭ(␤1,␤2,…,␤k )Јbe the k ϫ1 vector of all parameters. Then,we can write (E.1) asy t ϭx t ␤ϩu t ,t ϭ 1,2,…,n .(E.2)[Some authors prefer to define x t as a column vector,in which case,x t is replaced with x t Јin (E.2). Mathematically,it makes more sense to define it as a row vector.] We can write (E.2) in full matrix notation by appropriately defining data vectors and matrices. Let y denote the n ϫ1 vector of observations on y :the t th element of y is y t .Let X be the n ϫk vector of observations on the explanatory variables. In other words,the t th row of X consists of the vector x t . Equivalently,the (t ,j )th element of X is simply x tj :755A p p e n d i x EThe Linear Regression Model inMatrix Formn X ϫ k ϵϭ .Finally,let u be the n ϫ 1 vector of unobservable disturbances. Then,we can write (E.2)for all n observations in matrix notation :y ϭX ␤ϩu .(E.3)Remember,because X is n ϫ k and ␤is k ϫ 1,X ␤is n ϫ 1.Estimation of ␤proceeds by minimizing the sum of squared residuals,as in Section3.2. Define the sum of squared residuals function for any possible k ϫ 1 parameter vec-tor b asSSR(b ) ϵ͚nt ϭ1(y t Ϫx t b )2.The k ϫ 1 vector of ordinary least squares estimates,␤ˆϭ(␤ˆ1,␤ˆ2,…,␤ˆk )؅,minimizes SSR(b ) over all possible k ϫ 1 vectors b . This is a problem in multivariable calculus.For ␤ˆto minimize the sum of squared residuals,it must solve the first order conditionѨSSR(␤ˆ)/Ѩb ϵ0.(E.4)Using the fact that the derivative of (y t Ϫx t b )2with respect to b is the 1ϫ k vector Ϫ2(y t Ϫx t b )x t ,(E.4) is equivalent to͚nt ϭ1xt Ј(y t Ϫx t ␤ˆ) ϵ0.(E.5)(We have divided by Ϫ2 and taken the transpose.) We can write this first order condi-tion as͚nt ϭ1(y t Ϫ␤ˆ1Ϫ␤ˆ2x t 2Ϫ… Ϫ␤ˆk x tk ) ϭ0͚nt ϭ1x t 2(y t Ϫ␤ˆ1Ϫ␤ˆ2x t 2Ϫ… Ϫ␤ˆk x tk ) ϭ0...͚nt ϭ1x tk (y t Ϫ␤ˆ1Ϫ␤ˆ2x t 2Ϫ… Ϫ␤ˆk x tk ) ϭ0,which,apart from the different labeling convention,is identical to the first order condi-tions in equation (3.13). We want to write these in matrix form to make them more use-ful. Using the formula for partitioned multiplication in Appendix D,we see that (E.5)is equivalent to΅1x 12x 13...x 1k1x 22x 23...x 2k...1x n 2x n 3...x nk ΄΅x 1x 2...x n ΄Appendix E The Linear Regression Model in Matrix Form756Appendix E The Linear Regression Model in Matrix FormXЈ(yϪX␤ˆ) ϭ0(E.6) or(XЈX)␤ˆϭXЈy.(E.7)It can be shown that (E.7) always has at least one solution. Multiple solutions do not help us,as we are looking for a unique set of OLS estimates given our data set. Assuming that the kϫ k symmetric matrix XЈX is nonsingular,we can premultiply both sides of (E.7) by (XЈX)Ϫ1to solve for the OLS estimator ␤ˆ:␤ˆϭ(XЈX)Ϫ1XЈy.(E.8)This is the critical formula for matrix analysis of the multiple linear regression model. The assumption that XЈX is invertible is equivalent to the assumption that rank(X) ϭk, which means that the columns of X must be linearly independent. This is the matrix ver-sion of MLR.4 in Chapter 3.Before we continue,(E.8) warrants a word of warning. It is tempting to simplify the formula for ␤ˆas follows:␤ˆϭ(XЈX)Ϫ1XЈyϭXϪ1(XЈ)Ϫ1XЈyϭXϪ1y.The flaw in this reasoning is that X is usually not a square matrix,and so it cannot be inverted. In other words,we cannot write (XЈX)Ϫ1ϭXϪ1(XЈ)Ϫ1unless nϭk,a case that virtually never arises in practice.The nϫ 1 vectors of OLS fitted values and residuals are given byyˆϭX␤ˆ,uˆϭyϪyˆϭyϪX␤ˆ.From (E.6) and the definition of uˆ,we can see that the first order condition for ␤ˆis the same asXЈuˆϭ0.(E.9) Because the first column of X consists entirely of ones,(E.9) implies that the OLS residuals always sum to zero when an intercept is included in the equation and that the sample covariance between each independent variable and the OLS residuals is zero. (We discussed both of these properties in Chapter 3.)The sum of squared residuals can be written asSSR ϭ͚n tϭ1uˆt2ϭuˆЈuˆϭ(yϪX␤ˆ)Ј(yϪX␤ˆ).(E.10)All of the algebraic properties from Chapter 3 can be derived using matrix algebra. For example,we can show that the total sum of squares is equal to the explained sum of squares plus the sum of squared residuals [see (3.27)]. The use of matrices does not pro-vide a simpler proof than summation notation,so we do not provide another derivation.757The matrix approach to multiple regression can be used as the basis for a geometri-cal interpretation of regression. This involves mathematical concepts that are even more advanced than those we covered in Appendix D. [See Goldberger (1991) or Greene (1997).]E.2FINITE SAMPLE PROPERTIES OF OLSDeriving the expected value and variance of the OLS estimator ␤ˆis facilitated by matrix algebra,but we must show some care in stating the assumptions.A S S U M P T I O N E.1(L I N E A R I N P A R A M E T E R S)The model can be written as in (E.3), where y is an observed nϫ 1 vector, X is an nϫ k observed matrix, and u is an nϫ 1 vector of unobserved errors or disturbances.A S S U M P T I O N E.2(Z E R O C O N D I T I O N A L M E A N)Conditional on the entire matrix X, each error ut has zero mean: E(ut͉X) ϭ0, tϭ1,2,…,n.In vector form,E(u͉X) ϭ0.(E.11) This assumption is implied by MLR.3 under the random sampling assumption,MLR.2.In time series applications,Assumption E.2 imposes strict exogeneity on the explana-tory variables,something discussed at length in Chapter 10. This rules out explanatory variables whose future values are correlated with ut; in particular,it eliminates laggeddependent variables. Under Assumption E.2,we can condition on the xtjwhen we com-pute the expected value of ␤ˆ.A S S U M P T I O N E.3(N O P E R F E C T C O L L I N E A R I T Y) The matrix X has rank k.This is a careful statement of the assumption that rules out linear dependencies among the explanatory variables. Under Assumption E.3,XЈX is nonsingular,and so ␤ˆis unique and can be written as in (E.8).T H E O R E M E.1(U N B I A S E D N E S S O F O L S)Under Assumptions E.1, E.2, and E.3, the OLS estimator ␤ˆis unbiased for ␤.P R O O F:Use Assumptions E.1 and E.3 and simple algebra to write␤ˆϭ(XЈX)Ϫ1XЈyϭ(XЈX)Ϫ1XЈ(X␤ϩu)ϭ(XЈX)Ϫ1(XЈX)␤ϩ(XЈX)Ϫ1XЈuϭ␤ϩ(XЈX)Ϫ1XЈu,(E.12)where we use the fact that (XЈX)Ϫ1(XЈX) ϭIk . Taking the expectation conditional on X givesAppendix E The Linear Regression Model in Matrix Form 758E(␤ˆ͉X)ϭ␤ϩ(XЈX)Ϫ1XЈE(u͉X)ϭ␤ϩ(XЈX)Ϫ1XЈ0ϭ␤,because E(u͉X) ϭ0under Assumption E.2. This argument clearly does not depend on the value of ␤, so we have shown that ␤ˆis unbiased.To obtain the simplest form of the variance-covariance matrix of ␤ˆ,we impose the assumptions of homoskedasticity and no serial correlation.A S S U M P T I O N E.4(H O M O S K E D A S T I C I T Y A N DN O S E R I A L C O R R E L A T I O N)(i) Var(ut͉X) ϭ␴2, t ϭ 1,2,…,n. (ii) Cov(u t,u s͉X) ϭ0, for all t s. In matrix form, we canwrite these two assumptions asVar(u͉X) ϭ␴2I n,(E.13)where Inis the nϫ n identity matrix.Part (i) of Assumption E.4 is the homoskedasticity assumption:the variance of utcan-not depend on any element of X,and the variance must be constant across observations, t. Part (ii) is the no serial correlation assumption:the errors cannot be correlated across observations. Under random sampling,and in any other cross-sectional sampling schemes with independent observations,part (ii) of Assumption E.4 automatically holds. For time series applications,part (ii) rules out correlation in the errors over time (both conditional on X and unconditionally).Because of (E.13),we often say that u has scalar variance-covariance matrix when Assumption E.4 holds. We can now derive the variance-covariance matrix of the OLS estimator.T H E O R E M E.2(V A R I A N C E-C O V A R I A N C EM A T R I X O F T H E O L S E S T I M A T O R)Under Assumptions E.1 through E.4,Var(␤ˆ͉X) ϭ␴2(XЈX)Ϫ1.(E.14)P R O O F:From the last formula in equation (E.12), we haveVar(␤ˆ͉X) ϭVar[(XЈX)Ϫ1XЈu͉X] ϭ(XЈX)Ϫ1XЈ[Var(u͉X)]X(XЈX)Ϫ1.Now, we use Assumption E.4 to getVar(␤ˆ͉X)ϭ(XЈX)Ϫ1XЈ(␴2I n)X(XЈX)Ϫ1ϭ␴2(XЈX)Ϫ1XЈX(XЈX)Ϫ1ϭ␴2(XЈX)Ϫ1.Appendix E The Linear Regression Model in Matrix Form759Formula (E.14) means that the variance of ␤ˆj (conditional on X ) is obtained by multi-plying ␴2by the j th diagonal element of (X ЈX )Ϫ1. For the slope coefficients,we gave an interpretable formula in equation (3.51). Equation (E.14) also tells us how to obtain the covariance between any two OLS estimates:multiply ␴2by the appropriate off diago-nal element of (X ЈX )Ϫ1. In Chapter 4,we showed how to avoid explicitly finding covariances for obtaining confidence intervals and hypotheses tests by appropriately rewriting the model.The Gauss-Markov Theorem,in its full generality,can be proven.T H E O R E M E .3 (G A U S S -M A R K O V T H E O R E M )Under Assumptions E.1 through E.4, ␤ˆis the best linear unbiased estimator.P R O O F :Any other linear estimator of ␤can be written as␤˜ ϭA Јy ,(E.15)where A is an n ϫ k matrix. In order for ␤˜to be unbiased conditional on X , A can consist of nonrandom numbers and functions of X . (For example, A cannot be a function of y .) To see what further restrictions on A are needed, write␤˜ϭA Ј(X ␤ϩu ) ϭ(A ЈX )␤ϩA Јu .(E.16)Then,E(␤˜͉X )ϭA ЈX ␤ϩE(A Јu ͉X )ϭA ЈX ␤ϩA ЈE(u ͉X ) since A is a function of XϭA ЈX ␤since E(u ͉X ) ϭ0.For ␤˜to be an unbiased estimator of ␤, it must be true that E(␤˜͉X ) ϭ␤for all k ϫ 1 vec-tors ␤, that is,A ЈX ␤ϭ␤for all k ϫ 1 vectors ␤.(E.17)Because A ЈX is a k ϫ k matrix, (E.17) holds if and only if A ЈX ϭI k . Equations (E.15) and (E.17) characterize the class of linear, unbiased estimators for ␤.Next, from (E.16), we haveVar(␤˜͉X ) ϭA Ј[Var(u ͉X )]A ϭ␴2A ЈA ,by Assumption E.4. Therefore,Var(␤˜͉X ) ϪVar(␤ˆ͉X )ϭ␴2[A ЈA Ϫ(X ЈX )Ϫ1]ϭ␴2[A ЈA ϪA ЈX (X ЈX )Ϫ1X ЈA ] because A ЈX ϭI kϭ␴2A Ј[I n ϪX (X ЈX )Ϫ1X Ј]Aϵ␴2A ЈMA ,where M ϵI n ϪX (X ЈX )Ϫ1X Ј. Because M is symmetric and idempotent, A ЈMA is positive semi-definite for any n ϫ k matrix A . This establishes that the OLS estimator ␤ˆis BLUE. How Appendix E The Linear Regression Model in Matrix Form 760Appendix E The Linear Regression Model in Matrix Formis this significant? Let c be any kϫ 1 vector and consider the linear combination cЈ␤ϭc1␤1ϩc2␤2ϩ… ϩc k␤k, which is a scalar. The unbiased estimators of cЈ␤are cЈ␤ˆand cЈ␤˜. ButVar(c␤˜͉X) ϪVar(cЈ␤ˆ͉X) ϭcЈ[Var(␤˜͉X) ϪVar(␤ˆ͉X)]cՆ0,because [Var(␤˜͉X) ϪVar(␤ˆ͉X)] is p.s.d. Therefore, when it is used for estimating any linear combination of ␤, OLS yields the smallest variance. In particular, Var(␤ˆj͉X) ՅVar(␤˜j͉X) for any other linear, unbiased estimator of ␤j.The unbiased estimator of the error variance ␴2can be written as␴ˆ2ϭuˆЈuˆ/(n Ϫk),where we have labeled the explanatory variables so that there are k total parameters, including the intercept.T H E O R E M E.4(U N B I A S E D N E S S O F␴ˆ2)Under Assumptions E.1 through E.4, ␴ˆ2is unbiased for ␴2: E(␴ˆ2͉X) ϭ␴2for all ␴2Ͼ0. P R O O F:Write uˆϭyϪX␤ˆϭyϪX(XЈX)Ϫ1XЈyϭM yϭM u, where MϭI nϪX(XЈX)Ϫ1XЈ,and the last equality follows because MXϭ0. Because M is symmetric and idempotent,uˆЈuˆϭuЈMЈM uϭuЈM u.Because uЈM u is a scalar, it equals its trace. Therefore,ϭE(uЈM u͉X)ϭE[tr(uЈM u)͉X] ϭE[tr(M uuЈ)͉X]ϭtr[E(M uuЈ|X)] ϭtr[M E(uuЈ|X)]ϭtr(M␴2I n) ϭ␴2tr(M) ϭ␴2(nϪ k).The last equality follows from tr(M) ϭtr(I) Ϫtr[X(XЈX)Ϫ1XЈ] ϭnϪtr[(XЈX)Ϫ1XЈX] ϭnϪn) ϭnϪk. Therefore,tr(IkE(␴ˆ2͉X) ϭE(uЈM u͉X)/(nϪ k) ϭ␴2.E.3STATISTICAL INFERENCEWhen we add the final classical linear model assumption,␤ˆhas a multivariate normal distribution,which leads to the t and F distributions for the standard test statistics cov-ered in Chapter 4.A S S U M P T I O N E.5(N O R M A L I T Y O F E R R O R S)are independent and identically distributed as Normal(0,␴2). Conditional on X, the utEquivalently, u given X is distributed as multivariate normal with mean zero and variance-covariance matrix ␴2I n: u~ Normal(0,␴2I n).761Appendix E The Linear Regression Model in Matrix Form Under Assumption E.5,each uis independent of the explanatory variables for all t. Inta time series setting,this is essentially the strict exogeneity assumption.T H E O R E M E.5(N O R M A L I T Y O F␤ˆ)Under the classical linear model Assumptions E.1 through E.5, ␤ˆconditional on X is dis-tributed as multivariate normal with mean ␤and variance-covariance matrix ␴2(XЈX)Ϫ1.Theorem E.5 is the basis for statistical inference involving ␤. In fact,along with the properties of the chi-square,t,and F distributions that we summarized in Appendix D, we can use Theorem E.5 to establish that t statistics have a t distribution under Assumptions E.1 through E.5 (under the null hypothesis) and likewise for F statistics. We illustrate with a proof for the t statistics.T H E O R E M E.6Under Assumptions E.1 through E.5,(␤ˆjϪ␤j)/se(␤ˆj) ~ t nϪk,j ϭ 1,2,…,k.P R O O F:The proof requires several steps; the following statements are initially conditional on X. First, by Theorem E.5, (␤ˆjϪ␤j)/sd(␤ˆ) ~ Normal(0,1), where sd(␤ˆj) ϭ␴͙ෆc jj, and c jj is the j th diagonal element of (XЈX)Ϫ1. Next, under Assumptions E.1 through E.5, conditional on X,(n Ϫ k)␴ˆ2/␴2~ ␹2nϪk.(E.18)This follows because (nϪk)␴ˆ2/␴2ϭ(u/␴)ЈM(u/␴), where M is the nϫn symmetric, idem-potent matrix defined in Theorem E.4. But u/␴~ Normal(0,I n) by Assumption E.5. It follows from Property 1 for the chi-square distribution in Appendix D that (u/␴)ЈM(u/␴) ~ ␹2nϪk (because M has rank nϪk).We also need to show that ␤ˆand ␴ˆ2are independent. But ␤ˆϭ␤ϩ(XЈX)Ϫ1XЈu, and ␴ˆ2ϭuЈM u/(nϪk). Now, [(XЈX)Ϫ1XЈ]Mϭ0because XЈMϭ0. It follows, from Property 5 of the multivariate normal distribution in Appendix D, that ␤ˆand M u are independent. Since ␴ˆ2is a function of M u, ␤ˆand ␴ˆ2are also independent.Finally, we can write(␤ˆjϪ␤j)/se(␤ˆj) ϭ[(␤ˆjϪ␤j)/sd(␤ˆj)]/(␴ˆ2/␴2)1/2,which is the ratio of a standard normal random variable and the square root of a ␹2nϪk/(nϪk) random variable. We just showed that these are independent, and so, by def-inition of a t random variable, (␤ˆjϪ␤j)/se(␤ˆj) has the t nϪk distribution. Because this distri-bution does not depend on X, it is the unconditional distribution of (␤ˆjϪ␤j)/se(␤ˆj) as well.From this theorem,we can plug in any hypothesized value for ␤j and use the t statistic for testing hypotheses,as usual.Under Assumptions E.1 through E.5,we can compute what is known as the Cramer-Rao lower bound for the variance-covariance matrix of unbiased estimators of ␤(again762conditional on X ) [see Greene (1997,Chapter 4)]. This can be shown to be ␴2(X ЈX )Ϫ1,which is exactly the variance-covariance matrix of the OLS estimator. This implies that ␤ˆis the minimum variance unbiased estimator of ␤(conditional on X ):Var(␤˜͉X ) ϪVar(␤ˆ͉X ) is positive semi-definite for any other unbiased estimator ␤˜; we no longer have to restrict our attention to estimators linear in y .It is easy to show that the OLS estimator is in fact the maximum likelihood estima-tor of ␤under Assumption E.5. For each t ,the distribution of y t given X is Normal(x t ␤,␴2). Because the y t are independent conditional on X ,the likelihood func-tion for the sample is obtained from the product of the densities:͟nt ϭ1(2␲␴2)Ϫ1/2exp[Ϫ(y t Ϫx t ␤)2/(2␴2)].Maximizing this function with respect to ␤and ␴2is the same as maximizing its nat-ural logarithm:͚nt ϭ1[Ϫ(1/2)log(2␲␴2) Ϫ(yt Ϫx t ␤)2/(2␴2)].For obtaining ␤ˆ,this is the same as minimizing͚nt ϭ1(y t Ϫx t ␤)2—the division by 2␴2does not affect the optimization—which is just the problem that OLS solves. The esti-mator of ␴2that we have used,SSR/(n Ϫk ),turns out not to be the MLE of ␴2; the MLE is SSR/n ,which is a biased estimator. Because the unbiased estimator of ␴2results in t and F statistics with exact t and F distributions under the null,it is always used instead of the MLE.SUMMARYThis appendix has provided a brief discussion of the linear regression model using matrix notation. This material is included for more advanced classes that use matrix algebra,but it is not needed to read the text. In effect,this appendix proves some of the results that we either stated without proof,proved only in special cases,or proved through a more cumbersome method of proof. Other topics—such as asymptotic prop-erties,instrumental variables estimation,and panel data models—can be given concise treatments using matrices. Advanced texts in econometrics,including Davidson and MacKinnon (1993),Greene (1997),and Wooldridge (1999),can be consulted for details.KEY TERMSAppendix E The Linear Regression Model in Matrix Form 763First Order Condition Matrix Notation Minimum Variance Unbiased Scalar Variance-Covariance MatrixVariance-Covariance Matrix of the OLS EstimatorPROBLEMSE.1Let x t be the 1ϫ k vector of explanatory variables for observation t . Show that the OLS estimator ␤ˆcan be written as␤ˆϭΘ͚n tϭ1xt Јx t ΙϪ1Θ͚nt ϭ1xt Јy t Ι.Dividing each summation by n shows that ␤ˆis a function of sample averages.E.2Let ␤ˆbe the k ϫ 1 vector of OLS estimates.(i)Show that for any k ϫ 1 vector b ,we can write the sum of squaredresiduals asSSR(b ) ϭu ˆЈu ˆϩ(␤ˆϪb )ЈX ЈX (␤ˆϪb ).[Hint :Write (y Ϫ X b )Ј(y ϪX b ) ϭ[u ˆϩX (␤ˆϪb )]Ј[u ˆϩX (␤ˆϪb )]and use the fact that X Јu ˆϭ0.](ii)Explain how the expression for SSR(b ) in part (i) proves that ␤ˆuniquely minimizes SSR(b ) over all possible values of b ,assuming Xhas rank k .E.3Let ␤ˆbe the OLS estimate from the regression of y on X . Let A be a k ϫ k non-singular matrix and define z t ϵx t A ,t ϭ 1,…,n . Therefore,z t is 1ϫ k and is a non-singular linear combination of x t . Let Z be the n ϫ k matrix with rows z t . Let ␤˜denote the OLS estimate from a regression ofy on Z .(i)Show that ␤˜ϭA Ϫ1␤ˆ.(ii)Let y ˆt be the fitted values from the original regression and let y ˜t be thefitted values from regressing y on Z . Show that y ˜t ϭy ˆt ,for all t ϭ1,2,…,n . How do the residuals from the two regressions compare?(iii)Show that the estimated variance matrix for ␤˜is ␴ˆ2A Ϫ1(X ЈX )Ϫ1A Ϫ1؅,where ␴ˆ2is the usual variance estimate from regressing y on X .(iv)Let the ␤ˆj be the OLS estimates from regressing y t on 1,x t 2,…,x tk ,andlet the ␤˜j be the OLS estimates from the regression of yt on 1,a 2x t 2,…,a k x tk ,where a j 0,j ϭ 2,…,k . Use the results from part (i)to find the relationship between the ␤˜j and the ␤ˆj .(v)Assuming the setup of part (iv),use part (iii) to show that se(␤˜j ) ϭse(␤ˆj )/͉a j ͉.(vi)Assuming the setup of part (iv),show that the absolute values of the tstatistics for ␤˜j and ␤ˆj are identical.Appendix E The Linear Regression Model in Matrix Form 764。

相关文档
最新文档