第四章--经典线性回归模型(高级计量经济学-清华大学-潘文清)PPT课件

合集下载

线性回归分析PPT

线性回归分析PPT

分析宏观经济因素对微观 经济主体的影响,为企业 决策提供依据。
评估政策变化对经济的影 响,为政策制定提供参考。
市场分析
STEP 02
STEP 03
评估市场趋势和竞争态势, 为企业战略规划提供支持。
STEP 01
分析消费者行为和偏好, 优化产品设计和营销策略。
预测市场需求和销售量, 制定合理的生产和销售计 划。
参数解释
(beta_0) 是截距项,表示当所有自变量值为0时,因变量的值;(beta_1, beta_2, ..., beta_p) 是斜率项,表示自 变量变化一个单位时,因变量变化的单位数量。
线性回归分析的假设
线性关系
自变量和因变量之间存在线性关系, 即它们之间的关系可以用一条直线近 似表示。
01
02
无多重共线性
自变量之间不存在多重共线性,即它 们之间没有高度的相关性,每个自变 量对因变量的影响是独特的。
03
无异方差性
误差项的方差不随自变量的值变化。
无随机性
误差项是随机的,不包含系统的、可 预测的模式。
05
04
无自相关
误差项之间不存在自相关性,即一个 误差项与另一个误差项不相关。
Part
02
线性回归模型的建立
确定自变量与因变量
01
根据研究目的和数据特征,选择 与因变量相关的自变量,并确定 自变量和因变量的关系。
02
考虑自变量之间的多重共线性问 题,避免选择高度相关的自变量 。
散点图与趋势线
通过绘制散点图,观察自变量与因变 量之间的关系,了解数据的分布和趋 势。
根据散点图的分布情况,选择合适的 线性回归模型,如简单线性回归或多 元线性回归。

2024版计量经济学全册课件(完整)pptx

2024版计量经济学全册课件(完整)pptx

REPORTING
2024/1/28
23
EViews软件介绍及操作指南
EViews软件概述
EViews是一款功能强大的计量经济学 软件,提供数据处理、统计分析、模型
估计和预测等功能。
统计分析与检验
2024/1/28
详细讲解EViews中的统计分析工具, 包括描述性统计、假设检验、方差分
析等。
数据导入与预处理 介绍如何在EViews中导入数据,进行 数据清洗、转换和预处理等操作。
随着大数据时代的到来,机器学 习算法在数据挖掘、预测和分类 等方面展现出强大的能力,为计 量经济学提供了新的研究工具和 方法。
机器学习在计量经济 学中的应用领域
机器学习在计量经济学中的应用 领域广泛,如变量选择、模型选 择、非线性模型估计、高维数据 处理等。
机器学习在计量经济 学中的常用算法
机器学习在计量经济学中常用的 算法包括决策树、随机森林、支 持向量机(SVM)、神经网络等。 这些算法可以用于分类、回归、 聚类等任务,提高模型的预测精 度和解释力。
面板数据特点
同时具有时间序列和截面数据的特征,能够提供更多的信息、更多的变化、更少共 线性、更多的自由度和更高的估计效率。
2024/1/28
20
固定效应模型与随机效应模型
固定效应模型(Fixed Effects Model)
对于特定的个体而言,其截距项是固定的,不随时间变化而变化。
随机效应模型(Random Effects Mode…
经典线性回归模型
REPORTING
2024/1/28
7
一元线性回归模型
模型设定与参数估计
介绍一元线性回归模型的基本形式, 解释因变量、自变量和误差项的含义, 阐述最小二乘法(OLS)进行参数估 计的原理。

《线性回归模型》课件

《线性回归模型》课件
和治疗效果。
THANKS FOR WATCHING
感谢您的观看
线性回归模型的假设条件
独立观测值
假设数据点之间相互独立,不 存在相互依赖关系。
无异常值或离群点
假设数据集中没有异常值或离 群点,因为它们可能会对回归 线的拟合产生不利影响。
线性关系
假设因变量与自变量之间存在 线性关系,即它们之间的关系 可以用一条直线来描述。
无多重共线性
假设自变量之间不存在多重共 线性,即它们之间不存在高度 的线性相关性。
详细描述
线性回归模型可以通过分析历史股票数据,找到影响股票价格的关键因素,如市场情绪 、公司业绩、宏观经济指标等。通过建立线性回归方程,可以预测未来股票价格的走势
,为投资者提供参考。
销售预测
总结词
线性回归模型可以用于预测公司未来销售额 ,帮助企业制定合理的销售计划和市场策略 。
详细描述
通过收集历史销售数据,线性回归模型可以 分析影响销售额的关键因素,如市场需求、 产品价格、竞争对手情况等。通过建立线性 回归方程,可以预测未来一段时间内的销售 额,帮助企业制定合理的销售计划和市场策 略。
疾病风险预测
总结词
线性回归模型可以用于预测个体患某种疾病 的风险,帮助医生制定个性化的预防和治疗 方案。
详细描述
线性回归模型可以通过分析个体的基因、生 活习惯、家族病史等数据,找到与疾病风险 相关的因素。通过建立线性回归方程,可以 预测个体患某种疾病的风险,帮助医生制定 个性化的预防和治疗方案,提高疾病的预防
它使用最小二乘法或其它优化方法来 找到最佳拟合直线,使得因变量的预 测值与实际值之间的平方误差最小化 。
线性回归模型的应用场景
预测连续值
解释变量关系

线性回归PPT优秀课件

线性回归PPT优秀课件

1.正方形面积S与边长x之间的关系: 确定关系 正方形边长x 面积S x 2 2.一块农田的水稻产量与施肥量之间的关系: 气候情况 施肥量 不确定关系 水稻产量
浇水
除虫
与函数关系不同,相关关系是一种非确定
性关系.对具有相关关系的两个变量进行统
计分析的方法叫做回归分析. 在现实生活中存在着大量的相关关系.人 的身高与年龄、产品的成本与生产数量、商品
的销售额与广告费、家庭的支出与收入等都是
相关关系.
问题1:正方形的面积y与正方形的边长x之间
的函数关系是 y = x2 确定性关系 问题2:某水田水稻产量y与施肥量x之间是 否有一个确定性的关系? (不确定关系) 例如:在7块并排、形状大小相同的试验田上进行 施肥量对水稻产量影响的试验,得到如下所示的一 组数据:
为了书写方便,我们先引进一个符号 “ ”.这个符号表示若干个数相加.
n
例如,可将x1+x2+……+xn记作 x i
i1
,即
表示从x1加到xn的和.这样,n个数的平均
1 n 数的公式可以写作 x x i .上面的③ n i 1 n 2 式可以写作Q= ( yi bxi a) .
因此所求的回归直线方程是 yˆ =4.75x+257. 根据这个回归直线方程,可以求出相应于x 的估计值.例如当x=28(kg)时,y的估计
值是

= 4.75×28+257=390(kg).
例1.一个工厂在某年里每月产品的总成本y
(万元)与该月产量x(万件)之间有如下一组
数据:
(l)画出散点图; (2)求月总成本y与月产量x之间的回归直线方
i 1
这个式子展开后,是一个关于a,b的二 次多项式.利用配方法,可以导出使Q取得 最小值的a,b的求值公式(详细推导过程 请见本小节后的阅读材料.P43页).

清华大学 五道口金融学院 潘文卿 内生性工具变量与GMM估计

清华大学 五道口金融学院 潘文卿  内生性工具变量与GMM估计

第4章内生性、工具变量与GMM估计•外生性与常见的内生性问题•矩估计(MM)与工具变量法(IV)•线性模型的两阶段最小二乘估计(2SLS)•线性模型的广义矩估计(GMM)§4.1 外生性与常见的内生性问题一、外生性假设与内生性问题二、常见的内生性一、外生性假设与内生性问题线性回归模型中一个重要的假设是“严格外生性”: E(ε|X )=0严格外生性(strictly strictly exogeneity exogeneity exogeneity))的含义是:各期的解释变量X t 独立于所有期的随机扰动项εt 。

在严格外生性与球型假设假设下,OLS 估计量是BLUE 。

这两大假设也称为Y t 或εt 是独立同分布的(iid )。

对模型 Y t =β0+β1X t1+…+βk X tk +εt或 Y t = X t ’β+ εt 或 Y = X β +ε1、外生性与、外生性与OLS OLS OLS估计量的统计性质估计量的统计性质tΣ§4.2 矩估计与工具变量法一、矩估计二、矩估计中的工具变量法二、矩估计中的工具变量(IV)法假设有如下模型:Y t=X t1’β1+X t2β2+εt其中:X2为单一变量,X1为包括截距项的k维行向量β2、β1为对应的参数变量与参数向量。

如果模型设定正确,则有如下总体矩条件 E(X t1εt )=0, E(X t2εt)=0(1/n)ΣX t1(Y t-X t1’b1-X t2b2)=0(1/n)ΣX t2(Y t-X t1’b1-X t2b2) =0(1/n)ΣX t1(Y t -X t1’b 1-X t2b 2) =0(1/n)ΣX t2(Y t -X t1’b 1-X t2b 2) =0正规方程组如果缺少矩条件,如E(X t2εt )≠0,则上述正规方程组最后一个方程不存在,则无法求解。

这时,工具变量法就是寻找一工具变量Z2,满足E(Z t2εt)=0,E(Z t2X t2)≠0。

第四章--经典线性回归模型(高级计量经济学-清华大学-潘文清)PPT课件

第四章--经典线性回归模型(高级计量经济学-清华大学-潘文清)PPT课件
(2)由性质(1)与性质(2)还可得出,OLS估计量b依 均方收敛于,因此依概率收敛于,从而是的一 致估计量。
(3)由性质(1)与性质(2)知:
MSE(b|X)=E(b-)(b-)’|X)
=Var(b|X)+[bias(b|X)]2
0
(n)
.
17
四、估计2及Var(b) Estimation of 2 and Var(b)

Y=X+
其中,=(0, 1,…,k)’, =(1,2,…,n)’
注意: 这里的线性性指Y关于参数是线性的。
.
3
假设2(strict Exogeneity): E(i|X)=E(i|X1,X2,…Xn)=0, (i=1,2,…n)
注意:
(1) 由E(i|X)=0 易推出:E()=0, E(Xji)=0 或有: Cov(Xj, i)=0 (i, j=1,2,…n)
求解min SSR(+)。
有约束的(i)的残差平方和不会小于无约束的(ii)的 残差平方和:e+’e+e’e
.
25
为避免将无解释力的解释变量纳入到X中去,引入 调整的决定系数(adjusted coefficient of determination):
(4)决定系数仅是对样本回归线拟合样本数据的程 度给予描述。而CR模型并不要求R2要有多高,CR 模型关心的是对总体回归参数的估计与检验。
如果X是非随机的,则假设2变成
E(i|X)=E(i)=0
(4)假设2的向量形式:
E(|X)=0
.
5
注意:
(1)本假设排除了解释变量间的多重共线性 (multicollinearity)
(2) 本假设意味着X’X是非奇异的,或者说X必须 满秩于k+1。因此应有k+1≤n。

线性回归分析教程PPT课件

线性回归分析教程PPT课件

实例二:销售预测
总结词
线性回归分析在销售预测中,可以通过分析历史销售数据,建立销售量与影响因子之间的线性关系, 预测未来一段时间内的销售量。
详细描述
在销售预测中,线性回归分析可以用于分析历史销售数据,通过建立销售量与影响因子(如市场需求 、季节性、促销活动等)之间的线性关系,预测未来一段时间内的销售量。这种分析方法可以帮助企 业制定生产和销售计划。
自相关检验
自相关是指残差之间存在 相关性。应通过图形或统 计检验方法检验残差的自 相关性。
05
线性回归模型的预测与 优化
利用线性回归模型进行预测
确定自变量和因变量
01
在预测模型中,自变量是预测因变量的变量,因变量是需要预
测的目标变量。
建立模型
02
通过收集数据并选择合适的线性回归模型,利用数学公式表示
一元线性回归模型
一元线性回归模型是用来研究一个因变量和一个 自变量之间的线性关系的模型。
它通常用于预测一个因变量的值,基于一个自变 量的值。
一元线性回归模型的公式为:y = b0 + b1 * x
多元线性回归模型
01 多元线性回归模型是用来研究多个自变量和一个 因变量之间的线性关系的模型。
02 它通常用于预测一个因变量的值,基于多个自变 量的值。
线性回归模型与其他模型的比较
01
与逻辑回归的比较
逻辑回归主要用于分类问题,而 线性回归主要用于连续变量的预 测。
02
与决策树的比较
决策树易于理解和解释,但线性 回归在预测精度和稳定性方面可 能更优。
03
与支持向量机的比 较
支持向量机适用于小样本数据, 而线性 Nhomakorabea归在大样本数据上表现 更佳。

线性回归ppt课件

线性回归ppt课件
用来检验误差项之间是否存在序列相关。
d的值域为[0,4],在误差不存在序列相关时,d值应该在2左 右。d值小于2时意味着相邻的误差之间存在正相关;d值大于2 意味着相邻的误差存在负相关。
不一定只有时间序列数据才存在序列相关问题,各自独立的 变量之间出现序列相关的原因:
第六节 统计软件在线性回归分析中的应用
SPSS软件
模型设置、统计量选择、检验图形设置 分析结果的解释
STATA软件
各种设置的命令 分析结果的解释
SPSS图形的检验功能
检验误差项是否呈正态分布(Histogram of *zresid):
做法:以回归方程的标准化误差为横坐标,以标准化误差 的频数为纵坐标,并提供正态分布参照线 ;
当多重共线性发生时,方程的回归系数不可靠。
注意:
多重共线性指的是自变量之间的线性相关,当自变量 之间为非线性相关时,不一定产生严重的多重共线性 问题 。
多重共线性的检验
多重共线性的存在依据:
方程的确定系数很高,且y与各自变量的相关系数 也很高,但自变量的回归系数均不显著;
多个自变量的情形,某一自变量可被其他变量线 性表达出来;
回归方程预测值与误差项的关系图(散点图):
做法:
以回归方程标准化预测值为横坐标,以标准化误差为纵坐标。
作用:
线性关系的检查:若实际数据中变量间真为线性关系,该散点 图无明显趋势;
均方差性的检查:若均方差性存在,横轴各点上散点的纵向分 布宽度应该相等;
特异值的检查:若存在超出正负2区间的标准化误差值,便可 认为是特异值。
condition indexes)。
多重共线性的检验
检验指标及其计算

高级计量课件-第四章

高级计量课件-第四章
14
当非线性模型的最小二乘函数在所考虑的参数
估计值范围[a,b]内,是参数的严格凸函数
时,上述搜索方法是有效的,会很快收敛,找 到基本符合最小二乘要求的参数估计值
如果最小二乘函数的情况比较复杂,不是严格 凸函数时,则上述搜索方法的有效性不一定有 保证。此时往往没有唯一的极点和最优点,不 能保证搜索一定会收敛,或一定会收敛到整体 最
2

1 2

1 1
1
16
一般来说,格点搜索法也主要适用于参 数个数较少和最小二乘函数是严格凸函 数的情况。
当参数个数更多时需要搜索的格点数量 会增加得很快。对于有多个极值点的比 较复杂的最小二乘函数,格点搜索法更 不一定能顺利找到最小二乘函数的解。
9
二、非线性优化 (一)直接搜索法 (二)格点搜索法 (三)最陡爬坡法
10
(一)直接搜索法
把所有可能的参数值组合都代入最小二乘函数 中进行试算,其中使得残差平方和最小的参数 组合就是要寻找的参数估计值。这种获得参数 估计值的方法我们称为“直接搜索法”。
比较笨拙,对于参数不多、估计精度要求不是 很高的情况是有效的,但在需估计的参数较多, 而且各有多种取值,参数的取值范围是连续区 间时显然是不适用的。
33
(四)牛顿-拉夫森法的优缺点 优点:搜索方向和步长的确定比较科学,因此
找到满足精度要求最优水平的搜索次数一般要 小一些。 缺点:迭代运算中需要反复计算梯度向量,特 别是海塞矩阵的逆矩阵,因此计算工作量也很 大。 在实际应用中常常并不按照牛顿-拉夫森法进行 搜索,而是根据一些简单法则确定搜索的步长。 如“双向线性搜索法”就是其中常用的方法之 一。
20
上述过程显然可以反复进行:把得到的 β (1 ) 作 为新的 β ( 0 )或新的出发点,再在一个给定半径的 圆周上重新进行最优改进搜索,找目标函数最 大(或最小)的一组参数值 β ( 2 ),如此反复直 到收敛。

数理统计-线性回归 ppt课件

数理统计-线性回归  ppt课件

PPT课件
3
2.统计相关关系:变量之间存在某种关系, 但变量Y并不是由变量X唯一确定的,它们 之间没有严格的一一对应关系。两个变量 间的这种关系就是统计关系,亦称相关关 系。例如:小麦的产量Y与施肥量x1,品种x2 等存在关系,但给定x1,x2的数值后Y的值还 是无法确定的.
两个变量之间若存在线性关系称为线性 相关,存在非线性关系称为曲线相关,通常 通过适当的变量变换,曲线相关可转换为 线性相关。
PPT课件
9
x=100:10:190;y=[45,51,54,61,66,70,74,78,85,89]; plot(x,y,'.r')
观察散点图, ( x)具有线性函数a bx的形式.
PPT课件
10
2.建立回归模型
( x) a bx 一元线性回归问题 假设对于x的每一个值有Y~N (a bx, 2 ),a,
yˆ aˆ bˆx Y 关于 x 的经验回归方程
由于aˆ y bˆx,
回归方程 回归直线
yˆ y bˆ( x x),
回归直线通过散点图的几何中心( x, y).
PPT课件
15
n
n
记 lxx ( xi x)2 , l yy ( yi y)2 ,
i 1
C1
(x2 )
C2
考察Y的数学期望E(Y ).x1
x2
x
E(Y ) Y x ( x) Y关于x的回归函数
PPT课件
7
问题的一般提法
对 x 的一组不完全相同的值x1, x2 ,, xn , 设 Y1, Y2 ,,Yn 分别是在 x1, x2 ,, xn 处对 Y 的独立 观察结果.

最全的线性回归知识-图文版PPT76页

最全的线性回归知识-图文版PPT76页
最全的线性回归知识-图文版
16、人民应该为法律而战斗,就像为 了城墙 而战斗 一样。 ——赫 拉克利 特 17、人类对于不公正的行为加以指责 ,并非 因为他 们愿意 做出这 种行为 ,而是 惟恐自 己会成 为这种 行为的 牺牲者 。—— 柏拉图 18、制定法律法令,就是为了不让强 者做什 么事都 横行霸 道。— —奥维 德 19、法律是社会的习惯和思想的结晶 。—— 托·伍·威尔逊 20、人们嘴上挂着的法律,其真实含 义是财 富。— —爱献 生
谢谢!
51、 天 下 之 事 常成 于困约 ,而败 于奢靡 。——陆 游 52、 生 命 不 等 于是呼 吸,生 命是活 动。——卢 梭
53、 伟 大 的 事 业,需 要决心 ,能力 ,ቤተ መጻሕፍቲ ባይዱ织 和责任 感。 ——易 卜 生 54、 唯 书 籍 不 朽。——乔 特
55、 为 中 华 之 崛起而 读书。 ——周 恩来

《统计学》线性回归模型94页PPT

《统计学》线性回归模型94页PPT

1
0
















26、要使整个人生都过得舒适、愉快,这是不可能的,因为人类必须具备一种能应付逆境的态度。——卢梭
文 家 。汉 族 ,东 晋 浔阳 柴桑 人 (今 江西 九江 ) 。曾 做过 几 年小 官, 后辞 官 回家 ,从 此 隐居 ,田 园生 活 是陶 渊明 诗 的主 要题 材, 相 关作 品有 《饮 酒 》 、 《 归 园 田 居 》 、 《 桃花 源 记 》 、 《 五 柳先 生 传 》 、 《 归 去来 兮 辞 》 等 。

27、只有把抱怨环境的心情,化为上进的力量,才是成功的保证。——罗曼·罗兰

28、知之者不如好之者,好之者不如乐之者。——孔子

29、勇猛、大胆和坚定的决心能够抵得上武器的精良。——达·芬奇

30、意志是一个强壮的盲人,倚靠在明眼的跛子肩上。——叔本华
谢谢!
94
《统计学》线性回归模型
6













7、翩翩新 来燕,双双入我庐 ,先巢故尚在,相 将还旧居。
8








9、 陶渊 明( 约 365年 —427年 ),字 元亮, (又 一说名 潜,字 渊明 )号五 柳先生 ,私 谥“靖 节”, 东晋 末期南 朝宋初 期诗 人、文 学家、 辞赋 家、散
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

.
11
• 一些有用的等式
(1) (2) 因为 (3)

且 (4)
X’e=0
b-=(X’X)-1X’
b=(X’X)-1X’Y=(X’X)-1X’(X+)=+(X’X)-1X’
定义nn方阵:
P=X(X’X)-1X’ , M=In-P P=P’ , M=M’
P2=P, M2=M
PX=X, MX=On(k+1) e=MY=M
SSR(b)=e’e=Y’MY=’M
.
12
三、高斯-马尔科夫定理
Gauss-Markov Theorem
•Question: OLS估计量的统计性质如何?
(1)[Unbiaseness] E(b|X)=, E(b)=
E(b|X)=E[(+(X’X)-1X’)|X]=+(X’X)-1X’E(|X)=
注意:
(1) 假设4可写成
E(ij|X)=2ij,
其中, i= j时,ij=1; i≠j时,ij=0
矩阵形式: E(’)=2I
.
7
(2)由假设2,
Var(i|X)=E(i2|X)-E[(i|X)]2=E(i|X)=2
同理, Cov(i,j|X)=E(ij|X)=0
(3) 假设4意味着存在非条件同方差性:
(2) 由于可以有j≤i, 或j>i, 意味着i既不依赖过去的X, 也不依赖于未来的X。因此排除了动态模型。
例:对AR(1)模型: Yi=0+1Yi-1+i=Xi’+i
这里Xi=(1, Yi-1)’,显然E(Xii)=E(Xi)E(i)=0,但
E(Xi+1i)≠0。因此,E(i|X关于严格外生性有其他的定义。 如定义为i独立于X,或X是非随机的。这一定义排 除了条件异方差性。而我们这里的假设2是允许存在 条件异方差性的。
13
对任何其元素平方和为1的(k+1)1向量, ’=1 ’Var(b|X) = 2’(X’X)-1 2max[(X’X)-1] = 2{min[(X’X)]}-1
类似地,
var(i)=2 Cov(i, j)=0
(4) 假设4并不意味着i与X是独立的。它充许i的 条件高阶矩(如:偏度、峰度)可依赖于X。
.
8
二、参数的估计 Estimation of
由假设1与假设2知: E(Y|X)=0+1X1+…+kXk=X’
其中,X=(1, X1, …,Xk)’ 即线性模型Y=X’+关于E(Y|X) 正确设定。
.
6
假设4(Spherical error variance) (a) [conditional homoskedasticity]: E(i2|X)=2>0, i=1,2,…,n (b) [conditional serial uncorrelatedness]: E(ij|X)=0, i, j=1,2,…,n
因此,其最佳线性最小二乘近似解(beat linear LS approximation coefficient)*等于参数的真实值0。
即,min E(Y-X’)2 的解为
*=0=[E(XX’)]-1E(XY)
.
9
由类比法,对样本回归模型
Yi=Xi’b+ei i=1,2,…,n 其中,Xi=(1, X1i, …,Xki)’, b=(b0, b1, …,bk)’ 需求解极值问题 min (1/n)(ei)2
如果X是非随机的,则假设2变成
E(i|X)=E(i)=0
(4)假设2的向量形式:
E(|X)=0
.
5
注意:
(1)本假设排除了解释变量间的多重共线性 (multicollinearity)
(2) 本假设意味着X’X是非奇异的,或者说X必须 满秩于k+1。因此应有k+1≤n。
(3) 由于λ表述了矩阵X’X的相关信息,因此本假 设意味着当n∞时应有新信息进入X,即Xi不能老 是重复相同的值。
第四章 经典线性回归模型(I)
Classical Linear Regression Model (I)
.
1
§4.1 经典线性回归模型 Classical Linear Regression Models
一、经典回归模型 Classical Regression Model
假设随机抽取一容量为n的样本(Yi, Xi), i=1,…,n, 其中,Yi是标量,Xi=(1,X1i,X2i,…,Xki)’,或
上述问题相当于求解残差平方和(sum of squared residuals, SSR)的极小值
min SSR(b)=ei2=(Yi-Xi’b)2=e’e=(Y-Xb)’(Y-Xb) 其中,e=(e1,e2,…,en)’
在假设3下,解为: b=(X’X)-1(X’Y)
该方法称为普通最小二乘法(ordinary Least Squares)
.
10
注意: (1) 1阶偏导: SSR/b= -2X’(Y-Xb)
2阶偏导: 2SSR/2b=2X’X 由min(X’X)>0 知2X’X>0, 从而b=(X’X)-1(X’Y)是最小值 (2) 由1阶极值条件可以得到所谓正规方程(normal equations):
X’(Y-Xb)=X’e=0 正规方程是OLS所特有的,而不论是否有E(i|X)=0
(2)[Vanishing Variance]
Var(b|X)=E[(b-)(b-)’|X]
=E[(X’X)-1X’’X(X’X)-1|X]
=(X’X)-1E(’|X)
=(X’X)-12I
=2(X’X)-1
b中第i个元素的方差:Var(bi)= 2cii, cii为(X’X)-1
中主对角线第i个元素。 .
Y 1
Y
Y2
Y
n
1
X
1 1
X 11 X 12 X 1n
X k1
X k2
X kn
.
2
经典回归模型(classical regression model)建立在 如下假设之上:
假设1(linearity):
Yi=0+1X1i+…+kXki+i
=Xi’+i
(i=1,2,…n)

Y=X+
其中,=(0, 1,…,k)’, =(1,2,…,n)’
注意: 这里的线性性指Y关于参数是线性的。
.
3
假设2(strict Exogeneity): E(i|X)=E(i|X1,X2,…Xn)=0, (i=1,2,…n)
注意:
(1) 由E(i|X)=0 易推出:E()=0, E(Xji)=0 或有: Cov(Xj, i)=0 (i, j=1,2,…n)
相关文档
最新文档