经典线性回归模型

合集下载

2 经典线性回归模型I

2 经典线性回归模型I

第二章经典线性回归模型:估计、统计性质与统计检验•经典线性回归模型:假设与OLS估计•OLS估计的小样本性质与统计检验•OLS估计的大样本性质与统计检验§1.1 经典线性回归模型:假设与OLS估计一、经典线性回归模型二、经典线性回归模型的OLS估计E(Y|X)回归分析的基本逻辑:寻找样本回归线,并用样本回归线近似代表总体回归线问题:能否代表?需要通过检验来回答!(1) 对残差平方和SSR(b )= Σe t 2=e ’e =(Y -Xb )’(Y -Xb ) 1阶偏导: ∂SSR/∂b = -2X ’(Y-Xb )2阶偏导: ∂2SSR/∂b ∂b ’= 2X ’X由于X ’X 为正定矩阵(Why?), 从而b =(X ’X )-1(X ’Y )是最小值 由1阶极值条件可以得到所谓正规方程(normal equations ): X ’(Y-Y-XbXb )=X ’e =0 ⇔ Σt X tj e t =0 (j=1,2,…,k )当模型含有值恒为1的常数项时, Σe t =0正规方程是OLS 所特有的,而不论是否有E(εt |X )=02、OLS 估计的数值性质(4)一些有用的等式a. X’e=0b. b −β=(X’X)-1X’ε因为b=(X’X)-1X’Y=(X’X)-1X’(Xβ+ε)=β+(X’X)-1X’ε c. 定义n×n方阵:P P X=X(X’X)-1X’(投影矩阵),M X=I n−P X(消灭矩阵)则P=P X’, M M X=M X’XP X2=P X, M M X2=M XX=X, M X X=O n×(k+1)且PXd. e=M X Y=M XεSSR(b)=e’e=Y’M X Y=ε’M Xε二元回归的示例图赤池信息准则(Akaike information criterion, AIC, 1973) AIC=ln[e’e/n]+2(k+1)/n=goodness of fit + model complexityAIC= -2ln L/n +2(k+1)/n贝叶斯信息准则(Baysian information criterion, BIC)施瓦茨准则(Schwarz criterion,SC, 1978)BIC=ln[e’e/n]+(k+1)ln(n)/nBIC/SC= -2ln L/n+(k+1)ln(n)/n贝叶斯信息准则对多引入多余的解释变量给出了更重的惩罚。

计量经济学第3章 线性回归模型

计量经济学第3章 线性回归模型

计量经济学-第3章 线性回归模型
4
(3)等方差性:Var (i ) 2,i 1,2,, n ,因而
Var ( yi ) 2 , i 1,2,, n
(4)正态性:i ~ N (0, 2 ), i 1,2,, n ,因而
yi ~ N ( xi , 2 ), i 1,2,, n
上述四个条件可简化为: ij
1 lxx
n
xi
i 1
x E( yi )
1 n
lxx i1
xi x
(
xi
)
1 lxx
n i 1
xi x xi
1 lxx
lxx
E(ˆ)
2021/5/8
计量经济学-第3章 线性回归模型
14
E(ˆ ) E(Y ˆx )
1 n
n
E(
i 1
Yi )
E(ˆ ) x
1 n
n
i 1
i 1
i 1
2021/5/8
计量经济学-第3章 线性回归模型
21
n i 1
( yi
y)2
2 lxy lxx
lxy
(
lxy lxx
)2
lxx
n i 1
( yi
y)2
l
2 xy
lxx
n i 1
yi2
ny 2
l
2 xy
lxx
n i 1
yi2
n( 1 n
n i 1
yi )2
n
(
i 1
( xi
x)(yi lxx
y))2
n i 1
yi2 (
1 n
n i 1
yi )2
n

经典线性回归模型的Eviews操作

经典线性回归模型的Eviews操作

经典线性回归模型经典回归模型在涉及到时间序列时,通常存在以下三个问题:1)非平稳性→ ADF单位根检验→ n阶单整→取原数据序列的n阶差分(化为平稳序列)2)序列相关性→D.W.检验/相关图/Q检验/LM检验→n阶自相关→自回归ar(p)模型修正3)多重共线性→相关系数矩阵→逐步回归修正注:以上三个问题中,前两个比较重要。

整体回归模型的思路:1)确定解释变量和被解释变量,找到相关数据。

数据选择的时候样本量最好多一点,做出来的模型结果也精确一些。

2)把EXCEL里的数据组导入到Eviews里。

3)对每个数据序列做ADF单位根检验。

4)对回归的数据组做序列相关性检验。

5)对所有解释变量做多重共线性检验。

6)根据上述结果,修正原先的回归模型。

7)进行模型回归,得到结论。

Eviews具体步骤和操作如下。

一、数据导入1)在EXCEL中输入数据,如下:除去第一行,一共2394个样本。

2)Eviews中创建数据库:File\new\workfile, 接下来就是这个界面(2394就是根据EXCEL里的样本数据来),OK3)建立子数据序列程序:Data x1再enter键就出来一个序列,空的,把EXCEL里对应的序列复制过来,一个子集就建立好了。

X1是回归方程中的一个解释变量,也可以取原来的名字,比如lnFDI,把方程中所有的解释变量、被解释变量都建立起子序列。

二、ADF单位根检验1)趋势。

打开一个子数据序列,先判断趋势:view\graph,出现一个界面,OK。

得到类似的图,下图就是有趋势的时间序列。

X1.4.2.0-.2-.4-.6-.8100020003000400050002)ADF检验。

直接在图形的界面上进行操作,view\unit root test,出现如下界面。

在第二个方框内根据时序的趋势选择,Intercept指截距,Trend为趋势,有趋势的时序选择第二个,OK,得到结果。

上述结果中,ADF值为-3.657113,t统计值小于5%,即拒绝原假设,故不存在单位根。

经典线性回归模型

经典线性回归模型

·β的OLS估计量:在假定2.3成立时
( ) å å b =
XTX
-1 X T Y
= çæ 1 èn
n i=1
xi xiT
Hale Waihona Puke -1ö æ1 ÷ç ø èn
n i=1
xi yi
÷ö ø
( ) ·估计量的抽样误差(sampling error): b - b = X T X -1 X Te
·第i次观测的拟合值(fitted value): yˆi = xiTb
且自变量的回归系数和 y 与 x 的样本相关系数之间的关系为
b1 == corr(Y , X )
å( 1 n
n - 1 i=1
yi
- y)2
º r sy
å( ) 1 n
n - 1 i=1
xi - x 2
sx
·修正决定系数(adjusted coefficient of determination, adjusted R square)
4.假定我们观测到上述这些变量的n组值: (y i , x i1 , L , ) x ip (i=1,…,n)。称
这n组值为样本(sample)或数据(data)。
§2.2 经典线性回归模型的假定
假定 2.1(线性性(linearity))
yi = b0 + b1xi1 + L + b p xip + e i (i=1,…,n)。
( ) ( ) E ~x jei
çæ E x j1e i =ç M
÷ö ÷=0
(i=1,…,n ; j=1,…,n )。
( ) ç
è
E
x jp e i
÷ ø
·不相关条件(zero­correlation conditions)

第四章--经典线性回归模型(高级计量经济学-清华大学-潘文清)PPT课件

第四章--经典线性回归模型(高级计量经济学-清华大学-潘文清)PPT课件
(2)由性质(1)与性质(2)还可得出,OLS估计量b依 均方收敛于,因此依概率收敛于,从而是的一 致估计量。
(3)由性质(1)与性质(2)知:
MSE(b|X)=E(b-)(b-)’|X)
=Var(b|X)+[bias(b|X)]2
0
(n)
.
17
四、估计2及Var(b) Estimation of 2 and Var(b)

Y=X+
其中,=(0, 1,…,k)’, =(1,2,…,n)’
注意: 这里的线性性指Y关于参数是线性的。
.
3
假设2(strict Exogeneity): E(i|X)=E(i|X1,X2,…Xn)=0, (i=1,2,…n)
注意:
(1) 由E(i|X)=0 易推出:E()=0, E(Xji)=0 或有: Cov(Xj, i)=0 (i, j=1,2,…n)
求解min SSR(+)。
有约束的(i)的残差平方和不会小于无约束的(ii)的 残差平方和:e+’e+e’e
.
25
为避免将无解释力的解释变量纳入到X中去,引入 调整的决定系数(adjusted coefficient of determination):
(4)决定系数仅是对样本回归线拟合样本数据的程 度给予描述。而CR模型并不要求R2要有多高,CR 模型关心的是对总体回归参数的估计与检验。
如果X是非随机的,则假设2变成
E(i|X)=E(i)=0
(4)假设2的向量形式:
E(|X)=0
.
5
注意:
(1)本假设排除了解释变量间的多重共线性 (multicollinearity)
(2) 本假设意味着X’X是非奇异的,或者说X必须 满秩于k+1。因此应有k+1≤n。

第4章 经典正态线性回归模型

第4章 经典正态线性回归模型

中心极限定理为ui的正态性假定提供了理论基础。
大数定理:在大量随机现象中,无论个别随机现象 的结果如何,或者它们在进行过程中的个别特征如何, 大量随机现象的平均结果实际上与每一个个别随机现象 的特征无关,并且几乎不再是随机的了。 切贝谢夫定理:(以确切的数学形式表达了大数定 律的内容) 设 1, 2, , n, 是相互独立的随机变量,它们各有 数学期望 E1,E 2, ,E n, 及方差 D1,D 2, ,D n,
在满足基本假设条件下,对一元线性回归模型:
Yi 0 1 X i ui
Yi服从如下的正态分布:
Yi N ( 0 1 X i , 2 )
于是,Y的概率函数为:
1 P(Yi ) e 2
1 2 2 (Yi 0 1 X i )
(i=1,2,…n)
E (ui ) 0
(4.2.1) (4.2.2)
E (ui u j ) 0, i j
E (ui ) 2
2
协方差: cov(ui , u j )
(4.2.3) (4.2.4)
这些假定可以归结为:
ui ~ N (0, 2 )
N代表正态分布(normal distribution)
对于两个正态分布变量来说,零协方差和零相关就意味 着两个变量互相独立。
期望之差,当 n 时,依概率收敛到0。
中心极限定理:如果每一项偶然因素对总和的影响 是均匀的、微小的,即没有一项起特别突出的作用,那 么就可以断定这些大量独立的偶然因素的总和是近似地 服从正态分布的。 李雅普诺夫定理(Liapounov theorem):(提供了中 心极限定理的数学形式)。设 1, 2, , n, 是相互 独立的随机变量,

第五章 经典线性回归模型(II)(高级计量经济学-清华大学 潘文清)

第五章  经典线性回归模型(II)(高级计量经济学-清华大学 潘文清)

如何解释j为“当其他变量保持不变,Xj变化一个 单位时Y的平均变化”?
本质上: j=E(Y|X)/Xj 即测度的是“边际效应”(marginal effect)
因此,当一个工资模型为 Y=0+1age+2age2+3education+4gender+ 时,只能测度“年龄”变化的边际效应: E(Y|X)/age=1+22age 解释:“当其他变量不变时,年龄变动1个单位时 工资的平均变化量” 2、弹性: 经济学中时常关心对弹性的测度。
X1’X1b1+X1’X2b2=X1’Y (*) X2’X1b1+X2’X2b2=X2’Y (**) 由(**)得 b2=(X2’X2)-1X2’Y-(X2’X2)-1X2’X1b1 代入(*)且整理得: X1’M2X1b1=X1’M2Y b1=(X1’M2X1)-1X1’M2Y=X1-1M2Y=b* 其中,M2=I-X2(X2’X2)-1X2’ 又 M2Y=M2X1b1+M2X2b2+M2e1 而 M2X2=0, M2e1=e1-X2(X2’X2)-1X2’e1=e1 则 M2Y=M2X1b1+e1 或 e1=M2Y-M2X1b1=e* 或
b1是1的无偏估计。
设正确的受约束模型(5.1.2)的估计结果为br,则有 br= b1+ Q1b2
或 b1=br-Q1b2 无论是否有2=0, 始终有Var(b1)Var(br) 多选无关变量问题:无偏,但方差变大,即是无效 的。变大的方差导致t检验值变小,容易拒绝本该纳 入模型的变量。
§5.2 多重共线性
1、估计量的方差 在离差形式的二元线性样本回归模型中: yi=b1x1i+b2x2i+e

经典线性回归模型

经典线性回归模型

就变量而言是线性的
—— Y 的条件均值是 X 的线性函数 就参数而言是线性的 —— Y 的条件均值是参数 的线性函数
“线性”的判断
E(Yi X i ) 1 2 X i
E(Yi X i ) 1 2 X i 性” E(Yi X i ) 1 2 X i
2
变量、参数均为“线性” 参数“线性”,变量”非线
每 月 家 庭 消 费 支 出 Y
1489 1538
1600 1702
1712 1778
1841 1886
2078 2179
2298 2316
2289 2313
2398 2423
2487 2513
2538 2567
2853 2934
3110
3142 3274
1900
2012
2387
2498 2589
(单位:元)
每 月 家 庭 可 支 配 收 入 X
4000 2037 2110 2225 2319 2321 2365 2398 4500 2275 2388 2426 2488 2587 2650 2789 5000 2464 2589 2790 2856 2900 3021 3064 5500 2824 3038 3150 3201 3288 3399
2453
2487 2586 2150
2610
2710
E(Y X i )
900
1150
1400
1650
1900
2400
2650
2900
3150
例:100个家庭构成的总体
1000 820 888 932 960 1500 962 1024 1121 1210 1259 1324 2000 1108 1201 1264 1310 1340 1400 1448 2500 1329 1365 1410 1432 1520 1615 1650 3000 1632 1726 1786 1835 1885 1943 2037 3500 1842 1874 1906 1068 2066 2185 2210

计量经济学第二章经典线性回归模型

计量经济学第二章经典线性回归模型



1.β 的均值
β ( X X )1 X Y
( X X )1 X ( Xβ u)
( X X )1 X Xβ ( X X )1 X u
β ( X X ) 1 X u
27
E(β) β ( X X )1 X E(u) (由假设3)
β
(由假设1)

E
β
β
0 1
...
β K
Yi = α+ β +Xiui , i = 1, 2, ...,n (2.4) 即模型对X和Y的n对观测值(i=1,2,…,n)成立。
(2.3)式一般用于观测值为时间序列的情形,在横截 面数据的情形,通常采用(2.4) 式。
5
二、 多元线性回归模型
在许多实际问题中,我们所研究的因变量的变动 可能不仅与一个解释变量有关。因此,有必要考虑线 性模型的更一般形式,即多元线性回归模型:
...... ......
u1un
u2un
.................................
unu1 unu2 ...... un2
显然, E(uu) 2In 仅当
E(ui uj)=0 , i≠j E(ut2) = σ2, t=1,2,…,n 这两个条件成立时才成立,因此, 此条件相当前面条件 (2), (3)两条,即各期扰动项互不相关,并具有常数方差。 14
P
食品价格平减指数 总消费支出价格平减指数
100,(1972
100)
7
多元线性回归模型中斜率系数的含义
上例中斜率系数的含义说明如下: 价格不变的情况下,个人可支配收入每上升10
亿美元(1个billion),食品消费支出增加1.12亿 元(0.112个 billion)。

第四章 正态性假定:经典正态线性回归模型

第四章 正态性假定:经典正态线性回归模型

二、正态分布假定

经典正态线性回归假定每个ui都是正态 分布的,且其均值为零,方差不变, 即:
E (ui ) 0 E (u )
2 i 2
2 , i j cov(ui , u j ) 0, i j

对两个正态分布变量而言,零协方差或零相 关则意味着两个变量相互独立。在正态性假 定下,不仅说明ui与uj不相关,而且说它们 是独立分布的,即独立同分布:


取代最小二乘法的另一方法似最大似然 法(Maximum Likelihood,简称 ML)。 为了使用ML法,必须对随机扰动项u的 概率分布作一假定。在回归分析中,最 常作的假定就是u服从正态分布。

最小二乘估计是指当从模型总体随机抽 取n组样本观测值后,最合理的参数估 计量应该使得模型能最好地拟合样本数 据。而最大似然估计量是指当从模型总 体随机抽取n组样本观测值后,最合理 的参数估计量应该使得从中抽取该n组 样本观测值的概率最大 。
2
n 2
e
n

2 Y X i 0 1 i 2 2
1


将该似然函数极大化,即可求得模型参数的 最大似然估计量。 由于似然函数的极大化与似然函数的对数的 极大化是等价的,所以,取对数似然函数如 下:
L* lnL n ln 2


1 2
ui ~ NID(0, )
2
为何提出正态性假定?
(1)u代表回归模型中未明显引进的许多自变量(对因 变量)的总影响。期望这些影响微小而且是随机的。 根据中心极限定理,如果存在大量独立且同分布的随 机变量,那么,除了少数例外情形,随着这些变量的 个数无限增大,它们的总和将趋向正态分布。 (2)中心极限定理的另一解释,即使变量个数并不很大 或这些变量还不是严格独立的,它们的总和仍可视同 正态分布。 (3)正态分布的一个性质是,正态分布变量的任何线性 函数都是正态分布的。在正态性假定下,容易导出 OLS估计量的概率分布。 (4)正态分布是一个比较简单的,仅涉及两个参数(均 值和方差)的分布,它为人们所熟知,其理论性质在 数理统计中得到广泛研究。

线性回归模型的经典假定及检验修正

线性回归模型的经典假定及检验修正

线性回归模型的经典假定及检验、修正一、线性回归模型的基本假定1、一元线性回归模型一元线性回归模型是最简单的计量经济学模型,在模型中只有一个解释变量,其一般形式是Y =β0+β1X 1+μ其中,Y 为被解释变量,X 为解释变量,β0与β1为待估参数,μ为随机干扰项。

回归分析的主要目的是要通过样本回归函数(模型)尽可能准确地估计总体回归函数(模型)。

为保证函数估计量具有良好的性质,通常对模型提出若干基本假设。

假设1:回归模型是正确设定的。

模型的正确设定主要包括两个方面的内容:(1)模型选择了正确的变量,即未遗漏重要变量,也不含无关变量;(2)模型选择了正确的函数形式,即当被解释变量与解释变量间呈现某种函数形式时,我们所设定的总体回归方程恰为该函数形式。

假设2:解释变量X 是确定性变量,而不是随机变量,在重复抽样中取固定值。

这里假定解释变量为非随机的,可以简化对参数估计性质的讨论。

假设3:解释变量X 在所抽取的样本中具有变异性,而且随着样本容量的无限增加,解释变量X 的样本方差趋于一个非零的有限常数,即∑(X i −X ̅)2n i=1n→Q,n →∞ 在以因果关系为基础的回归分析中,往往就是通过解释变量X 的变化来解释被解释变量Y 的变化的,因此,解释变量X 要有足够的变异性。

对其样本方差的极限为非零有限常数的假设,旨在排除时间序列数据出现持续上升或下降的变量作为解释变量,因为这类数据不仅使大样本统计推断变得无效,而且往往产生伪回归问题。

假设4:随机误差项μ具有给定X 条件下的零均值、同方差以及无序列相关性,即E(μi|X i)=0Var(μi|X i)=σ2Cov(μi,μj|X i,X j)=0, i≠j随机误差项μ的条件零均值假设意味着μ的期望不依赖于X的变化而变化,且总为常数零。

该假设表明μ与X不存在任何形式的相关性,因此该假设成立时也往往称X为外生性解释变量随机误差项μ的条件同方差假设意味着μ的方差不依赖于X的变化而变化,且总为常数σ2。

第一部分2 经典线性回归模型

第一部分2 经典线性回归模型

分析: 原假设H0: 备择假设H1:至少有一个约束不满足。
H1成立,对应原模型(长模型),也称为不受约束模型(UR): 回归残差(RSSUR)
H0成立,对应短模型,也称为受约束模型(R) 回归残差(RSSR)
构造统计量:
为了检验RSSR与RSSUR的差距。 如果原假设成立,约束条件自然成立,因此两者差距小。(小于临界 值) 如果备择假设成立,约束条件不成立,两者差距大,(大于临界值)
(2)(3)可以合并为: 假设(2),(3)说明随机项u的方差-协方差矩阵为对角矩阵:
(4)各解释变量之间不存在严格的线性关系(即不存在“严格的多重 共线性”)
即X是满秩的。此时矩阵X’X也是满秩的, 所以行列式 ,保证了 可逆。是OLS估计可以进行的前提。
含义: ①从直观含义来看。模型中的变量对于解释Y提供了新的信息,不能由 其他信息完全替代 ②从参数的含义来看。保持其他信息不变时,如果存在严格多重共线, 则无法做到 ③从系数的求解来看:缺少足够信息将两变量的影响区分开来 三、最小二乘估计 1、最小二乘估计原理 分析:直观上看,也就是要求在X和Y的散点图上穿过各观测点画出一 条“最佳”直线,如下图所示。
4、最小二乘估计的矩阵表示 (具体可以参考陈强的书) 我们的目标是使得回归的残差平方和达到最小,即:
则它的一阶条件为: 化简得:
四、OLS估计量的性质 1、线性性(有助于确定估计量的分布)
2、无偏性(有助于确定正态分布的均值) 即 其中, 两边取期望 与零均值假定,以及非随机解释变量两个假设有关
3、最小方差性(有助于确定正态分布的方差) (1)方差-协方差矩阵: (2)方差协方差矩阵的计算 方法1: 方法2
3、调整的拟合优度 (1)拟合优度(判定系数)的缺陷 可以证明,多重决定系数时模型中解释变量个数的不减函数,这给对 比含有不同解释变量个数的模型的决定系数带来困难(缺陷),需要修 正。

名校计量经济学试题与参考答案

名校计量经济学试题与参考答案

计量经济学试题1一 名词解释(每题5分,共10分) 1. 经典线性回归模型 2. 加权最小二乘法(WLS ) 二 填空(每空格1分,共10分)1.经典线性回归模型Y i = B 0 + B 1X i + µi 的最小二乘估计量b 1满足E ( b 1 ) = B 1,这表示估计量b 1具备 性。

2.广义差分法适用于估计存在 问题的经济计量模型。

3.在区间预测中,在其它条件不变的情况下,预测的置信概率越高,预测的精度越 。

4.普通最小二乘法估计回归参数的基本准则是使 达到最小。

5.以X 为解释变量,Y 为被解释变量,将X 、Y 的观测值分别取对数,如果这些对数值描成的散点图近似形成为一条直线,则适宜配合 模型。

6.当杜宾-瓦尔森统计量 d = 4时,ρˆ= ,说明 。

7.对于模型i i i X Y μββ++=10,为了考虑“地区”因素(北方、南方两种状态)引入2个虚拟变量,则会产生 现象。

8. 半对数模型LnY i = B 0 + B 1X i + µI 又称为 模型。

9.经典线性回归模型Y i = B 0 + B 1X i + µi 的最小二乘估计量b 0、b 1的关系可用数学式子表示为 。

三 单项选择题(每个1分,共20分)1.截面数据是指--------------------------------------------------------------( )A .同一时点上不同统计单位相同统计指标组成的数据。

B .同一时点上相同统计单位相同统计指标组成的数据。

C .同一时点上相同统计单位不同统计指标组成的数据。

D .同一时点上不同统计单位不同统计指标组成的数据。

2.参数估计量βˆ具备有效性是指------------------------------------------( ) A .0)ˆ(=βar V B.)ˆ(βarV 为最小 C .0)ˆ(=-ββD.)ˆ(ββ-为最小 3.如果两个经济变量间的关系近似地表现为:当X 发生一个绝对量(X ∆)变动时,Y 以一个固定的相对量(Y Y /∆)变动,则适宜配合的回归模型是------------------------------------------------------------------------------------------- ( )A .i i i X Y μβα++= B.i i i X Y μβα++=ln C .i ii X Y μβα++=1D.i i i X Y μβα++=ln ln 4.在一元线性回归模型中,不可能用到的假设检验是----------( ) A .置信区间检验 B.t 检验 C.F 检验 D.游程检验5.如果戈里瑟检验表明 ,普通最小二乘估计的残差项有显著的如下性质:24.025.1i i X e +=,则用加权最小二乘法估计模型时,权数应选择-------( )A .i X 1 B. 21i X C.24.025.11i X + D.24.025.11i X +6.对于i i i i X X Y μβββ+++=22110,利用30组样本观察值估计后得56.827/)ˆ(2/)ˆ(2=-∑-∑=iiiY Y Y Y F ,而理论分布值F 0.05(2,27)=3.35,,则可以判断( )A . 01=β成立 B. 02=β成立 C. 021==ββ成立 D. 021==ββ不成立7.为描述单位固定成本(Y )依产量(X )变化的相关关系,适宜配合的回归模型是:A .i i i X Y μβα++= B.i i i X Y μβα++=ln C .i ii X Y μβα++=1D.i i i X Y μβα++=ln ln 8.根据一个n=30的样本估计ii i e X Y ++=10ˆˆββ后计算得d=1.4,已知在95%的置信度下,35.1=L d ,49.1=U d ,则认为原模型------------------------( )A .存在正的一阶线性自相关 B.存在负的一阶线性自相关 C .不存在一阶线性自相关 D.无法判断是否存在一阶线性自相关9.对于ii i e X Y ++=10ˆˆββ,判定系数为0.8是指--------------------( ) A .说明X 与Y 之间为正相关 B. 说明X 与Y 之间为负相关 C .Y 变异的80%能由回归直线作出解释 D .有80%的样本点落在回归直线上10. 线性模型i i i i X X Y μβββ+++=22110不满足下列哪一假定,称为异方差现象-------------------------------------------------------------------------------( )A .0)(=j i ov C μμ B.2)(σμ=i ar V (常数) C .0),(=i i ov X C μ D.0),(21=i i ov X X C11.设消费函数i i i X D Y μβαα+++=10,其中虚拟变量⎩⎨⎧=南方北方01D ,如果统计检验表明1α统计显著,则北方的消费函数与南方的消费函数是--( )A .相互平行的 B.相互垂直的 C.相互交叉的 D.相互重叠的12. 在建立虚拟变量模型时,如果一个质的变量有m 种特征或状态,则一般引入几个虚拟变量:----------------------------------------------------------------( )A .m B.m+1 C.m -1 D.前三项均可 13. 在模型i i iX Y μββ++=ln ln ln 10中,1β为---------------------( )A .X 关于Y 的弹性 B.X 变动一个绝对量时Y 变动的相对量 C .Y 关于X 的弹性 D.Y 变动一个绝对量时X 变动的相对量14.对于i i i e X Y ++=10ˆˆββ,以S 表示估计标准误差,iY ˆ表示回归值,则-------------------------------------------------------------------------------------------( )A .S=0时,0)ˆ(=-∑ti Y Y B.S=0时,∑==-ni i i Y Y 120)ˆ( C .S=0时,)ˆ(ii Y Y -∑为最小 D.S=0时,∑=-ni i i Y Y 12)ˆ(为最小 15.经济计量分析工作的基本工作步骤是-----------------------------( )A .设定理论模型→收集样本资料→估计模型参数→检验模型B .设定模型→估计参数→检验模型→应用模型C .理论分析→数据收集→计算模拟→修正模型D .确定模型导向→确定变量及方程式→应用模型16.产量(X ,台)与单位产品成本(Y ,元/台)之间的回归方程为:X Y5.1356ˆ-=,这说明-----------------------------------------------------------( )A .产量每增加一台,单位产品成本平均减少1.5个百分点B .产量每增加一台,单位产品成本减少1.5元C .产量每增加一台,单位产品成本减少1.5个百分点D .产量每增加一台,单位产品成本平均减少1.5元17.下列各回归方程中,哪一个必定是错误的------------------------( )A .8.02.030ˆ=+=XY i i r X Y B. 91.05.175ˆ=+-=XY i i r X Y C .78.01.25ˆ=-=XY ii r X Y D. 96.05.312ˆ-=--=XY ii r X Y18.用一组有28个观测值的样本估计模型i i i X Y μββ++=10后,在0.05的显著性水平下对1β的显著性作t 检验,则1β显著地不等于0的条件是统计量t 大于-------------------------------------------------------------------------------------( )A .t 0.025(28) B. t 0.05(28) C. t 0.025(26) D. t 0.05(26)19.下列哪种形式的序列相关可用DW 统计量来检验(V t 为具有零均值、常数方差,且不存在序列相关的随机变量)---------------------------------( )A .t t t V +=-1ρμμ B.t t t t V +⋅⋅⋅++=--121μρρμμ C. t t V ρμ= D. ⋅⋅⋅++=-12t t t V V ρρμ20.对于原模型t t t X Y μββ++=10,一阶差分模型是指------------( )A .)()()(1)(1t tt t t t t X f X f X X f X f Y μββ++=B .t t t X Y μβ∆+∆=∆1C .t t t X Y μββ∆+∆+=∆10D .)()()1(11101----+-+-=-t t t t t t X X Y Y ρμμρβρβρ四 多项选择题(每个2分,共10分)1.以Y 表示实际值,Yˆ表示回归值,i e 表示残差项,最小二乘直线满足------------------------------------------------------------------------------------------( )A .通用样本均值点(Y X ,) B.ii Y Y ˆ∑=∑ C .0),ˆ(=i i ov e Y C D.0)ˆ(2=-∑i i Y Y E .0)ˆ(=-∑Y Y i2.剩余变差(RSS )是指--------------------------------------------------( )A .随机因素影响所引起的被解释变量的变差B .解释变量变动所引起的被解释变量的变差C .被解释变量的变差中,回归方程不能作出解释的部分D.被解释变量的总变差与解释变量之差E.被解释变量的实际值与回归值的离差平方和3. 对于经典线性回归模型,0LS估计量具备------------------------()A.无偏性 B.线性特性 C.正确性 D.有效性 E.可知性4. 异方差的检验方法有---------------------------------------------------()A.残差的图形检验 B.游程检验 C.White检验D.帕克检验E.方差膨胀因子检验5. 多重共线性的补救有---------------------------------------------------()A.从模型中删掉不重要的解释变量 B.获取额外的数据或者新的样本 C.重新考虑模型 D.利用先验信息 E. 广义差分法五简答计算题(4题,共50分)1.简述F检验的意图及其与t检验的关系。

经典线性回归模型

经典线性回归模型
β_1x_i))^2] ,其中 β_0 和 β_1 是待估计的参数。
参数估计与求解
参数估计是通过最小二乘法或其他优 化算法,求解出最佳拟合直线的参数 值。
参数求解过程中,需要选择合适的初 始值,并设置合适的迭代终止条件, 以确保求解的稳定性和准确性。
在线性回归模型中,参数估计通常采 用梯度下降法、牛顿法等优化算法进 行求解。
未来研究方向与Байду номын сангаас望
深度学习与线性回归的结合
利用深度学习的非线性拟合能力,结合线性回归的理论优势,有望开发出更强大、灵活的回归模 型。
强化学习与回归模型的结合
利用强化学习对序列数据的处理能力,结合线性回归的预测能力,有望在时间序列预测等领域取 得突破。
在线学习与增量学习
随着大数据的持续生成,如何实现在线学习和增量学习,以便及时更新模型并对新数据进行预测 ,也是未来发展的重要方向。
在经典线性回归模型的基 础上,考虑多个自变量对 因变量的影响,建立多元 线性回归模型。
模型建立
通过最小二乘法或最大似 然估计法,求解出最佳拟 合参数,建立多元线性回 归方程。
模型评估
使用残差分析、决定系数、 调整决定系数等方法对模 型进行评估和诊断。
岭回归与Lasso回归
岭回归
岭回归是一种用于解决共线性问题的线性回归扩展,通过 引入一个正则化项来惩罚回归系数的平方和,以减少过拟 合和异常值的影响。
复杂数据
随着数据维度的增加和数据类型的多 样化,如何处理高维稀疏数据、分类 数据、时序数据等复杂数据类型是未 来的研究重点。
模型选择与特征选择
如何自动选择最优的模型和特征,避 免过拟合和欠拟合,是提高回归模型 性能的关键问题。
未来研究方向与展望

经典多元线性回归模型

经典多元线性回归模型

则得:Y 0 1X1 2 X 2 ... k X k u 此即为多元线性总体回归模型。

g( X1, X 2 ,..., X k ) 0 1 X1 2 X 2 ... k X k
为多元线性总体回归函数。
.
计量经济学模型引入随机扰动项的原因:


Q ^
0
0

Q
^
1
0
...
Q


^
k
0




^^
^
(Yi 0 1 X1i ... k X ki) 0
程 组


^^
^
(Yi 0 1 X1i ... k X ki)X1i 0
...



^^
^
(Yi 0 1 X1i ... k X ki)X ki 0
为 为 正 规 方 程 组
ˆ j , j 0,1,2,, k
.
记:
X

1
1

... 1
X 11 X 12 ... X1n
... ... ... ...
X k1
Xk2
... X kn

0



1
...
k

u1
U


u2 ... un

Y1
Y

Y2

Yn

n1
则多元线性总体回归模型
Yi 0 1X1i 2 X 2i ...k X ki ui , i 1,2,..., n

线性回归分析——双变量模型

线性回归分析——双变量模型

线性回归分析双变量模型回归分析的含义回归分析是研究一个叫做因变量的变量对另一个或多个叫做解释变量的变量的统计依赖关系。

其用意在于,通过解释变量的已知值或给定值去估计或预测因变量的总体均值。

双变量回归分析:只考虑一个解释变量。

(一元回归分析,简单回归分析)复回归分析:考虑两个以上解释变量。

(多元回归分析)统计关系与确定性关系统计(依赖)关系:非确定性的关系。

在统计依赖关系中,主要处理的是随机变量,也就是有着概率分布的变量。

特别地,因变量的内在随机性是注定存在的。

例如:农作物收成对气温、降雨、阳光以及施肥的依赖关系便是统计性质的。

这些解释变量固然重要,但是并不能使我们准确地预测农作物的收成。

确定性关系:函数关系。

例如物理学中的各种定律。

)/(221r m m k F回归与因果关系❑回归分析研究因变量对于解释变量的统计依赖关系,但并不一定意味着因果关系。

一个统计关系式,不管多强和多么具有启发性,都永远不能确立因果联系。

❑因果关系的确立必须来自于统计关系以外,最终来自于这种或那种理论(先验的或是理论上的)。

回归分析与相关分析(一)❑相关分析:用相关系数测度变量之间的线性关联程度。

例如:测度统计学成绩和高等数学成绩的的相关系数。

假设测得0.90,说明两者存在较强的线性相关。

❑回归分析:感兴趣的是,如何从给定的解释变量去预测因变量的平均取值。

例如:给定一个学生的高数成绩为80分,他的统计学成绩平均来说应该是多少分。

回归分析与相关分析(二)❑在相关分析中,对称地对待任何两个变量,没有因变量和解释变量的区分。

而且,两个变量都被当作随机变量来处理。

❑在回归分析中,因变量和解释变量的处理方法是不对称的。

因变量被当作是统计的,随机的。

而解释变量被当作是(在重复抽样中)取固定的数值,是非随机的。

(把解释变量假定为非随机,主要是为了研究的便利,在高级计量经济学中,一般不需要这个假定。

)双变量回归模型(一元线性回归模型)双变量回归模型(最简单的回归模型)模型特点因变量(Y)仅依赖于唯一的一个解释变量(X)。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

2 经典线性回归模型§2.1 概念与记号1.线性回归模型是用来描述一个特定变量y 与其它一些变量x 1,…,x p 之间的关系。

2. 称特定变量y 为因变量 (dependent variable )、 被解释变量 (explained variable )、 响应变量(response variable )、被预测变量(predicted variable )、回归子 (regressand )。

3.称与特定变量相关的其它一些变量x 1,…,x p 为自变量(independent variable )、 解释变量(explanatory variable )、控制变量(control variable )、预测变量 (predictor variable )、回归量(regressor )、协变量(covariate )。

4.假定我们观测到上述这些变量的n 组值:() ip i i x x y , , , 1 L (i=1,…,n)。

称 这n 组值为样本(sample )或数据(data )。

§2.2 经典线性回归模型的假定假定 2.1(线性性(linearity))iip p i i x x y e b b b + + + + = L 1 1 0 (i=1,…,n)。

(2.1)称方程(2.1)为因变量y 对自变量x 1,…,x p 的线性回归方程(linear regression equation ),其中 ( ) p , k k , , 1 0 L = b 是待估的未知参数(unknown parameters ),( ) n i i , , 1 L = e 是满足一定限制条件的无法观测的误差项(unobserved error term ) 。

称自变量的函数 ip p i x x b b b + + + L 1 1 0 为回归函数(regression function )或简称为回归 (regression )。

称 0 b 为回归的截距(ntercept),称 ( ) p k k , , 1 L = b 为自变量的回归系数 (regression coefficients ) 。

某个自变量的回归系数表示在其它条件保持不变的情况下,这个自变量变化一个单位对因变量的影响程度, 这个影响是在排除其它自变量的影 响后,这个自变量对因变量的偏效应。

下面引入线性回归方程的矩阵表示。

记( ) Tp b b b b , , , 1 0 L = (未知系数向量(unknown coefficient vector )) ( ) T ip i i x x x , , ~ 1 L = , ( ) T ip i i x x x , , , 1 1 L = ,则iTi i x y e b + = (i=1,…,n)。

又记X = ÷ ÷ ÷ øö ç ç ç è æ np p n x x x x M L L L M M 1 1 11 1 1 , Y = ÷ ÷ ÷ ø ö ç ç ç è æ n y y M 1 , ÷ ÷ ÷ø ö ç ç ç è æ = n e e e M 1 ,则 eb + = X Y 假定2.2(严格外生性(strictly exogeneity))( ) ( )np n p i n i x x x x E x x E , , , , , , | ~, , ~| 1 1 11 1 L L L L e e = =0 (i=1,…,n)。

严格外生性的含义 ·误差项的无条件期望为零( ) 0 = i E e(i=1,…,n)。

·正交条件(orthogonality conditions )( ) ( ) ( ) 0 ~ 1 = ÷ ÷ ÷ øö ç ç ç è æ = i jp i j i j x E x E x E e e e M (i=1,…,n ; j=1,…,n )。

·不相关条件(zero­correlation conditions )( ) 0, cov = jk i x e (对所有i ,j ,k)。

由以上严格外生性的含义可知,如果在时间序列数据中存在的滞后效应 (lagged effect )和反馈效应(feetback effect ) ,那么严格外生性条件就不成立。

因而,在严格外生性假定下推出的性质就不能用于这类时间序列数据。

滞后效应是指 自变量历史值对因变量当前值的影响, 反馈效应是指因变量当前值对自变量未来值 的影响。

假定2.3(无多重共线性(no multicollinearity))n×(p+1)矩阵X的秩为(p+1)的概率为1。

假定2.4(球面误差方差(spherical error variance))( ) nn I x x Var 21 ~, , ~| s e = L ·条件同方差(conditional homoskedasticity )( )0 ~ , , ~| 2 1 2 > =s e ni x x E L (i=1,…,n)。

(误差方差) ·误差项不相关(no correlation between error term )( )0 ~ , , ~| 1 = nj i x x E L e e (对所有i≠j) 在经典线性回归模型的四个假定中,假定2.1和假定2.3是必不可少的,但假定 2.2和假定2.4中的严格外生性、条件同方差和误差项不相关以后可以适当放宽。

§2.3 随机样本的经典线性回归模型若样本( )Ti i x y ~, (i=1,…,n)为IID ,那么假定2.2和假定2.4可简化为 假定2.2: ( ) 0~| = i i x E e (i=1,…,n) 假定2.4: ( ) 0~| 22 > =s e i i x E (i=1,…,n) §2.4 确定性自变量的经典线性回归模型若更进一步假定自变量x 1,…,x p 为确定性的变量,那么假定2.2和假定2.4可 进一步简化为假定2.2: ( ) 0 = i E e(i=1,…,n)假定2.4: ( ) nI Var 2 s e = §2.5 最小二乘估计量及其代数性质虽然我们无法直接观测到误差项, 但对未知系数向量β的一个假想值 (hypotheticalvalue )b ~,容易计算出ipp i i x x y b b b ~~ ~ 1 1 0 - - - - L 称这个量为第i 次观测的残差(residual ),并且称使残差平方和(residual sum of squares )( )( ) å = - - - - = ni ipp i i x x y Q 12 1 1 0 ~ ~ ~ ~b b b b L =( ) ( )b b ~~ X Y X Y T - - 达到最小的假想值:为未知系数向量β的普通最小二乘估计量(ordinary least squares estimators ),简记 为OLS 估计量。

下面介绍OLS 估计量的一些代数性质。

·一阶条件(first­order conditions )( ) 0= - Xb Y X T (正规方程(normal equations ))·β的OLS 估计量:在假定2.3成立时()÷ øö ç è æ ÷ ø ö ç è æ = = å å = - = -ni i i n i T i i TTy x n x x n Y X X X b 1 11 1 1 1 ·估计量的抽样误差(sampling error ): ( ) eb T T X X X b 1- = - ·第i 次观测的拟合值(fitted value ): bx y Ti i = ˆ ·拟合值向量(vector of fitted value ): ( ) HYY X X X X Xb Y T T º = = -1ˆ ·投影矩阵(projection matrix ): ( ) T T XX X X H º (对称幂等,秩为p+1,HX=X ) ·第i 次观测的OLS 残差(OLS residual ): i i Ti i i yy b x y e ˆ - = - = ( )b b~ min arg ~Q b =·残差向量(vector of OLS residuals ):e=Y­Xb= Y Y ˆ - =(I­H)Y≡MY eM = ·零化子(annihilator ):M=I n – H (对称幂等,秩为n­p­1,MX=0)·一阶条件: 0 = e X T,即 01 1= å = ni i i e x n ( ( ) 0 = i i x E e )·OLS 估计的几何意义: e Ye Xb Y + = + = ˆ L(X)·残差平方和(residuals sum of squares )RSS= e e M MY Y e e T T T= = ,(其自由度为n­p­1)·σ 2的OLS 估计量RMSp n RSSs º - - =12 (残差均方,residual mean square )·回归(方程)标准误(standard error of the regression (equation))1- - =p n RSS s (残差标准误,residual standard error)·平方和分解公式当回归方程包含常数项时,可以证明称这个等式为平方和分解公式。

记YeYˆ e e Y YY Y T T T + = ˆ ˆ ( ) ( ) å å å = = = + - = - ni ini ini ie y yy y 121212ˆ( ) Y n I Y y y SST T T ni i ÷ ø öçè æ - = - º å =ii 1 1 2 (称为总平方和,其自由度为n­1) (其中, ( ) T 1 , , 1L = i 表示每个元素均为1的n 维向量)( ) RSS SST yy SS ni i reg - = - º å =1 2ˆ (称为回归平方和,其自由度为p ) 则平方和分解公式又可写成:,(n­1)=p+(n­p­1)。

相关文档
最新文档