最小二乘估计量的性质

合集下载

超定方程组的最小二乘解原理

超定方程组的最小二乘解原理

超定方程组,又称为过定方程组,是线性代数中的一个概念。

当方程组的未知数数量少于方程数量时,该方程组就被称为超定方程组。

由于超定方程组通常没有精确解,我们常常会寻求一个近似解,使得所有方程的残差平方和最小。

这就是最小二乘解的原理。

一、最小二乘解的基本概念最小二乘法是一种数学优化技术,它通过最小化误差的平方和来寻找数据的最佳函数匹配。

利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和最小。

最小二乘法还可用于曲线拟合,其他一些优化问题也可通过最小化能量或最大化熵用最小二乘法来表达。

二、超定方程组的性质对于超定方程组,由于方程数量多于未知数数量,因此通常不存在一个解能够使得所有方程同时成立。

这种情况下,我们需要寻找一个近似解,即一个解,使得所有方程的残差(即方程的实际值与解代入方程后得到的计算值之间的差)的平方和最小。

三、最小二乘解的原理最小二乘解的原理就是基于上述思想,通过最小化残差平方和来寻找超定方程组的近似解。

具体步骤如下:构建残差平方和函数:首先,我们需要构建一个表示残差平方和的函数。

假设超定方程组有(m) 个方程,(n) 个未知数((m > n)),未知数的向量记作(\mathbf{x} = (x_1, x_2, \ldots, x_n)^T),方程组的系数矩阵记作(\mathbf{A} = (a_{ij})_{m \times n}),常数项向量记作(\mathbf{b} = (b_1, b_2, \ldots, b_m)^T)。

那么,残差向量可以表示为(\mathbf{r} = \mathbf{A}\mathbf{x} - \mathbf{b}),残差平方和函数可以写为(S(\mathbf{x}) = \mathbf{r}^T\mathbf{r} = (\mathbf{A}\mathbf{x} - \mathbf{b})^T(\mathbf{A}\mathbf{x} - \mathbf{b}))。

计量经济学名词解释和简答题

计量经济学名词解释和简答题

计量经济学 第一部分:名词解释第一章1、模型:对现实的描述和模拟。

2、广义计量经济学:利用经济理论、统计学和数学定量研究经济现象的经济计量方法的统称,包括回归分析方法、投入产出分析方法、时间序列分析方法等。

3、狭义计量经济学:以揭示经济现象中的因果关系为目的,在数学上主要应用回归分析方法。

第二章1、总体回归函数:指在给定Xi 下Y 分布的总体均值与Xi 所形成的函数关系(或者说总体被解释变量的条件期望表示为解释变量的某种函数)。

2、样本回归函数:指从总体中抽出的关于Y ,X 的若干组值形成的样本所建立的回归函数。

3、随机的总体回归函数:含有随机干扰项的总体回归函数(是相对于条件期望形式而言的)。

4、线性回归模型:既指对变量是线性的,也指对参数β为线性的,即解释变量与参数β只以他们的1次方出现。

5、随机干扰项:即随机误差项,是一个随机变量,是针对总体回归函数而言的。

6、残差项:是一随机变量,是针对样本回归函数而言的。

7、条件期望:即条件均值,指X 取特定值Xi 时Y 的期望值。

8、回归系数:回归模型中βo ,β1等未知但却是固定的参数。

9、回归系数的估计量:指用01,ββ等表示的用已知样本提供的信息所估计出来总体未知参数的结果。

10、最小二乘法:又称最小平方法,指根据使估计的剩余平方和最小的原则确定样本回归函数的方法。

11、最大似然法:又称最大或然法,指用生产该样本概率最大的原则去确定样本回归函数的方法。

12、估计量的标准差:度量一个变量变化大小的测量值。

13、总离差平方和:用TSS 表示,用以度量被解释变量的总变动。

14、回归平方和:用ESS 表示:度量由解释变量变化引起的被解释变量的变化部分。

15、残差平方和:用RSS 表示:度量实际值与拟合值之间的差异,是由除解释变量以外的其他因素引起的被解释变量变化的部分。

16、协方差:用Cov (X ,Y )表示,度量X,Y 两个变量关联程度的统计量。

17、拟合优度检验:检验模型对样本观测值的拟合程度,用2R 表示,该值越接近1,模型对样本观测值拟合得越好。

最小二乘法估计量的性质(高斯—马尔可夫定理的初步证明)

最小二乘法估计量的性质(高斯—马尔可夫定理的初步证明)

高斯—马尔可夫定理:若一元线性模型满足计量经济基本假设,则参数的最小二乘估计(OLS)是最小方差的线性无偏估计。

(BLUE )最小二乘法估计量OLS 的性质(高斯—马尔可夫定理的初步证明)1.线性性:0ˆβ和1ˆβ都是i y 的线性函数证明:ini nj j i n j jni iiy x x x x x x y x x∑∑∑∑====--=--=1121211)()()()(ˆβΘ ;令∑=--=nj ji i x xx x k 12)()(则有i ni i y k ∑==11ˆβ ,且有=∑ik,1=∑ii xk ,∑∑=-=ni ii x xk 122)(1从而1ˆβ是i y 的线性函数;同理,0ˆβ==-x y 1ˆβi i i i n i i y k x n y k x y n ∑∑∑⎪⎭⎫⎝⎛-=-=111令i i k x nw ⋅-=1,则有:i i y w ∑=0ˆβ,即0ˆβ也是iy 的线性函数。

另有:1=∑iw ,0=∑ii xw2. 无偏性:0ˆβ和1ˆβ都是0β、1β的无偏估计量; 即有:(),ˆ0ββ=E ()11ˆββ=E证明:先证()11ˆββ=EΘ ()i i i i n i i u x k y k ++==∑∑=1011ˆβββ, 又Θ0=∑ik,1=∑i i x k()∑∑∑=++===i i i i i ni i k u x k y k 01011ˆββββ+∑∑+i i i i u k x k 1β =∑+i i u k 1β()()1101ˆββββ=++⋅=∑∑∑i i i i i u E k x k k E(因为:0=∑ik,1=∑i i x k )同理,利用1=∑i w 和0=∑i i x w 可证得(),ˆ00ββ=E3. 最优性或最小方差性:在所有的线性无偏估计中,0ˆβ和1ˆβ分别是0β、1β的方差最小的有效估计量 证明:若1~β是原值1β的一个线性无偏估计(方差条件不限),且记∑=i i y c 1~β(∵线性估计),再根据无偏估计的特性,有:∑∑==1,0i i ix c c。

第一章最小二乘估计及其性质

第一章最小二乘估计及其性质

以 x1 代表相对水位, x2 代表温度, y 代表径向形变量。利用 SAS 软件(见文献[3]),
计算得回归方程为
yˆ = 20.778-1.148x1 -0.0182x2 .
(1.18)
通过检验,发现回归方程是显著的, x1 对 y 有显著性影响,但 x2 的回归系数不显著,故该
模型不能合理拟合变形量数据。另外,我们对残差(见图 1)进行分析,发现模型中有非线性 关系,故模型(1.18)中应增加二次项。
切向与径向定义为切向 (t ) 、径向 ( r ) 坐标系,其监测日期和监测数据见表 2。
序号
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
表 2. 原始监测数据
日期
相对水位/mm
温度/℃
2001/12/31
9.750
14.5
2001/01/01
称为中心化.若记 则(1.11)式可改写为
æ x11 - x1 x12 - x2 L x1, p-1 - x p-1 ö
Xc
=
ç ç ç
x21 M
x1
x22 - x2 M
L
x2,
p
-1
-
x p -1
÷ ÷

ççè xn1 - x1 xn2 - x2 L xn, p-1 - xp-1 ÷÷ø
(1.12)
-0.5
9.450
11.6
2001/01/02
9.270
9.2
2001/01/03
9.020
12.8
2001/01/05
8.360
13.6
2001/01/06
8.010

3、计量经济学【一元线性回归模型——参数估计】

3、计量经济学【一元线性回归模型——参数估计】

ˆ Y i
(8) 651.8181 753.6363 855.4545 957.2727 1059.091 1160.909 1262.727 1364.546 1466.364 1568.182 11100
ˆ ei Yi Y i
(9)=(2)-(8) 48.18190 -103.6363 44.54550 -7.272700 40.90910 -10.90910 -62.72730 35.45450 83.63630 -68.18190

假设 5:随机误差项服从 0 均值,同方差的正态 分布,即

2 i ~ N (0, ), ,,,,,,,,, ,, i 1,2, n
以上这些假设称为线性回归模型的经典假
设,满足这些假设的线性回归模型,也称为 经典线性回归模型(classical linear regression model)。在回归分析的参数估计和统计检验 理论中,许多结论都是以这些假定作为基础 的。如果违背其中的某一项假定,模型的参 数估计就会存在问题,也就是说最小二乘法 (OLS)就不再适用,需对模型进行修正或 采用其他的方法来估计模型了。
二、参数的普通最小二乘估计(OLS) 三、最小二乘估计量的性质 四、参数估计量的概率分布及随机误差项
方差的估计

给出一元线性回归模型的一般形式:
Yi 0 1 X i i ,,,, , i 1, 2, ,n
其中 Yi :被解释变量,X i :解释变量,0 和 1 :待估参 数; i :随机误差项;
ei2
(10) 2321.495 10740.48 1984.302 52.89217 1673.554 119.0085 3934.714 1257.022 6995.031 4648.771 33727.27

2.2 最小二乘的估计性质

2.2  最小二乘的估计性质

ˆ ) E ( k ) k E ( ) E( i i 1 i i 1 1 1
同样地,容易得出
ˆ ) E ( w ) E( ) w E ( ) E( i i i i 0 0 0 0
3、有效性(最小方差性) , 即在所有线性无偏估计量
2
x nX n x
2 i 2 i
2
2
X n x
2 i i
2 2
(2)证明最小方差性
ˆ * 是其他估计方法得到的关于 的线性无偏估计量: 假设 1 1
ˆ* c Y ii 1
其中,ci=ki+di,di为不全为零的常数
则容易证明
ˆ * ) var( ˆ) var( 1 1
ˆ + ˆ Xi + ei • (2) 估计的统计模型 : Yi= 0 1
• (3) 真实的回归直线:E(Yi) = 0 + 1 Xi
ˆ = ˆ + ˆ Xi • (4) 估计的回归直线: Y i 0 1
二、参数估计量的概率分布及随机误差 项方差的估计
ˆ 的概率分布 ˆ 和 1、参数估计量 0 1
2 1 x 1 1 2 2 2 Xk i X 2 k i2 2 X k i X 2 i 2 x n n n n i 2
2
2 1 X n x2 i
高斯—马尔可夫定理(Gauss-Markov theorem)
在给定经典线性回归的假定下,最小二乘估计 量是具有最小方差的线性无偏估计量。
ˆ 证: 1
x y x
i 2 i

一元线性回归的最小二乘估计

一元线性回归的最小二乘估计

3. 高斯--马尔柯夫定理(Gauss--Markov Theorem)
对于满足统计假设条件(1)--(4)的线性回归模型 Yt = + Xt + ut , ,普通最小二乘估计量 ( OLS估 计量) 是最佳线性无偏估计量(BLUE)。 或 对于古典线性回归模型(CLR模型)Yt=α+β+Xt , 普通最小二乘估计量(OLS估计量)是最佳线性无 偏估计量(BLUE)。
最小二乘法就是选择一条直线,使其残差平方和 ,使得 ˆ和 达到最小值的方法。即选择 α
ˆ )2 S et (Yt Y t
2
ˆX ) 2 ˆ (Yt t
达到最小值。
运用微积分知识,使上式达到最小值的必要条件为:
S S 0 ˆ ˆ
两边取期望值,得:
ˆ )2 E (
1 2 2 [ x E ( i ) xi x j E ( i j )] 2 2 i ( xt ) i j
由于 E( t )=
2
2
, t=1,2,…,n
——根据假设(3) ——根据假设(2)
E( i j )=0, i≠j
ˆ
xy 390 0.39,ˆ Y ˆ * X 22 0.39 * 30 10.3 x 1000
Eviews 创建工作文件,输入数据并进行回归:
Create u 1 5
data x y ls y c x
三、 最小二乘法估计量的性质 ˆ 和 ˆ 的均值 1.
2 1 2 2 2 ˆ E ( ) ( x 0) ∴ 2 2 i 2 ( xt ) x t 2 ˆ) 即 Var ( 2 x t

最小二乘估计量的性质

最小二乘估计量的性质

第三节 最小二乘估计量的性质三大性质:线性特性、无偏性和最小偏差性 一、 线性特性的含义线性特性是指参数估计值1ˆβ和2ˆβ分别是观测值t Y 或者是扰动项t μ的线性组合,或者叫线性函数,也可以称之为可以用t Y 或者是t μ来表示。

1、2ˆβ的线性特征证明 (1)由2ˆβ的计算公式可得: 222222()ˆt tttt ttttttt tt tt x y x Y x Y xxx xx x x x β--===⎛⎫== ⎪ ⎪⎝⎭∑∑∑∑∑∑∑∑∑∑∑Y Y Y Y需要指出的是,这里用到了因为t x 不全为零,可设2tt tx b x =∑,从而,t b 不全为零,故2ˆt t b β=∑Y 。

这说明2ˆβ是t Y 的线性组合。

(2)因为12t t t Y X ββμ=++,所以有()212122ˆt t t t t t t t t t t tb b X b b X b b βββμββμβμ==++=++=+∑∑∑∑∑∑Y这说明2ˆβ是t μ的线性组合。

需要指出的是,这里用到了220t t t t t x x b x x ===∑∑∑∑∑以及 ()2222222201t t tt t t tt ttttttttx x X x b X X x x x x X x X x x x x x⎛⎫+⎪== ⎪⎝⎭++==+=∑∑∑∑∑∑∑∑∑∑∑∑∑2、1ˆβ的线性特征证明 (1)因为12ˆˆY X ββ=-,所以有 ()121ˆˆ1t t t t tY X Y X b nXb n ββ=-=-⎛⎫=- ⎪⎝⎭∑∑∑Y Y这里,令1a Xb n=-,则有1ˆt a β=∑Y 这说明1ˆβ是t Y 的线性组合。

(2)因为回归模型为12t t t Y X ββμ=++,所以()11212ˆt t t t t t t t t ta a X a a X a βββμββμ==++=++∑∑∑∑∑Y因为111t t t a Xb X b nn⎛⎫=-=-=⎪⎝⎭∑∑∑∑。

计量经济学简答

计量经济学简答
答:(1)计算DW值
(2)给定a,由n和k的大小查DW分布表,得临界值dL和dU
(3)比较、判断
若0<D.W.<dL,存在正自相关
dL<D.W.<dU,不能确定
dU <D.W.<4-dU,无自相关
4-dU <D.W.<4-dL,不能确定
4-dL <D.W.<4 , 存在负自相关
分布滞后模型使用OLS法存在以下问题:(1)对于无限期的分布滞后模型,由于样本观测值的有限性,使得无法直接对其进行估计σ。(2)对于有限期的分布滞后模型,使用OLS方法会遇到:没有先验准则确定滞后期长度,对最大滞后期的确定往往带有主观随意性;如果滞后期较长,由于样本容量有限,当滞后变量数目增加时,必然使得自由度减少,将缺乏足够的自由度进行估计和检验;同名变量滞后期之间可能存在高度线性相关,即模型可能存在高度的多重共线性。
5、计量经济学模型主要有哪些应用领域?各自的原理是什么?
答:计量经济学模型主要有以下几个方面的用途:
⑴。结构分析,其原理是弹性分析、乘数分析与比较分析;
⑵。经济预测,其原理是模拟历史,从已经发生的经济活动中找出变化规律;
⑶。政策评价,是对不同政策执行情况的“模拟仿真”;
⑷。检验与发展经济理论,其原理是如果按照某种经济理论建立的计量经济学模型可以很好地拟合实际观察数据。
5、简述变量显著性检验的步骤。
答:(1)对总体参数提出假设: H0:b1=0, H1:b110。
(2)以原假设H0构造t统计量,并由样本计算其值:
(3)给定显著性水平a,查t分布表得临界值t a/2(n-2)
(4)比较,判断
若 |t|> t a/2(n-2),则拒绝H0 ,接受H1 ;

计量经济学 普通最小二乘法估计量

计量经济学 普通最小二乘法估计量


[
1 N

x2 (xi x)2
x2f (xi
x)2

2xx f (xi
x)2
1]
2
1
[N
(x (xi
xf )2 x)2
1]
2
2、预测E(yf)
以 yˆ f ˆ0 ˆ1xf 作为对E(yf)的预测。预
测误差是:
e2 E( y f ) yˆ f (0 ˆ0) (1 ˆ1)xf
1、预测yf
以 yˆ f ˆ0 ˆ1xf 作为对yf的预测。此时预测 误差是: e1 y f yˆ f (0 ˆ0) (1 ˆ1)xf f 显然,E(e1)=0。
Var(e1) Var(ˆ0 ) x2fVar(ˆ1) 2x f Cov(ˆ0, ˆ1) Var( f )
普通最小二乘法估计量
例2:假设真实模型为 y 0 1x
0, 1为待估参数,最小二乘法的参数估计量为
ˆ1
(xi x ) yi (xi x )2
; ˆ0

y

ˆ1x
既然估计量是随机的,那么我们需要分析随机
变量的统计性质,了解它的分布。另外0, 1 真

cov ki yi , (wi ki )yi


ki (wi ki ) 2
0



var wi yi var ki yi (wi ki )yi




var ki yi var (wi ki )yi var ki yi
假定2:在重复抽样中,(x1, x2,..., xN )被预先 固定下来,即(x1, x2,..., xN )是非随机的,显 然,如果解释变量含有随机的测量误差, 那么该假定被违背。还存其他的违背该 假定的情况。

真题考试:2021 计量经济学真题及答案(2)

真题考试:2021 计量经济学真题及答案(2)

真题考试:2021 计量经济学真题及答案(2)共97道题1、若计算的DW统计量小于,则表明该模型()(单选题)A. 不存在一阶序列相关B. 存在一阶正序列相关C. 存在一阶负序列相关D. 存在高阶序列相关试题答案:B2、对经济计量模型进行检验的计量准则主要有()(多选题)A. WHITE(怀特)检验B. F检验C. DW检验D. t检验E. VIF(方差膨胀因子)检验试题答案:A,C,E3、题目(单选题)A.B.C.D.试题答案:D4、真实的回归模型为,但是在回归分析时使用的模型为,漏掉了重要解释变量X3,则会使的最小二乘估计(单选题)A. X3与X2相关时有偏B. X3与X2相关时无偏C. 无偏D. 有偏试题答案:A5、在对数线性模型度量了(单选题)A. X踱动1%时,Y变动的百分比B. Y动1%时,X动的百分比C. X变动一个单位时,Y动的数量D. Y动一个单位时,X变动的数量试题答案:A6、以下关于DW检验的说法,不正确的有(多选题)A. 要求样本容量较大B. 一1≤DW≤1C. 可用于检验高阶序列相关D. 能够判定所有情况E. 只适合一阶线性序列相关试题答案:B,C,D7、多元回归模型中F检验的原假设为()(单选题)A. 偏回归系数全为0B. 所有回归系数为0C. 常数项为0D. 偏回归系数都不为0试题答案:A8、判定系数R2是表示()(单选题)A. 模型对总体回归线的拟合程度B. 模型对样本观测值的拟合程度C. 模型对回归参数的拟合程度D. 模型对被解释变量的观测值的拟合程度试题答案:B9、相关系数r的取值范围为()(单选题)A. -2≤r≤2B. -l≤r≤1C. O≤r≤lD. 0≤r≤4试题答案:B10、工具变量法只适用于下列哪种结构方程的参数估计?() (单选题)A. 恰好识别的结构方程B. 过度识别的结构方程C. 不可识别的结构方程D. 充分识别的结构方程试题答案:A11、对于满足经典假定的部分调整模型,最小二乘法估计量的特征为()(多选题)A. 有偏B. 无偏C. 非一致D. 一致E. 方差最小试题答案:A,D,E12、以下关于DW检验的说法,正确的有()(多选题)A. DW=0表示完全一阶正自相关B. DW=2表示无自相关C. DW=4表示完全一阶负自相关D. DW=1表示完全正自相关E. DW=-1表示完全负自相关试题答案:A,B,C13、若计算的DW统计量小于,则表明该模型()(单选题)A. 不存在一阶序列相关B. 存在一阶正序列相关C. 存在一阶负序列相关D. 存在高阶序列相关试题答案:B14、下列哪种情况说明存在异方差(单选题)A.B.C.D.试题答案:D15、当研究者将消费模型设定为则他所依据的经济学理论假设为()(单选题)A. 绝对收入假设B. 生命周期假设C. 持久收入假设D. 相对收入假设试题答案:A16、方差膨胀因子法适用于检验()(单选题)A. 序列相关B. 异方差C. 多重共线性D. 设定误差试题答案:C17、多元回归模型未通过整体显著性F检验,则可能的原因为()(多选题)A. 模型有异方差B. 解释变量间有严重的共线性C. 解释变量对被解释变量都没有影响D. 模型有自相关E. 因差分等原因使得解释变量的变异太小试题答案:C,E18、根据判定系数R2与F统计量的关系可知,当R2=1时,有(单选题)A. F=1B. F=-1C. F=0D. F=∞试题答案:D19、在线性回归模型中,若解释变量X和误差项U相关,则表明模型中存在() (单选题)A. 异方差B. 随机解释变量C. 序列相关D. 设定误差试题答案:B20、对回归模型进行显著性检验时所用的F统计量可表示为(多选题)A.B.C.D.E.试题答案:B,C21、多元回归模型未通过整体显著性F检验,则可能的原因为()(多选题)A. 模型有异方差B. 解释变量间有严重的共线性C. 解释变量对被解释变量都没有影响D. 模型有自相关E. 因差分等原因使得解释变量的变异太小试题答案:C,E22、设,D=1代表城镇居民,D=0代表农村居民,则屏的含义为() (单选题)A. 城镇居民与农村居民的平均收入差距B. 城镇居民之间的平均收入差距C. 城镇居民的平均收入D. 农村居民之间的平均收入差距试题答案:A23、工具变量法可以解决的问题是() (单选题)A. 异方差问题B. 序列相关问题C. 多重共线性问题D. 内生解释变量问题试题答案:D24、一元回归模型回归系数未通过t检验,表示()(单选题)A.B.C.D.试题答案:A25、最可能出现异方差的样本数据类型是()(单选题)A. 时间序列数据B. 虚拟变量数据C. 截面数据D. 混合数据试题答案:C26、设啤酒消费支出,Xi=居民收入,D=1代表城镇居民,D=0代表农村居民,要研究居住地对啤酒消费的影响,应选用的模型为()(单选题)A.B.C.D.试题答案:D27、在线性回归模型中,无完全共线性表示()(单选题)A.,u无线性关系B.与u无线性关系C.无线性关系D.,u无线性关系28、DW检验适用于检验()(单选题)A. 异方差B. 序列相关C. 多重共线性D. 设定误差试题答案:B29、如果一个回归模型包含截距项,对一个具有4个特征的质的因素需要引入的虚拟变量个数为(单选题)A. 4B. 3C. 2D. 1试题答案:B30、最小二乘准则是指(单选题)A.随机误差项的平方和最小B.与它的期望值的离差平方和最小C.与它的均值的离差平方和最小D.残差的平方和最小31、以下关于DW检验的说法,不正确的有(多选题)A. 要求样本容量较大B. 一1≤DW≤1C. 可用于检验高阶序列相关D. 能够判定所有情况E. 只适合一阶线性序列相关试题答案:B,C,D32、设0LS法得到的样本回归直线为,最小二乘估计量方差最小是()(单选题)A. Y的方差最小B. X的方差最小C. 残差的方差最小D. 回归系数估计量的方差最小试题答案:D33、如果回归模型中解释变量之间存在严重的多重共线性,则方差膨胀因子为() (单选题)A. 小于5B. 大于5C. 小于0D. 在0,1之间试题答案:B34、进行怀特异方差检验时拒绝原假设,则表明() (单选题)A. 解释变量X存在异方差B. 解释变量X不存在异方差C. 随机误差项u不存在异方差D. 随机误差项u存在异方差试题答案:D35、对回归模型进行显著性F检验,备择假设为和不同时为0。

2-最小二乘估计

2-最小二乘估计

,当样本较大时,BIC 的惩罚力度更大。
如果接受比较的模型之间是非嵌套的(即不存在某个模型是另一个模型的约
束形式),并且只有一个是正确设定的,则当样本足够大时,AIC 和 BIC 准则总
是可以挑选出正确的模型,但此时挑选的结果与使用最小残差平方和为准则的结
果一样;当接受比较的两个模型之间是嵌套的,并且简单模型是正确设定的,即
理解为在普通的
的基础上考虑进新增变量的 t 统计
值的影响,那么适当的修改调整的 的计算公式,我们甚至可以使得当新增变 量比较显著性(t 统计值绝对值大于 2),调整的 会上升。
为此,调整的 的计算公式可修改如下:
(2-22)
其中,

与普通的调整 相比,上式中分母的调整系数为
,而不是

它体现了对新增变量显著性的考虑。上式对于我们理解 t 统计值与方程的 之 间的关系是很有帮助的;实际应用中,可先根据 t 统计值的大小消除不显著的变
其中,s 称为回归标准误(Standard error of the regression)。
的估计, (2-5)
2.1.3 拟合能力
不妨记 Y 的拟合值(或估计值)为
,则有
其中, 和 为相互正交的对称幂等矩阵。
注意到
,因此必有

至此,可知 LS 估计的作用相当于把变量 Y 中所有关于 X 的影响通过正交
第 4 页 共 29 页
最小二乘估计
另外两个常用于比较模型优劣的准则3为 AIC 和 BIC 准则,计算如下: (2-9) (2-10)
其中,
, 为对数似然函数值。
AIC 或 BIC 越小意味着回归模型设定越好。 比较式(2-9)和(2-10)可知,AIC 和 BIC 准则对于新增解释变量的惩罚

参数的最小二乘法估计

参数的最小二乘法估计
最小二乘法的目标是找到一组模型参数,使得模 型预测值与观测值之间的误差平方和最小。
最小二乘法的应用领域
回归分析
在统计学中,最小二乘法被广泛应用 于线性回归分析,用于估计回归模型 的参数。
01
工程领域
最小二乘法在工程领域也有广泛应用, 例如用于参数估计、系统辨识、控制 设计等任务。
05
02
曲线拟合
最小二乘法可用于拟合曲线,例如多 项式曲线、指数曲线等,以描述数据 之间的关系。
有效性
在所有无偏估计量中,最小二乘法估计量具有最小的方差,因此是有效的。
有效性意味着在同样的样本量下,最小二乘法估计量能够提供更精确的参数估计,减少估计误差。
05
最小二乘法估计的优缺点
优点
无偏性
一致性
在满足一定的假设条件下,最小二乘法估 计量是参数的真实值的无偏估计,即估计 量的期望值等于参数的真实值。
最小二乘法估计量是样本数据的线性 组合,其期望值等于总体参数的真实 值,因此具有无偏性。
无偏性意味着在多次重复抽样和估计 过程中,估计量的平均值将接近参数 的真实值。
一致性
随着样本量的增加,最小二乘法估计 量的值将逐渐接近参数的真实值,具 有一致性。
VS
一致性保证了在大样本情况下,最小 二乘法估计量能够给出相对准确的参 数估计。
对于非线性模型,可以通过变量变换 或引入非线性项,将其转化为线性模 型,再利用最小二乘法进行参数估计 。
在时间序列分析中的应用
趋势分析
通过最小二乘法拟合时间序列的趋势项,揭示时间序列的长期趋势和变化规律。
季节调整
对于具有季节性特征的时间序列,可以利用最小二乘法估计季节因子,进而对 原始序列进行季节调整。

2.2 一元线性回归模型的最小二乘估计

2.2 一元线性回归模型的最小二乘估计
一个用于考察总体的估计量,可从如下几个方 面考察其优劣性:
(1)线性性,即它是否是另一随机变量的线性 函数;
(2)无偏性,即它的均值或期望值是否等于总 体的真实值;
(3)有效性,即它是否在所有线性无偏估计量 中具有最小方差。
这三个准则也称作估计量的小样本性质。
拥有这类性质的估计量称为最佳线性无偏估计 量(best liner unbiased estimator, BLUE)。
3、有效性(最小方差性),即在所有线性无偏估计量
中,最小二乘估计量ˆ0 、 ˆ1 具有最小方差。
(1)先求ˆ0 与ˆ1 的方差
var(ˆ1) var( kiYi )
k
2 i
var( 0
பைடு நூலகம்

1X i

i
)

k
2 i
var(i
)


xi xi2
易知 故
ki
xi 0 xi2
ˆ1 1 ki i
ki Xi 1
E(ˆ1 ) E(1 ki i ) 1 ki E(i ) 1
同样地,容易得出
E(ˆ0 ) E(0 wi i ) E(0 ) wi E(i ) 0
二、参数的普通最小二乘估计(OLS)
给定一组样本观测值(Xi, Yi)(i=1,2,…n)要 求样本回归函数尽可能好地拟合这组值.
普通最小二乘法(Ordinary least squares, OLS) 给出的判断标准是:二者之差的平方和
n
n
Q (Yi Yˆi )2 (Yi (ˆ0 ˆ1 X i )) 2
为保证参数估计量具有良好的性质,通常对 模型提出若干基本假设。

计量经济学简答题及答案

计量经济学简答题及答案

计量经济学简答题及答案-CAL-FENGHAI.-(YICAI)-Company One1计量经济学简答题及答案1、比较普通最小二乘法、加权最小二乘法和广义最小二乘法的异同。

答:普通最小二乘法的思想是使样本回归函数尽可能好的拟合样本数据,反映在图上就是是样本点偏离样本回归线的距离总体上最小,即残差平方和最小∑=n i i e12min 。

只有在满足了线性回归模型的古典假设时候,采用OLS 才能保证参数估计结果的可靠性。

在不满足基本假设时,如出现异方差,就不能采用OLS 。

加权最小二乘法是对原模型加权,对较小残差平方和2i e 赋予较大的权重,对较大2i e 赋予较小的权重,消除异方差,然后在采用OLS 估计其参数。

在出现序列相关时,可以采用广义最小二乘法,这是最具有普遍意义的最小二乘法。

最小二乘法是加权最小二乘法的特例,普通最小二乘法和加权最小二乘法是广义最小二乘法的特列。

6、虚拟变量有哪几种基本的引入方式 它们各适用于什么情况答: 在模型中引入虚拟变量的主要方式有加法方式与乘法方式,前者主要适用于定性因素对截距项产生影响的情况,后者主要适用于定性因素对斜率项产生影响的情况。

除此外,还可以加法与乘法组合的方式引入虚拟变量,这时可测度定性因素对截距项与斜率项同时产生影响的情况。

7、联立方程计量经济学模型中结构式方程的结构参数为什么不能直接应用OLS估计答:主要的原因有三:第一,结构方程解释变量中的内生解释变量是随机解释变量,不能直接用OLS 来估计;第二,在估计联立方程系统中某一个随机方程参数时,需要考虑没有包含在该方程中的变量的数据信息,而单方程的OLS 估计做不到这一点;第三,联立方程计量经济学模型系统中每个随机方程之间往往存在某种相关性,表现于不同方程随机干扰项之间,如果采用单方程方法估计某一个方程,是不可能考虑这种相关性的,造成信息的损失。

2、计量经济模型有哪些应用。

答:①结构分析,即是利用模型对经济变量之间的相互关系做出研究,分析当其他条件不变时,模型中的解释变量发生一定的变动对被解释变量的影响程度。

最小二乘法

最小二乘法

而最小方差估计由(4.65) 得 ψ Mv = E{[ X T (σ 2 I ) −1 X ]−1} = σ 2 E{( X T X ) −1} = ψ
ˆ 在满足一定噪声条件下 这说明 LSE 的估计 Θ
是一个最小方差估计, 即一个有效估计。 由此可知, LSE 是无偏的、有效的、一致的 4.5.5 最小二乘的局限性
i =1 n
列。以一阶系统为例,对于系统 y ( k ) = − ay ( k − 1) + bu ( k − 1) + ε (k ) ,ε ( k ) = v ( k ) + av ( k − 1) 。它的 最小二乘估计为
θˆ = ( X T X ) −1 X T Y ,
-3-
⎡ X T (1) ⎤ ⎢ T ⎥ X (2) ⎥ T ⎢ ˆ 其中 θ = [− a, b] , X = , X T (i ) = [ y (i ) u (i )] ⎢ M ⎥ ⎢ T ⎥ ⎢ X ( N )⎦ ⎥ ⎣ ⎡ N 2 ⎢ ∑ y (i ) θˆ = ⎢ Ni =1 ⎢ ⎢∑ y (i )u (i ) ⎣ i =1
= aσ 2
ˆ} ≠ Θ 。 可见,即使 E{v ( k )} = 0 ,因为一阶系统 ε (k ) 一步相关, Rεε (1) ≠ 0 ,所以 E{Θ
-4-
4.6 辅助变量法(IV) 设为有色噪声或相关序列,则因为
Y = XΘ + ε 所以它的 N 次观测 (N>2n) 后的最小二乘估计为
ˆ = ( X T X ) −1 X T Y = Θ + ( X T X ) −1 X T ε Θ
2 (0) 其中 Δ = R yy (0) Ruu (0) − Ruy
R yy (1) = E[ y ( k + 1) y ( k )]

最小二乘估计的特点

最小二乘估计的特点

最小二乘估计的特点
1.理论上可行:最小二乘估计是一种基于数学原理的估计方法,其在理论上是可行的。

通过求解模型中的估计参数,可以得到最小化残差平方和的最优解。

2. 适用性广泛:最小二乘估计可以应用于各种类型的模型,包
括线性模型、非线性模型、多元模型等。

此外,该方法还可以用于处理有误差的测量数据,例如测量误差、观测误差等。

3. 稳健性强:最小二乘估计对于数据的异常值比较敏感,但是
可以通过使用一些统计方法来提高其稳健性,例如加权最小二乘估计、岭回归、lasso回归等。

4. 计算简单:最小二乘估计的计算比较简单,可以通过求解线
性方程组来得到估计参数的解。

此外,在计算过程中还可以使用矩阵运算来加速计算速度。

5. 非唯一性:最小二乘估计中,存在多组参数估计值可以使残
差平方和最小化。

此时需要根据实际情况来选择最合适的估计结果。

总之,最小二乘估计是一种非常重要的估计方法,在各种领域都有着广泛的应用。

它的特点包括理论可行、适用性广泛、稳健性强、计算简单和非唯一性等。

- 1 -。

最小二乘估计的性质

最小二乘估计的性质

最小二乘估计的性质陈佳妮【摘要】估计线性模型中的回归参数的基本方法就是最小二乘法,鉴于最小二乘估计在实际生活中的作用及其地位,就最小二乘估计的性质进行分析.【期刊名称】《哈尔滨师范大学自然科学学报》【年(卷),期】2016(032)005【总页数】2页(P7-8)【关键词】线性模型;最小二乘估计;性质【作者】陈佳妮【作者单位】哈尔滨远东理工学院【正文语种】中文【中图分类】O212经典线性回归模型[1]自创立以来,无论是在医学,还是在科研中,亦或是实践中都得到了广泛的应用,并取得了相当大的成果.线性回归模型中的回归系数的估计问题一直是众多学者研究分析的课题,其中最原始也是最基本的估计方法就是“最小二乘估计”[2].最小二乘法是一种数学优化技术,又称作“小平方法”,它通过最小化误差的平方和寻找数据的最佳函数匹配,以达到最终解决问题的目的.作为回归参数估计的最基本方法,最小二乘估计在统计学、计算数学、运筹学以及控制论中都占有重要的地位.该文主要介绍最小二乘估计的基本方法,并对最小二乘估计的性质[3]进行研究.首先给出一个线性模型.因变量Y与对其有影响的m个自变量X1,X2,…,Xm具有如下的线性关系[4]:Y=β0+β1X1+…+βmXm+εyi=β0+β1xil+…+βmxim+εi,i=1,2,…,nY=Xβ+ε最小二乘估计具有很多优良的性质,正是因为如此,奠定了其在回归参数估计中的地位,本节主要介绍其几个重要性质.定理1 β的估计是β的无偏估计[6].证明若要证明是β的无偏估计,只需证明β.因为E(ε)=0,所以定理2 对于上述线性回归模型,若ε~N(0,σ2I),则有).证明对于上述定理1已经证明,现只需证明因为Cov(ε)=σ2I,则Cov(Y)=σ2I,那么因此有证毕.定理3 假设b为(m+1)×1的常数向量,那么对于线性函数b′β,称为b′β的最小二乘估计.那么有).证明因为b为(m+1)×1的常数向量,根据定理1有因此β.又因为根据定理那么定理4 残差平方和为RSS[7] ,则有是σ2的无偏估计.证明因为残差平方和E(RSS)=(n-m-1)σ2E(RSS)=E(Y′(I-X(X′X)-1X′)Y)=β′X′(I-X(X′X)-1X′)Xβ+tr((I-X(X′X)-1X′)σ2)=0+tr((I-X(X′X)-1X′)σ2)=(n-(m+1))σ2.线性回归模型无论在科学研究还是在实际生活中都具有重要作用,并且得到了广泛的应用,对其一般形式的研究是长期以来众多学者进行的一个课题,由此延伸出了二元线性回归模型乃至多元线性回归模型,甚至在地理航天领域也应用到了地理加权回归模型和时空地理加权回归模型等.对于经典线性回归模型的研究延伸就要深刻理解其中自变量、因变量和各个参数的意义,例如对于其中的误差项的研究十分重要,它可以减少外界或是内部造成的误差.该文对其中的参数向量β进行估计,运用了最基本的最小二乘法,并对最小二乘估计的几条性质进行证明.通过理论分析和验证可以得到,当误差项为等方差并且不相关时,对于线性回归模型中的参数β的最小二乘估计是它本身的无偏估计,因此是最优的估计,并且当给参数乘以一个常数向量时,它的无偏性不会发生改变.同时,该文给出了和参数估计有关的协方差和残差平方和有关的几个性质,可以在此基础上进一步延伸.。

总结:线性回归分析的基本步骤

总结:线性回归分析的基本步骤

线性回归分析的基本步骤步骤一、建立模型知识点:1、总体回归模型、总体回归方程、样本回归模型、样本回归方程 ①总体回归模型:研究总体之中自变量和因变量之间某种非确定依赖关系的计量模型。

Y X U β=+特点:由于随机误差项U 的存在,使得Y 和X 不在一条直线/平面上。

例1:某镇共有60个家庭,经普查,60个家庭的每周收入(X )与每周消费(Y )数据如下:作出其散点图如下:②总体回归方程(线):由于假定0EU =,因此因变量的均值与自变量总处于一条直线上,这条直线()|E Y X X β=就称为总体回归线(方程)。

总体回归方程的求法:以例1的数据为例,求出E (Y |X 由于01|i i i E Y X X ββ=+,因此任意带入两个X i 和其对应的E (Y |X i )值,即可求出01ββ和,并进而得到总体回归方程。

如将()()222777100,|77200,|137X E Y X X E Y X ====和代入()01|i i i E Y X X ββ=+可得:01001177100171372000.6ββββββ=+=⎧⎧⇒⎨⎨=+=⎩⎩以上求出01ββ和反映了E (Y |X i )和X i 之间的真实关系,即所求的总体回归方程为:()|170.6i i i E Y X X =+,其图形为:③样本回归模型:总体通常难以得到,因此只能通过抽样得到样本数据。

如在例1中,通过抽样考察,我们得到了20个家庭的样本数据:那么描述样本数据中因变量Y 和自变量X 之间非确定依赖关系的模型ˆY X e β=+就称为样本回归模型。

④样本回归方程(线):通过样本数据估计出ˆβ,得到样本观测值的拟合值与解释变量之间的关系方程ˆˆY X β=称为样本回归方程。

如下图所示:⑤四者之间的关系:ⅰ:总体回归模型建立在总体数据之上,它描述的是因变量Y 和自变量X 之间的真实的非确定型依赖关系;样本回归模型建立在抽样数据基础之上,它描述的是因变量Y 和自变量X 之间的近似于真实的非确定型依赖关系。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第三节 最小二乘估计量的性质三大性质:线性特性、无偏性和最小偏差性 一、 线性特性的含义线性特性是指参数估计值1ˆβ和2ˆβ分别是观测值t Y 或者是扰动项t μ的线性组合,或者叫线性函数,也可以称之为可以用t Y 或者是t μ来表示。

1、2ˆβ的线性特征证明 (1)由2ˆβ的计算公式可得: 222222()ˆt tttt ttttttt tt tt x y x Y x Y xxx xx x x x β--===⎛⎫== ⎪ ⎪⎝⎭∑∑∑∑∑∑∑∑∑∑∑Y Y Y Y需要指出的是,这里用到了因为t x 不全为零,可设2tt tx b x =∑,从而,t b 不全为零,故2ˆt t b β=∑Y 。

这说明2ˆβ是t Y 的线性组合。

(2)因为12t t t Y X ββμ=++,所以有()212122ˆt t t t t t t t t t t tb b X b b X b b βββμββμβμ==++=++=+∑∑∑∑∑∑Y这说明2ˆβ是t μ的线性组合。

需要指出的是,这里用到了220t t t t t x x b x x ===∑∑∑∑∑以及 ()2222222201t t tt t t tt ttttttttx x X x b X X x x x x X x X x x x x x⎛⎫+⎪== ⎪⎝⎭++==+=∑∑∑∑∑∑∑∑∑∑∑∑∑2、1ˆβ的线性特征证明 (1)因为12ˆˆY X ββ=-,所以有 ()121ˆˆ1t t t t tY X Y X b nXb n ββ=-=-⎛⎫=- ⎪⎝⎭∑∑∑Y Y这里,令1a Xb n=-,则有1ˆt a β=∑Y 这说明1ˆβ是t Y 的线性组合。

(2)因为回归模型为12t t t Y X ββμ=++,所以()11212ˆt t t t t t t t t ta a X a a X a βββμββμ==++=++∑∑∑∑∑Y因为111t t t a Xb X b nn⎛⎫=-=-=⎪⎝⎭∑∑∑∑。

而 110t t t tt t t a X Xb X X X b X n n X X ⎛⎫=-=- ⎪⎝⎭-=∑∑∑∑ 所以,11ˆt t a ββμ=+∑ 这说明1ˆβ是t μ的线性组合。

至此,参数的线性特性证明完毕。

问题参数估计值线性特性的深层次含义是什么?要根据被解释变量、随机扰动项和的随机性来理解。

二、 无偏性的含义所谓无偏性是指估计值的均值等于真实值。

在这里,无偏性是指参数估计值1ˆβ和2ˆβ的期望值分别等于总体参数1β和2β。

其数学上要求是 ()11ˆE ββ=和()22ˆE ββ=。

证明:根据参数估计值的线性特征,我们推导出:11ˆt t a ββμ=+∑,所以有: ()()()()()()()()()()()111111ˆt t t t t t t t E E a E E a E E a E E a E E ββμβμβμβμβ=+=+=+=+•=∑∑∑∑ 相似地,22ˆt t b ββμ=+∑,所以有 ()()()()()()()()()()()222222ˆt t t t t t t t E E b E E b E E b E E b E E ββμβμβμβμβ=+=+=+=+•=∑∑∑∑ 三、 最优性(有的书本上直接称之为最小方差性)的含义最优性是指用最小二乘法得到的参数估计值1ˆβ和2ˆβ在各种线性无偏估计中得到的方差最小。

根据上述的定义,我们可以任意假设2ˆβ*是用其他方法得到的总体参数2ˆβ的一个线性无偏估计。

因为2ˆβ*具有线性特性,我们可以得到: ()212ˆt t t t t c c X βββμ*==++∑∑Y ,()()()()()()()()21212121212ˆ0t t t t t t t t t t t t t t t t t t tE E c E c X c E X c c E X c E c c E X c c X βββμββμββμββββ*==++=++=++=++=+∑∑∑∑∑∑∑∑∑∑Y又因为2ˆβ*是用其他方法得到的总体参数2ˆβ的一个无偏估计,所以有 ()22ˆE ββ*= 所以由上述两个结果,可以得到:122t t t c c X βββ+=∑∑上述式子要成立,必须同时满足两个条件,即0tc=∑和1t t c X =∑现在求2ˆβ*的方差: ()()()()()()()()()()()()()222222221122222112211221133223322ˆvar var ˆˆt t t t t t t t t t t t t t t t t t t t t t t t t t t c E c E c E c E c E c c E E c c E c E c E c c c E c c c c c c c c c c βμμμμμμμμμμμμμμ*⎡⎤==-⎣⎦⎡⎤⎡⎤=-=-⎣⎦⎣⎦⎡⎤⎡⎤=-=-⎣⎦⎣⎦⎡⎤==++⋅⋅⋅+⎣⎦=++⋅⋅⋅++++⋅⋅⋅++∑∑∑∑∑∑∑∑∑∑∑Y Y Y Y Y Y Y Y Y Y Y ()()()()4422t t t s t s c c E c E μμμμμ⎡⎤+⋅⋅⋅+⋅⋅⋅⎣⎦=+∑∑∑因为根据假设条件(常数方差和非自相关,即()222var()(())t t t t uE E E μμμμσ=-==和 [][]cov(,)(())(())(0)(0)()0t s t t s s t s t s E E E E E μμμμμμμμμμ=--=--==所以,有()()()()2222222222ˆvar 2u t u t t t uttututttc c b b c b bb c b βσσσσσ*==-+⎡⎤⎣⎦=-++-⎡⎤⎣⎦∑∑∑∑∑2ˆβ*方差的最后一项为 ()()()()2222222111(1)11tttt ttt t t t t t tt tt tttt t b c b b c bx x c x x c x x c X X x c XX c x -=-⎡⎤⎣⎦⎛⎫⎛⎫=- ⎪ ⎪⎪ ⎪⎝⎭⎝⎭=-=--=--=∑∑∑∑∑∑∑∑∑∑∑∑∑∑这是因为0t c =∑和1t t c X =∑因此,有()()22222ˆvar u t t u tc b b βσσ*=-+∑∑ 很明显,当t t c b =时,2ˆβ*方差最小,此时,最小值为()222ˆvar u t b βσ*=∑。

而在此时,有22ˆˆt t t t c b ββ*===∑∑Y Y 即两个估计值相等。

因为2ˆβ*的最小方差等于2ˆβ的方差,即()()22ˆˆvar var ββ*≥,因此,我们说,2ˆβ在所有线性无偏估计中的方差最小,且最小方差为: ()22222ˆvar u uttbx σβσ==∑∑同理,我们可以证明,1ˆβ在所有线性无偏估计中的方差最小,且参数估计值的方差为:()()2212ˆvar u t t X n x σβ=∑∑。

由此,说明,最小二乘估计具有BLUE(best linear unbiased estimation)性质。

从而在统计学和计量经济学中得到广泛应用。

第四节 系数的显著性检验一、 系数估计值的特性:1、根据系数估计值的线性特性,我们知道系数估计值是t Y 和t μ的线性组合。

又因为t Y 和t μ都服从正态分布,所以,我们可以自然得到两点:一是系数估计值是随机变量(这里是在数学上再次予以证明);二是系数估计值服从正态分布。

从而,可以用随机变量的一些数字特征来表示。

通常,我们采用的是均值与方差。

系数估计值的均值是多少呢?根据系数估计值的无偏性,我们知道,()11ˆE ββ=,()22ˆE ββ=。

这说明系数估计值1ˆβ和2ˆβ这两个随机变量的数学期望(均值)分别等于总体参数(实际值)。

系数估计值的方差又是多少呢?根据系数估计值的最小方差性的证明,我们得到了其方差,即有()()2212ˆvar u t tX n xσβ=∑∑ ,()22222ˆvar u uttbxσβσ==∑∑。

至此,我们可以用随机变量的数学期望和方差来刻画1ˆβ和2ˆβ这两个随机变量的分布,即有:1ˆβ服从均值为1β、方差为()222u t tX n xσ∑∑的正态分布;而2ˆβ服从均值为2β、方差为22u txσ∑的分布。

用数学的语言可以描述为:()2211,2ˆu t t X N n x σββ⎛⎫ ⎪ ⎪⎝⎭∑∑:和222,2ˆu t N x σββ⎛⎫ ⎪ ⎪⎝⎭∑:。

可以明显看出的是,在系数的描述中,方差中含有随机扰动项的方差,其他我们可以得到。

随机扰动项是总体回归模型中的误差项,无法得到,只能对其估计。

二、 随机误差项方差的估计因为总体回归模型为:12t t t Y X ββμ=++而样本回归模型为:12ˆˆt t tY X e ββ=++ 从形式上看,样本回归模型中的残差t e 可以看作随机扰动项t μ的估计值。

进一步,残差t e 的方差可以作为随机扰动项t μ的方差2u σ的估计值。

样本回归模型为:12ˆˆt t t Y X e ββ=++ 样本回归直线为:12ˆˆˆt tX ββ=+Y 样本回归模型的左右两边减去样本回归直线的左右两边,可得:ˆt t tY e -=Y ,把这个式子重新安排一下,可以得到: ()()ˆˆt t t t te Y Y Y Y =-=---Y Y现在,重点要求的是t e 的两个部分,即()ˆt Y -Y 和()tY Y -。

这两部分知道之后,才能求t e 的方差。

对样本回归模型12ˆˆt t tY X e ββ=++两边分别对t 求和,再除以n,有:1212121212ˆˆˆˆ1111ˆˆ1111ˆˆ1ˆˆt t ttttt t tt t t t Y X e Y X eY X e n n n n Y X e n n nn Y X e n ββββββββββ=++⇒=++⇒=++⇒=+⨯+⇒=++∑∑∑∑∑∑∑∑∑∑∑∑∑由前边的正规方程组,我们曾经知道,点(),X Y 在样本回归直线上,用数学的语言来讲,就有:12ˆˆY X ββ=+,因此,有 1212ˆˆˆˆˆt tX Y X ββββ=+=+Y ,进而,有 ()22ˆˆˆt t tY X X x ββ-=-=Y 对总体回归模型12t t t Y X ββμ=++两边分别对t 求和,再除以n,有:1212121211212111111111t t t tt t tt t tt t tnt Y X Y X Y X n n n n Y X n n n nY X Y X n μμββμββμββμββμββμββμ==++⇒=++⇒=++⇒=+⨯+∑⇒=++−−−−→=++∑∑∑∑∑∑∑∑∑∑∑∑∑ 所以,由1212t t t Y X Y X ββμββμ=++=++,可得,()()()22t t t t t Y Y X X x βμμβμμ-=-+-=+-将两部分结合起来,现在,我们可以得到:()()()22ˆˆˆˆt t t t t t tt t t e Y Y Y Y Y x Y Y x ββμμ=-=----=-=+-Y Y Y可以得到:()()22ˆt t te x ββμμ=-+-,(从这个式子我们可以看出什么呢?)至此,已经将残差与扰动项联系起来了。

相关文档
最新文档