线性回归模型检验方法拓展三大检验
第一部分4 GLS和MLE(三大检验)汇总
第四章 GLS 和MLE 一、广义最小二乘法(GLS ) 1、回归模型的矩阵表示总体回归方程可表示为:=+y X βε也可以写成:[|] =E y X X β。
当(|)E y X 取不同的形式时,也就构成了不同的模型,包括:线性、非线性和非参数等。
我们这里主要讨论的是线性模型(一元或多元):其中:12(1)N N y y y ⨯⎛⎫⎪⎪= ⎪⎪⎝⎭y ,111112122111()111j k j k N NjN k N k x x x x x x x x x ---⨯⎛⎫ ⎪ ⎪= ⎪ ⎪ ⎪⎝⎭X ,011(1)k k βββ-⨯⎛⎫⎪ ⎪= ⎪ ⎪ ⎪⎝⎭β T 表示样本数量,k 表示解释变量个数(包含了常数项),当2k =时就是一元线性回归模型。
而()12(1)TN N εεε⨯=ε表示的是随机扰动项,包含了除了解释变量以外的其他影响因素。
若遗漏变量,则这个变量也将被扰动项所包含。
2、经典假设满足时的残差项的方差协方差矩阵在无异方差和无自相关的假定下,残差项的方差协方差矩阵是一个对角阵,并且主对角线的元素都相同。
即有:(22200σσσ⎛⎫⎪'= ⎪⎝⎭E(εε|X)=I 此时OLS 估计量是最优线性无偏估计BLUE )问题的提出:若扰动项违背球形假定,结果怎样?Ω='=+=2][,0][,σεεεεβE E X y (1)其中Ω是一般的正定矩阵,而不是在古典假设的情况下的单位矩阵。
(1)异方差时2122222000000n σσσσσ⎡⎤⎢⎥'Ω==⎢⎥⎢⎥⎣⎦E(εε|X)=Ω 存在异方差时的后果:OLS 估计量是线性无偏估计,但不是最有效的。
处理方法:第一条思路:找到最优线性无偏估计。
具体方法加权最小二乘法(WLS ),也就是模型变换法;第二条思路:存在异方差时OLS 估计量是线性无偏,但是原OLS 方法得到的方差计算公式有误。
对于系数估计仍采用OLS 估计,对于系数的方差估计进行修正。
第三章--回归模型的检验
对于中国居民人均消费支出的例子:
一元模型:F=285.92
二元模型:F=2057.3 给定显著性水平 =0.05,查分布表,得到临界 值:
一元例:F(1,21)=4.32 二元例: F(2,19)=3.52 显然有 F F(k,n-k-1) 即二个模型的线性关系在95%的水平下显著成立。
99.4
96.9
2758.9
1637.2
157.0
117.7
1999 4615.9 1932.1
98.7
95.7
2723.0
1566.8
169.5
123.3
2000 4998.0 1958.3
100.8
97.6
2744.8
1529.2
182.1
128.1
2001 5309.0 2014.0
100.7
2、关于拟合优度检验与方程显著性检
验关系的讨论
由
R2 1 RSS
TSS
与
F
ESS / k
RSS / n k
1
可推出: R2
kF
n k 1 kF
或
F
R2 / k
1 R2 / n k 1
三、变量的显著性检验(t检验)
方程的总体线性关系显著每个解释变量对被 解释变量的影响都是显著的
因此,必须对每个解释变量进行显著性检验, 以决定是否作为解释变量被保留在模型中。
问题:
由增加解释变量个数引起的R2的增大与拟合 好坏无关,R2需调整。
调整的可决系数(adjusted coefficient of determination)
线性回归的各种检验
上一张 下一张 主 页 退 出
回归分析的任务就是揭示出呈因果关系 的相关变量间的联系形式,建立它们之 间的回归方程,利用所建立的回归方程, 由自变量(原因)来预测、控制依变量 (结果)。
以上计算也可在回归计算表中进行。
回归方程计算表1(一级数据)
序号k
Xk
Yk
Xk2
XkYk
Yk2
1
1.0 15.0 1.00 15.0 225.00
2
3.0 18.0 9.00 54.0 324.00
3
4.0 19.0 16.00 76.0 361.00
4
5.5 21.0 30.25 115.5 441.00
第六章 直线回归与相关
客观事物在发展过程中是相互联系、相 互影响,常常要研究两个或两个以上变 量间的关系。
下一张 主 页 退 出
1 回归与相关的概念
确定性关系
各种变量间的关系大致可分为两类:
非确定性关系
一类是完全确定性的关系,又称函数关系,可以 用精确的数学表达式来表示,即当变量x的值取 定后,变量y有唯一确定的值与之对应。
2 直线回归
2.1 直线回归方程的建立
2.1.1数学模型
对于两个相关变量,一个变量用x表示,另 一个变量用y表示,如果通过试验或调查获得两 个变量的n对观测值:(x1,y1),(x2, y2),……,(xn,yn)
为了直观地看出x和y间的变化趋势,可将 每一对观测值在平面直角坐标系中描点,作出散 点图 (见图6-1)。
上一张 下一张 主 页 退 出
函数关系 有精确的数学表达式
多元线性回归模型的各种检验方法
对多元线性回归模型的各种检验方法对于形如u X X X Y k k +++++=ββββ 22110 (1)的回归模型,我们可能需要对其实施如下的检验中的一种或几种检验:一、 对单个总体参数的假设检验:t 检验在这种检验中,我们需要对模型中的某个(总体)参数是否满足虚拟假设0H :j j a =β,做出具有统计意义(即带有一定的置信度)的检验,其中j a 为某个给定的已知数。
特别是,当j a =0时,称为参数的(狭义意义上的)显著性检验。
如果拒绝0H ,说明解释变量j X 对被解释变量Y 具有显著的线性影响,估计值j βˆ才敢使用;反之,说明解释变量j X 对被解释变量Y 不具有显著的线性影响,估计值j βˆ对我们就没有意义。
具体检验方法如下:(1) 给定虚拟假设 0H :j j a =β;(2) 计算统计量 )ˆ(ˆ)ˆ()(ˆjj j j j j Se a Se E t βββββ-=-= 的数值; 11ˆ)ˆ(++-==j j jj jj j C C Se 1T X)(X ,其中σβ(3) 在给定的显著水平α下(α不能大于1.0即10%,也即我们不能在置信度小于90%以下的前提下做结论),查出双尾t (1--k n )分布的临界值2/αt ;(4) 如果出现 2/αt t >的情况,检验结论为拒绝0H ;反之,无法拒绝0H 。
t 检验方法的关键是统计量 )ˆ(ˆj jj Se t βββ-=必须服从已知的t 分布函数。
什么情况或条件下才会这样呢?这需要我们建立的模型满足如下的条件(或假定):(1) 随机抽样性。
我们有一个含n 次观测的随机样(){}n i Y X X X i ik i i ,,2,1:,,,,21 =。
这保证了误差u 自身的随机性,即无自相关性,0))())(((=--j j i i u E u u E u Cov 。
(2) 条件期望值为0。
给定解释变量的任何值,误差u 的期望值为零。
多元线性回归模型的各种检验方法
对多元线性回归模型的各种检验方法对于形如u X X X Y k k +++++=ββββΛΛ22110 (1)的回归模型,我们可能需要对其实施如下的检验中的一种或几种检验:一、 对单个总体参数的假设检验:t 检验在这种检验中,我们需要对模型中的某个(总体)参数是否满足虚拟假设0H :j j a =β,做出具有统计意义(即带有一定的置信度)的检验,其中j a 为某个给定的已知数。
特别是,当j a =0时,称为参数的(狭义意义上的)显著性检验。
如果拒绝0H ,说明解释变量j X 对被解释变量Y 具有显著的线性影响,估计值j βˆ才敢使用;反之,说明解释变量j X 对被解释变量Y 不具有显著的线性影响,估计值j βˆ对我们就没有意义。
具体检验方法如下:(1) 给定虚拟假设 0H :j j a =β;(2) 计算统计量 )ˆ(ˆ)ˆ()(ˆjj j j j j Se a Se E t βββββ-=-= 的数值; 11ˆ)ˆ(++-==j j jj jj j C C Se 1T X)(X ,其中σβ(3) 在给定的显著水平α下(α不能大于1.0即10%,也即我们不能在置信度小于90%以下的前提下做结论),查出双尾t (1--k n )分布的临界值2/αt ;(4) 如果出现 2/αt t >的情况,检验结论为拒绝0H ;反之,无法拒绝0H 。
t 检验方法的关键是统计量 )ˆ(ˆj jj Se t βββ-=必须服从已知的t 分布函数。
什么情况或条件下才会这样呢?这需要我们建立的模型满足如下的条件(或假定):(1) 随机抽样性。
我们有一个含n 次观测的随机样(){}n i Y X X X i ik i i ,,2,1:,,,,21ΛΛ=。
这保证了误差u 自身的随机性,即无自相关性,0))())(((=--j j i i u E u u E u Cov 。
(2) 条件期望值为0。
给定解释变量的任何值,误差u 的期望值为零。
多元线性回归模型的各种检验方法
多元线性回归模型的各种检验方法多元线性回归模型是常用于数据分析和预测的方法,它可以用于研究多个自变量与因变量之间的关系。
然而,仅仅使用多元线性回归模型进行参数估计是不够的,我们还需要对模型进行各种检验以确保模型的可靠性和有效性。
下面将介绍一些常用的多元线性回归模型的检验方法。
首先是模型的整体显著性检验。
在多元线性回归模型中,我们希望知道所构建的模型是否能够显著解释因变量的变异。
常见的整体显著性检验方法有F检验和显著性检查表。
F检验是通过比较回归模型的回归平方和和残差平方和的比值来对模型的整体显著性进行检验。
若F值大于一定的临界值,则可以拒绝原假设,即模型具有整体显著性。
通常,临界值是根据置信水平和自由度来确定的。
显著性检查表是一种常用的汇总表格,它可以提供关于回归模型的显著性水平、标准误差、置信区间和显著性因素的信息。
通过查找显著性检查表,我们可以评估模型的显著性。
其次是模型的参数估计检验。
在多元线性回归模型中,我们希望知道每个自变量对因变量的影响是否显著。
通常使用t检验来对模型的参数估计进行检验。
t检验是通过对模型的回归系数进行检验来评估自变量的影响是否显著。
与F检验类似,t检验也是基于假设检验原理,通过比较t值和临界值来决定是否拒绝原假设。
通常,临界值可以通过t分布表或计算机软件来获取。
另外,我们还可以使用相关系数来评估模型的拟合程度。
相关系数可以用来衡量自变量与因变量之间的线性关系强度,常见的相关系数包括Pearson相关系数和Spearman相关系数。
Pearson相关系数适用于自变量和因变量都是连续变量的情况,它衡量的是两个变量之间的线性关系强度。
取值范围为-1到1,绝对值越接近1表示关系越强。
Spearman相关系数适用于自变量和因变量至少有一个是有序变量或者都是有序变量的情况,它衡量的是两个变量之间的单调关系强度。
取值范围也是-1到1,绝对值越接近1表示关系越强。
最后,我们还可以使用残差分析来评估模型的拟合程度和误差分布。
(整理)多元线性回归模型的各种检验方法.
对多元线性回归模型的各种检验方法对于形如u X X X Y k k +++++=ββββ 22110 (1)的回归模型,我们可能需要对其实施如下的检验中的一种或几种检验:一、 对单个总体参数的假设检验:t 检验在这种检验中,我们需要对模型中的某个(总体)参数是否满足虚拟假设0H :j j a =β,做出具有统计意义(即带有一定的置信度)的检验,其中j a 为某个给定的已知数。
特别是,当j a =0时,称为参数的(狭义意义上的)显著性检验。
如果拒绝0H ,说明解释变量j X 对被解释变量Y 具有显著的线性影响,估计值j βˆ才敢使用;反之,说明解释变量j X 对被解释变量Y 不具有显著的线性影响,估计值j βˆ对我们就没有意义。
具体检验方法如下:(1) 给定虚拟假设 0H :j j a =β;(2) 计算统计量 )ˆ(ˆ)ˆ()(ˆjj j j j j Se a Se E t βββββ-=-= 的数值; 11ˆ)ˆ(++-==j j jj jj j C C Se 1T X)(X ,其中σβ(3) 在给定的显著水平α下(α不能大于1.0即 10%,也即我们不能在置信度小于90%以下的前提下做结论),查出双尾t (1--k n )分布的临界值2/αt ;(4) 如果出现 2/αt t >的情况,检验结论为拒绝0H ;反之,无法拒绝0H 。
t 检验方法的关键是统计量 )ˆ(ˆj jj Se t βββ-=必须服从已知的t 分布函数。
什么情况或条件下才会这样呢?这需要我们建立的模型满足如下的条件(或假定):(1) 随机抽样性。
我们有一个含n 次观测的随机样(){}n i Y X X X i ik i i ,,2,1:,,,,21 =。
这保证了误差u 自身的随机性,即无自相关性,0))())(((=--j j i i u E u u E u Cov 。
(2) 条件期望值为0。
给定解释变量的任何值,误差u 的期望值为零。
最新三大检验LM_WALD_LR
11.1 模型总显著性的F检验(已讲过) 11.2 模型单个回归参数显著性的t检验(已讲过) 11.3 检验若干线性约束条件是否成立的F检验 11.4 似然比(LR)检验 11.5 沃尔德(Wald)检验 11.6 拉格朗日乘子(LM)检验 11.7 邹(Chow)突变点检验(不讲) 11.8 JB(Jarque-Bera)正态分布检验(不讲) 11.9 格兰杰(Granger)因果性检验(不讲)
例11.1:建立中国国债发行额模型
用19802001年数据得输出结果如下;
DEBTt = 4.31 +0.35 GDPt +1.00 DEFt +0.88 REPAYt
(0.2) (2.2)
(31.5)
(17.8)
(第3版256页)
R2 = 0.999, DW=2.12, T =22, SSEu= 48460.78, (1980-2001) 是否可以从模型中删掉DEFt和REPAYt呢?可以用F统计量完成上述检验。
详见第 2 章。
•三大检验LM_WALD_LR
(第3版253页)
11.3 检验若干线性约束条件是否成立的F 检验
如 H 0:1 0,2 0,1 +0 + 1 =1,1 /2 0.8 等是否成立的检验。
以 k 元线性回归模型 yt = 0 +1xt1 + 2xt2 +…+k xt k +ut (无约束模型)
= -2 (-161.0583 +115.8888) = 90.34
因为
LR
=
90.34
2 (2)
=
5.99,所以推翻原假设。结论是不能从模型中
最大似然估计及三大检验(WaldLMLR)讲解
第二章 线性回归模型回顾与拓展 (12-15学时)第四节 三大检验(LR Wald LM ) 一、极大似然估计法(ML )(一)极大似然原理假设对于给定样本{},Y X ,其联合概率分布存在,(),;f Y X ξ。
将该联合概率密度函数视为未知参数ξ的函数,则(),;f Y X ξ称为似然函数(Likelihood Function )。
极大似然原理就是寻找未知参数ξ的估计ˆξ,使得似然函数达到最大,或者说寻找使得样本{},Y X 出现的概率最大ˆξ。
(二)条件似然函数VS 无条件似然函数()()(),;;;f Y X f Y X f X ξθϕ=若θ与ϕ没有关系,则最大化无条件似然函数(),;f Y X ξ等价于分别最大化条件似然函数();f Y X θ和边际似然函数();f X ϕ,从而θ的最大似然估计就是最大化条件似然函数();f Y X θ。
(三)线性回归模型最大似然估计Y X u β=+,2(0,)u N I σ→2222()()(,;,)(2)exp{}2nY X Y X L Y X βββσπσσ-'--=-对数似然函数:22()()2222n n Y X Y X l LnL Ln Ln ββπσσ'--==---于是 22241ˆ(22)0ˆˆ21ˆˆ()()0ˆˆˆ22l X Y X X l n Y X Y X βσβββσσσ∂⎧''=--+=⎪⎪∂⎨∂⎪'=-+--=⎪∂⎩得到 12ˆ()1ˆMLML X X X Y e e n βσ-⎧''=⎪⎨'=⎪⎩(三)得分(Score )和信息矩阵(Information Matrix )(;,)lf Y X θθ∂=∂称为得分; 12...k l l l l θθθθ∂⎡⎤⎢⎥∂⎢⎥∂⎢⎥⎢⎥∂⎢⎥∂⎢⎥=∂⎢⎥⎢⎥⎢⎥⎢⎥∂⎢⎥⎢⎥∂⎣⎦得分向量;(Gradient ) 海瑟矩阵(Hessian Matrix ):2l H θθ∂='∂∂信息矩阵:三*、带约束条件的最小二乘估计(拉格朗日估计)在计量经济分析中,通常是通过样本信息对未知参数进行估计。
3.3多元线性回归模型的检验
即所有解释变量联合起来对被解释变量的影响不显著
备择假设 H1 : j ( j = 1,2,k) 不全为0。
回归方程的显著性检验(F-检验)
建立F统计量:
F = ES S (k −1) = RSS (n − k)
(Yˆi (Yi
− Y )2 − Yˆi )2
(j=1,2,……k)
与备择假设 : H1 : j 0
构造统计量t为:
t*
=
ˆ j − j
^
SE
(
ˆ
j
)
=
ˆ
ˆ j
c jj
ቤተ መጻሕፍቲ ባይዱ
~ t(n − k)
给定显著性水平α,查t分布表,得临界值 t 2 (n − k)
回归参数的显著性检验(t-检验)
如t的绝对值大于t 临界值,就拒绝H0 而不拒绝H1
即认为解释变量 Xj对被 解释变量Y的影响是显著的
3.3多元线性回归模型的检验
多元线性回归模型的检验
一、拟合优度检验
定义:在一元线性回归模型中,我们用可决系数R2来衡 量估计的模型对观测值的拟合程度。
拟合优度检验
在多元回归中这一比值称为多重可决系数
用 R2 表示
多元线性回归中 Y 的变差分解式为 TSS = RSS + ESS
拟合优度检验
回归平方和 ESS 越大,残差平方和 RSS就越小,被解释 变量观测值总变差中能由解释变量解释的那部分变差就越大, 模型对观测数据的拟合程度就越高。
如果计算的F值小于临界值 ,则不拒绝零假设,说明回归 模型没有显著意义,即所有解释变量联合起来对Y没有显著影 响。
方程显著性检验
多元线性回归模型的各种检验方法
对多元线性回归模型的各种检验方法对于形如u X X X Y k k +++++=ββββ 22110 (1) 的回归模型,我们可能需要对其实施如下的检验中的一种或几种检验:一、 对单个总体参数的假设检验:t 检验在这种检验中,我们需要对模型中的某个(总体)参数是否满足虚拟假设0H :j j a =β,做出具有统计意义(即带有一定的置信度)的检验,其中j a 为某个给定的已知数。
特别是,当j a =0时,称为参数的(狭义意义上的)显著性检验。
如果拒绝0H ,说明解释变量j X 对被解释变量Y 具有显著的线性影响,估计值j βˆ才敢使用;反之,说明解释变量j X 对被解释变量Y 不具有显著的线性影响,估计值j βˆ对我们就没有意义。
具体检验方法如下:(1) 给定虚拟假设 0H :j j a =β;(2) 计算统计量 )ˆ(ˆ)ˆ()(ˆjj j j j j Se a Se E t βββββ-=-= 的数值; 11ˆ)ˆ(++-==j j jj jj j C C Se 1T X)(X ,其中σβ(3) 在给定的显著水平α下(α不能大于1.0即 10%,也即我们不能在置信度小于90%以下的前提下做结论),查出双尾t (1--k n )分布的临界值2/αt ;(4) 如果出现 2/αt t >的情况,检验结论为拒绝0H ;反之,无法拒绝0H 。
t 检验方法的关键是统计量 )ˆ(ˆj jj Se t βββ-=必须服从已知的t 分布函数。
什么情况或条件下才会这样呢?这需要我们建立的模型满足如下的条件(或假定):(1) 随机抽样性。
我们有一个含n 次观测的随机样(){}n i Y X X X i ik i i ,,2,1:,,,,21 =。
这保证了误差u 自身的随机性,即无自相关性,0))())(((=--j j i i u E u u E u Cov 。
(2) 条件期望值为0。
给定解释变量的任何值,误差u 的期望值为零。
线性回归模型检验方法拓展-三大检验
第四章线性回归模型检验方法拓展——三大检验作为统计推断得核心内容,除了估计未知参数以外,对参数得假设检验就是实证分析中得一个重要方面。
对模型进行各种检验得目得就是,改善模型得设定以确保基本假设与估计方法比较适合于数据,同时也就是对有关理论有效性得验证。
一、假设检验得基本理论及准则假设检验得理论依据就是“小概率事件原理”,它得一般步骤就是(1)建立两个相对(互相排斥)得假设(零假设与备择假设)。
(2)在零假设条件下,寻求用于检验得统计量及其分布。
(3)得出拒绝或接受零假设得判别规则。
另一方面,对于任何得检验过程,都有可能犯错误,即所谓得第一类错误P(拒绝H|H0为真)=α与第二类错误P(接受H|H0不真)=β在下图,粉红色部分表示P(拒绝H0|H0为真)=α。
黄色部分表示P(接受H0|H0不Array真)=β。
而犯这两类错误得概率就是一种此消彼长得情况,于就是如何控制这两个概率,使它们尽可能得都小,就成了寻找优良得检验方法得关键。
下面简要介绍假设检验得有关基本理论。
参数显著性检验得思路就是,已知总体得分布(,)F X θ,其中θ就是未知参数。
总体真实分布完全由未知参数θ得取值所决定。
对θ提出某种假设001000:(:,)H H θθθθθθθθ=≠><或,从总体中抽取一个容量为n 得样本,确定一个统计量及其分布,决定一个拒绝域W ,使得0()P W θα=,或者对样本观测数据X ,0()P X W θα∈≤。
α就是显著性水平,即犯第一类错误得概率。
既然犯两类错误得概率不能同时被控制,所以通常得做法就是,限制犯第一类错误得概率,使犯第二类错误得概率尽可能得小,即在0()P X W θα∈≤ 0θ∈Θ得条件下,使得()P X W θ∈,0θ∈Θ-Θ达到最大,或1()P X W θ-∈,0θ∈Θ-Θ达到最小。
其中()P X W θ∈表示总体分布为(,)F X θ时,事件W ∈{X }得概率,0Θ为零假设集合(0Θ只含一个点时成为简单原假设,否则称为复杂原假设)。
多元线性回归模型的各种检验方法
对多元线性回归模型的各种检验方法对于形如LL uYXXX??????????k11k220)(1的回归模型,我们可能需要对其实施如下的检验中的一种或几种检验:一、对单个总体参数的假设检验:t检验在这种检验中,我们需要对模型中的某个(总体)?a?:,做出具有统计意参数是否满足虚拟假设H jj0a义(即带有一定的置信度)的检验,其中为某个给ja=0定的已知数。
特别是,当时,称为参数的(狭义j意义上的)显著性检验。
如果拒绝,说明解释变量H0Y?X具有显著的线性影响,估计值对被解释变量才?j jX Y不具对被解释变量敢使用;反之,说明解释变量j??对我们就没有意义。
具有显著的线性影响,估计值j体检验方法如下:a?;:)给定虚拟假设1(H?jj01.??a??E()???j j jj?t???的数值;计算统计量)(2(Se)Se)(??j j??1T?中,其X)?(XSe()?CC??1j?1jj jj j?j??0.1即(3)在给定的显著水平下(不能大于以下的前提下做90%,也即我们不能在置信度小于10%t;)t(分布的临界值双结论),查出尾1k?n??2/t?t的情况,检验结论为拒绝4)如果出现(?2/H H。
;反之,无法拒绝00????jj?t必须服从已检验方法的关键是统计量t?(Se)?j t分布函数。
什么情况或条件下才会这样呢?这需知的:要我们建立的模型满足如下的条件(或假定)n次观测的随机)随机抽样性。
我们有一个含(1????LL,X,X,nX,:1,2,,Yi?样。
这保证了误i1i i2iku差2.自身的随机性,即无自相关性,Cov(u?E(u))(u?E(u))?0。
jiji (2)条件期望值为0。
给定解释变量的任何值,误差u的期望值为零。
即有L,X)?,X,0E(uX k21L,,XX,X这也保证了误差独立于解释变量,即21uE(u)?0模型中的解释变量是外生性的,也使得。
(3)不存在完全共线性。
多元线性回归模型的各种检验方法
对多元线性回归模型的各种检验方法对于形如u X X X Y k k +++++=ββββ 22110 (1)的回归模型,我们可能需要对其实施如下的检验中的一种或几种检验:一、 对单个总体参数的假设检验:t 检验在这种检验中,我们需要对模型中的某个(总体)参数是否满足虚拟假设0H :j j a =β,做出具有统计意义(即带有一定的置信度)的检验,其中j a 为某个给定的已知数。
特别是,当j a =0时,称为参数的(狭义意义上的)显著性检验。
如果拒绝0H ,说明解释变量j X 对被解释变量Y 具有显著的线性影响,估计值j βˆ才敢使用;反之,说明解释变量j X 对被解释变量Y 不具有显著的线性影响,估计值j βˆ对我们就没有意义。
具体检验方法如下:(1) 给定虚拟假设 0H :j j a =β;(2) 计算统计量 )ˆ(ˆ)ˆ()(ˆjj j j j j Se a Se E t βββββ-=-= 的数值;11ˆ)ˆ(++-==j j jj jj j C C Se 1T X)(X ,其中σβ (3) 在给定的显著水平α下(α不能大于1.0即 10%,也即我们不能在置信度小于90%以下的前提下做结论),查出双尾t (1--k n )分布的临界值2/αt ;(4) 如果出现 2/αt t >的情况,检验结论为拒绝0H ;反之,无法拒绝0H 。
检验方法的关键是统计量 )ˆ(ˆjjj Se t βββ-=必须服从已知的t 分布函数。
什么情况或条件下才会这样呢?这需要我们建立的模型满足如下的条件(或假定):(1) 随机抽样性。
我们有一个含n 次观测的随机样(){}n i Y X X X i ik i i ,,2,1:,,,,21 =。
这保证了误差u自身的随机性,即无自相关性,0))())(((=--j j i i u E u u E u Cov 。
(2) 条件期望值为0。
给定解释变量的任何值,误差的期望值为零。
三大检验LM_WALD_LR
在实际应用中,应根据具体问题和数据特征选择合适的检验方法,以提高模型诊断的准确性和可靠性。
对未来研究的建议
进一步研究lm_wald_lr三种检验方法在不同类型数据和模型假设下的表现, 以完善其理论和应用体系。
02
通过比较药物治疗前后的基因表达谱,利用lm_wald_lr检验评
估药物疗效。
流行病学研究
03
在流行病学研究中,利用lm_wald_lr检验分析不同人群的基因
变异与疾病风险的关系。
社会调查
01
民意调查
利用lm_wald_lr检验分析民意调 查数据,了解公众对政策、产品 等的态度和意见。
02
社会问题研究
LR检验
LR检验(似然比检验)是用于比较 两个模型拟合优度的统计检验,通 过比较两个模型的似然函数值来评 估模型之间的差异。
lm_wald_lr检验的原理
Wald统计量原理
Wald统计量基于参数的估计值和标准误差,通过构造一个Wald统计量来检验 参数是否为零。如果Wald统计量的值大于临界值,则拒绝原假设,认为参数 不为零。
局限性
lm_wald_lr检验对于样本量和数据分布有一定的要求,如果样本量较小或数据分布不符合正态分布假设,可能会 导致检验结果不准确。此外,对于一些复杂模型或非线性模型,lm_wald_lr检验可能不够敏感或可靠。
02
检验步骤
数据的准备
收集数据
根据研究目的和范围,收集相关数据,确保数据 的准确性和完整性。
结果的解释
判断结果
将计算出的统计量与临界值进行比较,判断检 验假设是否成立。
最大似然估计及三大检验(WaldLMLR)解读
第二章 线性回归模型回顾与拓展 (12-15学时)第四节 三大检验(LR Wald LM ) 一、极大似然估计法(ML )(一)极大似然原理假设对于给定样本{},Y X ,其联合概率分布存在,(),;f Y X ξ。
将该联合概率密度函数视为未知参数ξ的函数,则(),;f Y X ξ称为似然函数(Likelihood Function )。
极大似然原理就是寻找未知参数ξ的估计ˆξ,使得似然函数达到最大,或者说寻找使得样本{},Y X 出现的概率最大ˆξ。
(二)条件似然函数VS 无条件似然函数()()(),;;;f Y X f Y X f X ξθϕ=若θ与ϕ没有关系,则最大化无条件似然函数(),;f Y X ξ等价于分别最大化条件似然函数();f Y X θ和边际似然函数();f X ϕ,从而θ的最大似然估计就是最大化条件似然函数();f Y X θ。
(三)线性回归模型最大似然估计Y X u β=+,2(0,)u N I σ→2222()()(,;,)(2)exp{}2nY X Y X L Y X βββσπσσ-'--=-对数似然函数:22()()2222n n Y X Y X l LnL Ln Ln ββπσσ'--==---于是 22241ˆ(22)0ˆˆ21ˆˆ()()0ˆˆˆ22l X Y X X l n Y X Y X βσβββσσσ∂⎧''=--+=⎪⎪∂⎨∂⎪'=-+--=⎪∂⎩得到 12ˆ()1ˆMLML X X X Y e e n βσ-⎧''=⎪⎨'=⎪⎩(三)得分(Score )和信息矩阵(Information Matrix )(;,)lf Y X θθ∂=∂称为得分; 12...k l l l l θθθθ∂⎡⎤⎢⎥∂⎢⎥∂⎢⎥⎢⎥∂⎢⎥∂⎢⎥=∂⎢⎥⎢⎥⎢⎥⎢⎥∂⎢⎥⎢⎥∂⎣⎦得分向量;(Gradient ) 海瑟矩阵(Hessian Matrix ):2l H θθ∂='∂∂信息矩阵:三*、带约束条件的最小二乘估计(拉格朗日估计)在计量经济分析中,通常是通过样本信息对未知参数进行估计。
回归模型的统计检验 - 第三节回归模型的统计检验
的
分布。
进一步根据数理统计学中的定义,如果构造一个统计量
ESS F RSS k
(n k 1)
则该统计量服从自由度为(k,n-k-1)的F分布。
2、方程显著性 F 检验的步骤
对回归方程线性关系显著性的检验采用 F 检验,检验 依据样本估计的回归方程所体现的被解释变量与解释 变量之间的线性关系在总体上是否显著成立, 即是检验 总体模型 Yi 0 1 X 1i 2 X 2i k X ki i i=1,2,…,n 中的参数是否显著不为 0。 按照假设检验的原理与程序, 首先提出假设,原假设为:
2
( n k 1)
ˆi y / k y 2 ˆ y y i i / n k 1
R /k F 2 1 R / n k 1
2
k 为模型中解释变量的个数, R 2 为判定系数, 其中,
n 为样本容量。
F 统计量服从自由度为 ( k , n k 1) 的 F 分布。选定 一个显著性水平 ,查 F 分布表(见本书附录) , 可以得到一个临界值 F ( k , n k 1) 。
F检验与R2的关系
根据二者关系,有需注意的几个问题: ⑴F检验实际上也是判定系数的显著性检验。 ⑵如果模型对样本有较高的拟合优度,F检 验一般都能通过。 ⑶实际应用中不必过分苛求R2值的大小, 重要的是考察模型的经济意义是否合理。
如果所计算的 F > F ( k , n k 1) ,则在(1- ) 的置信概率下拒绝原假设 H 0 , 即模型的线性关系显 著成立,模型通过方程显著性检验。如果所计算的
t ( n k 1) 查得临界值 。
2
三大检验LMWALDLR
注意:这是做 k 个 t 检验。在原假设成立条件下,统计量
t
=
ˆ j s(ˆ j
)
tk-1,
(j
=
1,
2,
…,
k)
其中 ˆ j 是对j 的估计, s(ˆ j ) , j = 1, 2, …, k 是 ˆ j 的样本标准差。
其中DEBTt表示国债发行总额(单位:亿元),GDPt表示年国内生产总值 (单位:百亿元),DEFt表示年财政赤字额(单位:亿元),REPAYt表示 年还本付息额(单位:亿元)。
(第3版255页)
5000 4000
DEBT
3000
2000
1000
0 0
GDP
200
400
600
800 1000
5000 4000
43.01亿元,占GDP当年总量的1%,2001年国债发行额是4604
亿元,占GDP当年总量的4.8%。以当年价格计算,21年间
(1980-2001)增长了106倍。平均年增长率是24.9%。
5000 4000 3000
DEBT
(第3版254页)
2000
1000
0 80 82 84 86 88 90 92 94 96 98 00
本章开始先简要总结模型参数总显著性的F检验、单个回归参 数显著性的t检验。然后再介绍几个在建模过程中也很常用的 其他检验方法。他们是检验模型若干线性约束条件是否成立 的F检验和似然比(LR)检验、Wald检验、LM检验、JB检验 以及Granger非因果性检验。
11.1 模型总显著性的F 检验
(第3版252页)
三大检验
三大检验的引入
(1)模型是非线性的 (2)约束是非线性的 (3)扰动项分布是非正态的, 在这些情况下,F检验不再适用,通常需要采用 LR、Wald、LM其中之一来检验约束条件是否 成立。
三大检验方法共同点
这三个检验方法都是渐进等价的,他们所用 统计量的小样本分布是未知的,但大样本下都 渐进服从自由度为约束个数的卡方分布。 三大检验方法是三种基于极大似然法的大样 本检验方法。 根据模型的特点采用不同的检验方法。 模型视为给定参数的数据生成过程的集合。
在此处得分,则 S () 一般不为零,但是如果约束有
效,则 S ( ) 趋近于零。
在原假设成立条件下,
a
() I () S () ~ 2 (q) LM S
1
对于线性约束 将有关量代入上式得,
' ne* X ( X ' X ) 1 X ' e* LM= =nR 2 ~ 2 (q) ' e*e*
' e e 有约束模型残差平方和; ** R 2是e*对X 回归的拟合优度;
拒绝域,
LM nR (q)
2 2
LM统计量另一种表达形式,
n(e e ee) W ~ 2 (q) ee
' * * ' * *
' e e 有约束模型残差平方和; ** ee无约束模型残差平方和;
LR、 Wald 、LM关系(一般情况下成立):
Wald LR LM
对于似然比检验,既需要估计有约束的模型,也需要估计 无约束的模型;对于Wald检验,只需要估计无约束模型; 对于LM检验,只需要估计有约束的模型。一般情况下, 由于估计有约束模型相对更复杂,所有Wald检验最为常 用。对于小样本而言,似然比检验的渐进性最好,LM检 验也较好,Wald检验有时会拒绝原假设,其小样本性质 不尽如人意。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第四章线性回归模型检验方法拓展——三大检验作为统计推断的核心内容,除了估计未知参数以外,对参数的假设检验就是实证分析中的一个重要方面。
对模型进行各种检验的目的就是,改善模型的设定以确保基本假设与估计方法比较适合于数据,同时也就是对有关理论有效性的验证。
一、假设检验的基本理论及准则假设检验的理论依据就是“小概率事件原理”,它的一般步骤就是(1)建立两个相对(互相排斥)的假设(零假设与备择假设)。
(2)在零假设条件下,寻求用于检验的统计量及其分布。
(3)得出拒绝或接受零假设的判别规则。
另一方面,对于任何的检验过程,都有可能犯错误,即所谓的第一类错误P(拒绝H|H0为真)=α0与第二类错误P(接受H|H0不真)=β0在下图,粉红色部分表示P(拒绝H0|H0为真)=α。
黄色部分表示P(接受H0|H0Array不真)=β。
而犯这两类错误的概率就是一种此消彼长的情况,于就是如何控制这两个概率,使它们尽可能的都小,就成了寻找优良的检验方法的关键。
下面简要介绍假设检验的有关基本理论。
参数显著性检验的思路就是,已知总体的分布(,)F X θ,其中θ就是未知参数。
总体真实分布完全由未知参数θ的取值所决定。
对θ提出某种假设001000:(:,)H H θθθθθθθθ=≠><或,从总体中抽取一个容量为n 的样本,确定一个统计量及其分布,决定一个拒绝域W ,使得0()P W θα=,或者对样本观测数据X,0()P X W θα∈≤。
α就是显著性水平,即犯第一类错误的概率。
既然犯两类错误的概率不能同时被控制,所以通常的做法就是,限制犯第一类错误的概率,使犯第二类错误的概率尽可能的小,即在0()P X W θα∈≤ 0θ∈Θ的条件下,使得()P X W θ∈,0θ∈Θ-Θ达到最大,或1()P X W θ-∈,0θ∈Θ-Θ达到最小。
其中()P X W θ∈表示总体分布为(,)F X θ时,事件W ∈{X }的概率,0Θ为零假设集合(0Θ只含一个点时成为简单原假设,否则称为复杂原假设)。
0Θ-Θ为备择假设集合,并且0Θ与0Θ-Θ不能相交。
由前述可知,当1H 为真时,它被拒绝(亦即H 0不真时,接受H 0)的概率为β,也就就是被接受(亦即H0不真时,拒绝H0)的概率就是1β-(功效),我们把这个接受1H 的概率称为该检验的势。
在对未知参数θ作假设检验时,在固定α下,对θ的每一个值,相应地可求得1β-的值,则定义=1()()P X W θβθ-∈称1βθ-()为该检验的势函数。
统计检验的势(函数)主要用于比较假设检验的优劣。
于就是一个好的检验方程就是00max (),..(),s t βθθβθαθ∈Θ-Θ⎧⎨≤∈Θ⎩ 或 00min(1()),..(),s t βθθβθαθ-∈Θ-Θ⎧⎨≤∈Θ⎩为了理论上的深入研究与表达方便,我们常用函数来表示检验法。
定义函数1,()0,X W X X Wϕ∈⎧=⎨∉⎩它就是拒绝域W 的线性函数,仅取值0或1。
反之,如果一个函数中()X ϕ只取0或1,则{|()1}W X X ϕ==可作为一个拒绝域。
也就就是说,W 与ϕ之间建立了一种对立关系,给出一个ϕ就等价于给出了一个检验法,(我们称ϕ为检验函数)。
那么,对于检验法ϕ的势函数为()()()(,)E X X dF X θβθϕθΦ=Φ=⎰于就是,一个好的检验法又可写为00max (),..(),s t E X θβθθϕαθΦ∈Θ-Θ⎧⎨≤∈Θ⎩称满足上式的检验法为最优势检验(MPT)。
如果对于复杂原假设与备择假设,则称为一致最优势检验(UMPT )。
奈曼—皮尔逊(Neyman Pearson -)基本引理给出于()X ϕ就是MPT 的充要条件。
定理 设1,,n X X 就是来自总体分布密度为(,)p X θ的样本,θ为未知参数,对于简单假设检验问题0011:,:H H θθθθ==,检验函数()X ϕ就是显著性水平为α的最优势检验(MPT)的充要条件就是,存在常数0K ≥,使得()X ϕ满足0()E X θϕα=10101,(,)(,)()0,(,)(,)p X Kp X X p X Kp X θθϕθθ>⎧=⎨<⎩当当这就就是著名的奈曼—皮尔逊基本引理,需要指出的就是,上述定理中的检验函数()X ϕ通常称为似然比检验函数,若记10(,)()(,)p X X p X θλθ=称()X λ为似然比统计量。
如果()X λ较大,意味着1(,)p X θ较大。
所以在0H 为真时观测到样本点X 的可能性比1H 为真时观察到样本点X 的可能性小,因而应拒绝原假设0H ;反之,如果()X λ较小则应接受0H 。
此外,利用()X λ,上述定理中的()X ϕ可写为1,()()0,()X K X X K λϕλ>⎧=⎨<⎩这说明对于简单假设检验问题,似然比检验就是最优的,反之最优势检验法也一定就是似然比检验法。
而大量的文献都已证明了传统假设检验中的Z 检验、t 检验、2χ检验与F 检验都就是最优势检验。
于就是,我们可以放心地回到这部份的主题——计量经济模型的(假设)检验方法。
二、一般线性框架下的假设检验设多元回归模型为122k k Y X X u βββ=++++ (2-43)式(2-43)的统计检验通常包括以下三种情况1、单个系数的显著性检验。
2、若干个回归系数的联合检验。
3、回归系数线性组合的检验。
从检验的方面瞧,考虑以下典型假设01、0:0j H β=。
即解释变量j X 对Y 没有影响,这就是最常见的参数显著性检验。
02、00:j j H ββ= 。
0i β就是某一具体值。
例如j β表示价格弹性,我们也许希望它就是-1。
03、012:1H ββ+=。
这里的β可以瞧成生产函数中资本与劳动的弹性,此时检验就是否规模报酬不变。
04、023:H ββ=或230ββ-=。
即检验2X 与3X 的系数就是否相同。
05、012:0k H βββ===。
即检验全部解释变量都对Y 没有影响。
06、0:0II H β=。
这里的含义就是把β向量分为两个子向量I β与II β,分别含有1k 与2k 个元素。
检验0:0II H β=就就是检验某一些解释变量II X (X 的一部分)对Y 没有影响。
诸如以上的情形都可归于一般的线性框架RB r= (2-44)注意:这里1(,)k B ββ'=。
其中R 就是由已知常数构成的q k ⨯矩阵(q k ≤),r 就是各元素为常数(一般就是0或1)的1q ⨯矩阵。
于就是,对于上述情形,R 的具体表示为(i)(010),0.(1)R r q ===(ii)0(010),.(1)i R r q β===(iii)(1,1,00), 1.(1)R r q === (iv)(0,1,1,0),0.(1)R r q =-==(v),0.()k R I r q k ===(vi)2200,0.()0k R r q k I ⎛⎫=== ⎪⎝⎭ 将上述假设问题一般化,则0:0H RB r -=为了检验这个假设,应先估计出ˆB,计算ˆRB r -,若其值较“小”,(接近于0),则不应否定原假设;而如果其值较大,那么应对0H 提出怀疑。
为此我们先考察ˆRB的分布。
对于OLS 的ˆB,我们知道21ˆ~(,())B N B X X σ-'。
这里的X 就是所有解释变量观测值组成的n k ⨯矩阵,其中不含全就是1的第一列,ˆRB的数学期望与方差分别就是ˆ()E RBRB = 21ˆˆˆˆ()[()()]()Var RBE R B B B B R RVarBR R X X R σ-'''''=--== 所以21ˆ~(,())RBN RB R X X R σ-'' 于就是,在0:0H RB r -=成立的条件下21ˆ~(0,())RBr N R X X R σ-''- 那么,由有关的数理统计知识可知,其中的方差经过构造,服从自由度为q 的卡方分布,q 为参数中非零的个数,即2112ˆˆ()[()]()~()RBr R X X R RB r q σχ--'''-- (2-45) 此外,我们还可以证明22'~()E En k χσ- (残差平方与的分布)。
因此,由上述两式,可构造在0H 下的F 检验统计量11ˆˆ()[()]()~(,)'()RB r R X X R RB r q F F q n k E E n k --'''--=-- (2-46) 注意,2ˆ'()E E n k σ-=(亦即22ˆi e n k σ=-∑)。
于就是,检验的程序就是,如果计算出的F 值大于某个事先选定的临界值,则拒绝0H 。
具体描述如下01、0:0j H β=此时ˆRB 为ˆjβ。
1()R X X R -''为jj c ,即1()X X -'主对角线上的第j 个元素,1()X X -'就是一K 阶对称方阵。
因此222ˆˆ~(1,)ˆˆˆ()j j jj j F F n k c Var ββσβ==- (2-47) 取平方根 ˆ~()ˆˆ()j j t t n k se ββ=-,这就就是传统的关于回归参数显著性的t 检验法。
02、00:j j H ββ=类似01,这里ˆ~()ˆˆ()j j j t t n k se βββ-=- (2-48)此时也可以计算,比如j β的95%置信区间,而不用检验关于j β的具体假设,这个置信区间就是0.025ˆˆˆ()j jt se ββ±。
03、012:1H ββ+=ˆRB 给出了两个估计系数的与12ˆˆββ+,而此时1111222()2R X X R c c c -''=++,式中1()ij X X c -'=,R=(1,1,,0)。
那么1121111112221122122[()]ˆˆˆˆˆˆˆ[(2)][2(,)][()]ˆR X X R c c c Var Cov Var Var σββββββσ-----''=++=++=+于就是检验统计量为ˆˆ~()t t n k =- (2-49)或者,也可以计算12ββ+的95%置信区间12ˆˆ()t ββ+±04、023:H ββ=类似03,可推得此时的检验统计量为ˆˆ~()t t n k =- (2-50)05、023:0k H βββ===此时 k R I =,0r =,q k =,那么ˆˆ'~(,)'()()B X XB k ESS k F F k n k E E n k RSS n k '==--- (2-51) 这就就是我们熟悉的关于回归方程显著性的F 检验。