应用回归分析第章课后习题参考复习资料
《应用回归分析》课后习题部分答案-何晓群版
第二章 一元线性回归2.14 解答:(1)散点图为:(2)x 与y 之间大致呈线性关系。
(3)设回归方程为01y x ββ∧∧∧=+1β∧=12217()ni ii nii x y n x yxn x --=-=-=-∑∑0120731y x ββ-∧-=-=-⨯=-17y x ∧∴=-+可得回归方程为(4)22ni=11()n-2i i y y σ∧∧=-∑ 2n 01i=11(())n-2i y x ββ∧∧=-+∑=2222213⎡⎤⨯+⨯+⨯⎢⎥+⨯+⨯⎣⎦(10-(-1+71))(10-(-1+72))(20-(-1+73))(20-(-1+74))(40-(-1+75)) []1169049363110/3=++++=6.1σ∧=(5)由于211(,)xxN L σββ∧t σ∧==服从自由度为n-2的t 分布。
因而/2||(2)1P t n αασ⎡⎤⎢⎥<-=-⎢⎥⎣⎦也即:1/211/2(p t t ααβββ∧∧∧∧-<<+=1α-可得195%β∧的置信度为的置信区间为(7-2.3537+2.353 即为:(2.49,11.5)2201()(,())xxx Nn L ββσ-∧+t ∧∧==服从自由度为n-2的t 分布。
因而/2|(2)1P t n αα∧⎡⎤⎢⎥⎢⎥<-=-⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦即0/200/2()1p βσββσα∧∧∧∧-<<+=- 可得195%7.77,5.77β∧-的置信度为的置信区间为()(6)x 与y 的决定系数22121()490/6000.817()ni i nii y y r y y ∧-=-=-==≈-∑∑(7)由于(1,3)F F α>,拒绝0H ,说明回归方程显著,x 与y 有显著的线性关系。
(8)t σ∧==其中2221111()22n ni i i i i e y y n n σ∧∧====---∑∑ 7 3.661==≈/2 2.353t α= /23.66t t α=>∴接受原假设01:0,H β=认为1β显著不为0,因变量y 对自变量x 的一元线性回归成立。
应用回归分析_第3章课后习题参考答案
第3章 多元线性回归思考与练习参考答案见教材P64-65讨论样本容量n 与自变量个数p 的关系,它们对模型的参数估计有何影响答:在多元线性回归模型中,样本容量n 与自变量个数p 的关系是:n>>p 。
如果n<=p 对模型的参数估计会带来很严重的影响。
因为: 1. 在多元线性回归模型中,有p+1个待估参数β,所以样本容量的个数应该大于解释变量的个数,否则参数无法估计。
2. 解释变量X 是确定性变量,要求()1rank p n =+<X ,表明设计矩阵X 中的自变量列之间不相关,即矩阵X 是一个满秩矩阵。
若()1rank p <+X ,则解释变量之间线性相关,1()X X -'是奇异阵,则β的估计不稳定。
证明 随机误差项ε的方差2的无偏估计。
证明:22122222111112221111ˆ(),111()()(1)(1)()(1)1ˆ()()1n i i n n nnnii ii iiii i i i i i ni i SSE e e e n p n p n p E e D e h h n h n p E E e n p σσσσσσσ======='===------∴==-=-=-=--∴==--∑∑∑∑∑∑∑一个回归方程的复相关系数R=,样本决定系数R 2=,我们能断定这个回归方程就很理想吗答:不能。
复相关系数R 与样本决定系R 2数都是用来表示回归方程对原始数据拟合程度的好坏。
样本决定系数取值在【0,1】区间内,()1ˆ2--=p n SSE σ一般来说,R2越接近1,即R2取值越大,说明回归拟合的效果越好。
但由于R2的大小与样本容量n和自变量个数p有关,当n与p的值接近时,R2容易接近1,说明R2中隐含着一些虚假成分。
而当样本容量n较小,自变量个数p较大时,尽管R2很大,但参数估计效果很不稳定。
所以该题中不能仅仅因为R2很大而断定回归方程很理想。
《应用回归分析》课后习题部分答案何晓群版
第二章 一元线性回归2.14 解答:(1)散点图为:(2)x 与y 之间大致呈线性关系。
(3)设回归方程为01y x ββ∧∧∧=+1β∧=12217()ni ii nii x y n x yxn x --=-=-=-∑∑0120731y x ββ-∧-=-=-⨯=-17y x ∧∴=-+可得回归方程为(4)22ni=11()n-2i i y y σ∧∧=-∑ 2n 01i=11(())n-2i y x ββ∧∧=-+∑=2222213⎡⎤⨯+⨯+⨯⎢⎥+⨯+⨯⎣⎦(10-(-1+71))(10-(-1+72))(20-(-1+73))(20-(-1+74))(40-(-1+75)) []1169049363110/3=++++=6.1σ∧=≈ (5)由于211(,)xxN L σββ∧t σ∧==服从自由度为n-2的t 分布。
因而/2|(2)1P t n αασ⎡⎤⎢⎥<-=-⎢⎥⎣⎦也即:1/211/2(p t t ααβββ∧∧∧∧-<<+=1α-可得195%β∧的置信度为的置信区间为(7-2.3537+2.353 即为:(2.49,11.5)2201()(,())xxx Nn L ββσ-∧+t ∧∧==服从自由度为n-2的t 分布。
因而/2(2)1P t n αα∧⎡⎤⎢⎥⎢⎥<-=-⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦即0/200/2()1p βσββσα∧∧∧∧-<<+=- 可得195%7.77,5.77β∧-的置信度为的置信区间为()(6)x 与y 的决定系数22121()490/6000.817()nii nii y y r y y ∧-=-=-==≈-∑∑(7)由于(1,3)F F α>,拒绝0H ,说明回归方程显著,x 与y 有显著的线性关系。
(8)t σ∧==其中2221111()22n ni i i i i e y y n n σ∧∧====---∑∑ 7 3.661==≈ /2 2.353t α= /23.66t t α=>∴接受原假设01:0,H β=认为1β显著不为0,因变量y 对自变量x 的一元线性回归成立。
应用回归分析第章课后习题参考答案Word版
第二章 一元线性回归分析思考与练习参考答案2.1 一元线性回归有哪些基本假定?答: 假设1、解释变量X 是确定性变量,Y 是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性: E(εi )=0 i=1,2, …,n Var (εi )=s 2 i=1,2, …,n Cov(εi, εj )=0 i≠j i,j= 1,2, …,n 假设3、随机误差项ε与解释变量X 之间不相关: Cov(X i , εi )=0 i=1,2, …,n 假设4、ε服从零均值、同方差、零协方差的正态分布 εi ~N(0, s 2 ) i=1,2, …,n 2.2 考虑过原点的线性回归模型 Y i =β1X i +εi i=1,2, …,n误差εi (i=1,2, …,n)仍满足基本假定。
求β1的最小二乘估计 解: 得:2.3 证明(2.27式),S e i =0 ,S e i X i =0 。
证明:∑∑+-=-=nii i ni X Y Y Y Q 121021))ˆˆ(()ˆ(ββ其中:即: S e i =0 ,S e i X i =021112)ˆ()ˆ(ini i ni i i e X Y Y Y Q β∑∑==-=-=0)ˆ(2ˆ111=--=∂∂∑=ii ni i eX X Y Q ββ)()(ˆ1211∑∑===ni i ni ii X Y X β01ˆˆˆˆi ii i iY X e Y Y ββ=+=-0100ˆˆQQββ∂∂==∂∂2.4回归方程E (Y )=β0+β1X 的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价?给出证明。
答:由于εi ~N(0, s 2 ) i=1,2, …,n所以Y i =β0 + β1X i + εi ~N (β0+β1X i , s 2 ) 最大似然函数:使得Ln (L )最大的0ˆβ,1ˆβ就是β0,β1的最大似然估计值。
同时发现使得Ln (L )最大就是使得下式最小,∑∑+-=-=nii i n i X Y Y Y Q 121021))ˆˆ(()ˆ(ββ上式恰好就是最小二乘估计的目标函数相同。
应用回归分析_第3章课后习题参考答案
第3章 多元线性回归思考与练习参考答案3.1 见教材P64-653.2 讨论样本容量n 与自变量个数p 的关系,它们对模型的参数估计有何影响?答:在多元线性回归模型中,样本容量n 与自变量个数p 的关系是:n>>p 。
如果n<=p 对模型的参数估计会带来很严重的影响。
因为:1. 在多元线性回归模型中,有p+1个待估参数β,所以样本容量的个数应该大于解释变量的个数,否则参数无法估计。
2. 解释变量X 是确定性变量,要求,表明设计矩阵X 中的自变量列之间不相关,即矩阵X 是一个满秩矩阵。
若,则解释变量之间线性相关,是奇异阵,则的估计不稳定。
3.3证明 随机误差项ε的方差σ2的无偏估计。
证明:3.4 一个回归方程的复相关系数R=0.99,样本决定系数=0.9801,我们能断定这个回归方程就很理想吗?答:不能。
复相关系数R 与样本决定系数都是用来表示回归方程对原始数据拟合程度的好坏。
样本决定系数取值在【0,1】区间内,一般来说,越接近1,即取值越大,说明回归拟合的效果越好。
但由于的大小与样本容量n 和自变量个数p 有关,当n 与p 的值接近时,容易接近1,说明中隐含着一些虚假成分。
而当样本容量n 较小,自变量个数p 较大时,尽管很大,但参数估计效果很不稳定。
所以该题中不能仅仅因为很大而断定回归方程很理想。
3.5 如何正确理解回归方程显著性检验拒绝,接受? 答:一般来说,当接受假设时,认为在给定的显著性水平α之下,自变量,,…,对因变量y 无显著性影响,则通过,,…,去推断y 就无多大意义。
此时,一方面可能该问题本应该用非线性模型描述,我们误用线性模型描述了,使得自变量对因变量无显著影响;另一方面可能是在考虑自变量时,由于认识上的局限性把一些影响因变量y 的自变量漏掉了,这就从两个方面提醒我们去重新考虑建模问题。
当拒绝时,也不能过于相信该检验,认为该模型已经很完美。
其实当拒绝H 时,我们只能认为该回归模型在一定程度上说明了自变量,,…,与因变量y 的线性关系。
《应用回归分析》课后题答案[整理版]
《应用回归分析》课后题答案[整理版] 《应用回归分析》部分课后习题答案第一章回归分析概述 1.1 变量间统计关系和函数关系的区别是什么, 答:变量间的统计关系是指变量间具有密切关联而又不能由某一个或某一些变量唯一确定另外一个变量的关系,而变量间的函数关系是指由一个变量唯一确定另外一个变量的确定关系。
1.2 回归分析与相关分析的联系与区别是什么, 答:联系有回归分析和相关分析都是研究变量间关系的统计学课题。
区别有a.在回归分析中,变量y称为因变量,处在被解释的特殊地位。
在相关分析中,变量x和变量y处于平等的地位,即研究变量y与变量x的密切程度与研究变量x与变量y的密切程度是一回事。
b.相关分析中所涉及的变量y与变量x全是随机变量。
而在回归分析中,因变量y是随机变量,自变量x可以是随机变量也可以是非随机的确定变量。
C.相关分析的研究主要是为了刻画两类变量间线性相关的密切程度。
而回归分析不仅可以揭示变量x 对变量y的影响大小,还可以由回归方程进行预测和控制。
1.3 回归模型中随机误差项ε的意义是什么, 答:ε为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y与x1,x2…..xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。
1.4 线性回归模型的基本假设是什么,答:线性回归模型的基本假设有:1.解释变量x1.x2….xp是非随机的,观测值xi1.xi2…..xip是常数。
2.等方差及不相关的假定条件为{E(εi)=0 i=1,2….Cov(εi,εj)=,σ^23.正态分布的假定条件为相互独立。
4.样本容量的个数要多于解释变量的个数,即n>p.1.5 回归变量的设置理论根据是什么,在回归变量设置时应注意哪些问题,答:理论判断某个变量应该作为解释变量,即便是不显著的,如果理论上无法判断那么可以采用统计方法来判断,解释变量和被解释变量存在统计关系。
应用回归分析_整理课后习题参考题答案
第二章 一元线性回归分析思考与练习参考答案2.1 一元线性回归有哪些基本假定?答: 假设1、解释变量X 是确定性变量,Y 是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性: E(εi )=0 i=1,2, …,n Var (εi )=σ2 i=1,2, …,n Cov(εi, εj )=0 i≠j i,j= 1,2, …,n 假设3、随机误差项ε与解释变量X 之间不相关: Cov(X i , εi )=0 i=1,2, …,n 假设4、ε服从零均值、同方差、零协方差的正态分布 εi ~N(0, σ2 ) i=1,2, …,n 2.2 考虑过原点的线性回归模型 Y i =β1X i +εi i=1,2, …,n误差εi (i=1,2, …,n)仍满足基本假定。
求β1的最小二乘估计 解: 得:2.3 证明(2.27式),∑e i =0 ,∑e i X i =0 。
证明:其中:即: ∑e i =0 ,∑e i X i =0∑∑+-=-=nii i ni X Y Y Y Q 121021))ˆˆ(()ˆ(ββ21112)ˆ()ˆ(ini i ni i i e X Y Y Y Q β∑∑==-=-=01ˆˆˆˆi ii i iY X e Y Y ββ=+=-0100ˆˆQQββ∂∂==∂∂2.4回归方程E (Y )=β0+β1X 的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价?给出证明。
答:由于εi ~N(0, σ2 ) i=1,2, …,n所以Y i =β0 + β1X i + εi ~N (β0+β1X i , σ2 ) 最大似然函数:使得Ln (L )最大的0ˆβ,1ˆβ就是β0,β1的最大似然估计值。
同时发现使得Ln (L )最大就是使得下式最小,上式恰好就是最小二乘估计的目标函数相同。
值得注意的是:最大似然估计是在εi ~N (0, σ2 )的假设下求得,最小二乘估计则不要求分布假设。
《应用回归分析》课后题答案解析
(8) t
1
2
/ Lxx
1
Lxx
2
其中
1 n2
n i1
ei 2
1 n2
n i1
( yi
2
yi )
0.0036 1297860 8.542 0.04801
t /2 1.895
t 8.542 t /2
接受原假设 H 0: 1 0, 认为 1 显著不为 0,因变量 y 对自变量 x 的一元线性回归成立。
( yi
2
yi )
1 n-2
n i=1
( yi
( 0 1
2
x))
=
1 3
( 10-(-1+71))2 (10-(-1+7 (20-(-1+7 4))2 (40-(-1+7
2))2 (20-(-1+7 5))2
3))2
1 16 9 0 49 36
3
110 / 3
1
330 6.1
《应用回归分析》部分课后习题答案
第一章 回归分析概述
变量间统计关系和函数关系的区别是什么 答:变量间的统计关系是指变量间具有密切关联而又不能由某一个或某一些变量 唯一确定另外一个变量的关系,而变量间的函数关系是指由一个变量唯一确定另 外一个变量的确定关系。
回归分析与相关分析的联系与区别是什么 答:联系有回归分析和相关分析都是研究变量间关系的统计学课题。区别有 a. 在回归分析中,变量 y 称为因变量,处在被解释的特殊地位。在相关分析中,变 量 x 和变量 y 处于平等的地位,即研究变量 y 与变量 x 的密切程度与研究变量 x 与变量 y 的密切程度是一回事。b.相关分析中所涉及的变量 y 与变量 x 全是随机 变量。而在回归分析中,因变量 y 是随机变量,自变量 x 可以是随机变量也可以 是非随机的确定变量。C.相关分析的研究主要是为了刻画两类变量间线性相关的 密切程度。而回归分析不仅可以揭示变量 x 对变量 y 的影响大小,还可以由回归 方程进行预测和控制。
应用回归分析-第3章课后习题参考答案
第3章多元线性回归思考与练习参考答案3.1见教材P64-65 3.2讨论样本容量n 与自变量个数P 的关系,它们对模型的参数估计 有何影响?答:在多元线性回归模型中,样本容量 n 与自变量个数P 的关系是: n>>P 。
如果n<=p 对模型的参数估计会带来很严重的影响。
因为: 1.在多元线性回归模型中,有P+1个待估参数P,所以样本容量的个数应该大于解释变量的个数,否则参数无法估计。
2.解释变量X 是确定性变量,要求rank(X) p 1 n ,表明设计矩阵X 中的自变量列之间不相关,即矩阵X 是一个满秩矩阵。
若ran k(X) p 1,则解释变量之间线性相关,(XX)1是奇异阵,则的估计不稳定。
证明:我们能断定这个回归方程就很理想吗?2答:不能。
复相关系数 R 与样本决定系R 数都是用来表示回归方程对原始数据拟合程度的好坏。
样本决定系数取值在【0,1】区间内,22一般来说,R 越接近1,即R 取值越大,说明回归拟合的效果越好。
23.3证明?2SSE/ n p 1随机误差项£的方差2的无偏估计。
21 1 Q 于 ----------- SSE ---------- n P 1 n P 1nn n2 2E( e ) D(e) (1i 1i 1 i 1 dnE( ?2) —1—E( e 2)(ee)nh ii ) J p 1 i 1n2 2(1 h ii ) (nnh ii )i 12(n P 1)3.4 一个回归方程的复相关系数R=0.99,样本决定系数2R但由于R 的大小与样本容量n 和自变量个数p 有关,当n 与p 的值22接近时, R 容易接近1,说明R 中隐含着一些虚假成分。
而当样本2容量n较小,自变量个数P较大时,尽管R很大,但参数估计效果2很不稳定。
所以该题中不能仅仅因为R 很大而断定回归方程很理想。
3.5 如何正确理解回归方程显著性检验拒绝H0,接受H0?答:一般来说,当接受假设H o时,认为在给定的显著性水平a之下, 自变量X1, X2,…,X p对因变量y无显著性影响,贝y通过X1, X2,…,X p去推断y 就无多大意义。
应用回归分析第4章课后习题集参考答案
第4章违背基本假设的情况思考与练习参考答案4.1 试举例说明产生异方差的原因。
答:例4.1:截面资料下研究居民家庭的储蓄行为Y i=0+1X i+εi其中:Y i表示第i个家庭的储蓄额,X i表示第i个家庭的可支配收入。
由于高收入家庭储蓄额的差异较大,低收入家庭的储蓄额则更有规律性,差异较小,所以εi的方差呈现单调递增型变化。
例4.2:以某一行业的企业为样本建立企业生产函数模型Y i=A i1K i2L i3eεi被解释变量:产出量Y,解释变量:资本K、劳动L、技术A,那么每个企业所处的外部环境对产出量的影响被包含在随机误差项中。
由于每个企业所处的外部环境对产出量的影响程度不同,造成了随机误差项的异方差性。
这时,随机误差项ε的方差并不随某一个解释变量观测值的变化而呈规律性变化,呈现复杂型。
4.2 异方差带来的后果有哪些?答:回归模型一旦出现异方差性,如果仍采用OLS估计模型参数,会产生下列不良后果:1、参数估计量非有效2、变量的显著性检验失去意义3、回归方程的应用效果极不理想总的来说,当模型出现异方差性时,参数OLS估计值的变异程度增大,从而造成对Y的预测误差变大,降低预测精度,预测功能失效。
4.3 简述用加权最小二乘法消除一元线性回归中异方差性的思想与方法。
答:普通最小二乘估计就是寻找参数的估计值使离差平方和达极小。
其中每个平方项的权数相同,是普通最小二乘回归参数估计方法。
在误差项等方差不相关的条件下,普通最小二乘估计是回归参数的最小方差线性无偏估计。
然而在异方差的条件下,平方和中的每一项的地位是不相同的,误差项的方差大的项,在残差平方和中的取值就偏大,作用就大,因而普通最小二乘估计的回归线就被拉向方差大的项,方差大的项的拟合程度就好,而方差小的项的拟合程度就差。
由OLS 求出的仍然是的无偏估计,但不再是最小方差线性无偏估计。
所以就是:对较大的残差平方赋予较小的权数,对较小的残差平方赋予较大的权数。
《应用回归分析》课后习题部分答案何晓群版
第二章 一元线性回归2.14 解答:(1)散点图为:(2)x 与y 之间大致呈线性关系。
(3)设回归方程为01y x ββ∧∧∧=+1β∧=12217()ni ii nii x y n x yxn x --=-=-=-∑∑0120731y x ββ-∧-=-=-⨯=-17y x ∧∴=-+可得回归方程为(4)22ni=11()n-2i i y y σ∧∧=-∑ 2n 01i=11(())n-2i y x ββ∧∧=-+∑=2222213⎡⎤⨯+⨯+⨯⎢⎥+⨯+⨯⎣⎦(10-(-1+71))(10-(-1+72))(20-(-1+73))(20-(-1+74))(40-(-1+75)) []1169049363110/3=++++=6.1σ∧=≈ (5)由于211(,)xxN L σββ∧t σ∧==服从自由度为n-2的t 分布。
因而/2|(2)1P t n αασ⎡⎤⎢⎥<-=-⎢⎥⎣⎦也即:1/211/2(p t t ααβββ∧∧∧∧-<<+=1α-可得195%β∧的置信度为的置信区间为(7-2.3537+2.353 即为:(2.49,11.5)2201()(,())xxx Nn L ββσ-∧+t ∧∧==服从自由度为n-2的t 分布。
因而/2(2)1P t n αα∧⎡⎤⎢⎥⎢⎥<-=-⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦即0/200/2()1p βσββσα∧∧∧∧-<<+=- 可得195%7.77,5.77β∧-的置信度为的置信区间为()(6)x 与y 的决定系数22121()490/6000.817()nii nii y y r y y ∧-=-=-==≈-∑∑(7)由于(1,3)F F α>,拒绝0H ,说明回归方程显著,x 与y 有显著的线性关系。
(8)t σ∧==其中2221111()22n ni i i i i e y y n n σ∧∧====---∑∑ 7 3.661==≈ /2 2.353t α= /23.66t t α=>∴接受原假设01:0,H β=认为1β显著不为0,因变量y 对自变量x 的一元线性回归成立。
最新《应用回归分析》课后题答案解析
《应用回归分析》部分课后习题答案第一章回归分析概述1.1 变量间统计关系和函数关系的区别是什么?答:变量间的统计关系是指变量间具有密切关联而又不能由某一个或某一些变量唯一确定另外一个变量的关系,而变量间的函数关系是指由一个变量唯一确定另外一个变量的确定关系。
1.2 回归分析与相关分析的联系与区别是什么?答:联系有回归分析和相关分析都是研究变量间关系的统计学课题。
区别有a.在回归分析中,变量y称为因变量,处在被解释的特殊地位。
在相关分析中,变量x和变量y处于平等的地位,即研究变量y与变量x的密切程度与研究变量x 与变量y的密切程度是一回事。
b.相关分析中所涉及的变量y与变量x全是随机变量。
而在回归分析中,因变量y是随机变量,自变量x可以是随机变量也可以是非随机的确定变量。
C.相关分析的研究主要是为了刻画两类变量间线性相关的密切程度。
而回归分析不仅可以揭示变量x对变量y的影响大小,还可以由回归方程进行预测和控制。
1.3 回归模型中随机误差项ε的意义是什么?答:ε为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y与x1,x2…..xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。
1.4 线性回归模型的基本假设是什么?答:线性回归模型的基本假设有:1.解释变量x1.x2….xp是非随机的,观测值xi1.xi2…..xip是常数。
2.等方差及不相关的假定条件为{E(εi)=0 i=1,2…. Cov(εi,εj)={σ^23.正态分布的假定条件为相互独立。
4.样本容量的个数要多于解释变量的个数,即n>p.1.5 回归变量的设置理论根据是什么?在回归变量设置时应注意哪些问题?答:理论判断某个变量应该作为解释变量,即便是不显著的,如果理论上无法判断那么可以采用统计方法来判断,解释变量和被解释变量存在统计关系。
应用回归分析第四版课后习题答案-全
实用回归分析第四版第一章回归分析概述1.3回归模型中随机误差项ε的意义是什么?答:ε为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y与x1,x2…..xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。
1.4 线性回归模型的基本假设是什么?答:线性回归模型的基本假设有:1.解释变量x1.x2….xp是非随机的,观测值xi1.xi2…..xip是常数。
2.等方差及不相关的假定条件为{E(εi)=0 i=1,2…. Cov(εi,εj)={σ^23.正态分布的假定条件为相互独立。
4.样本容量的个数要多于解释变量的个数,即n>p.第二章一元线性回归分析思考与练习参考答案2.1一元线性回归有哪些基本假定?答:假设1、解释变量X是确定性变量,Y是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性:E(εi)=0 i=1,2, …,nVar (εi)=σ2i=1,2, …,nCov(εi,εj)=0 i≠j i,j= 1,2, …,n假设3、随机误差项ε与解释变量X之间不相关:Cov(X i, εi)=0 i=1,2, …,n假设4、ε服从零均值、同方差、零协方差的正态分布εi~N(0, σ2) i=1,2, …,n2.3 证明(2.27式),∑e i =0 ,∑e i X i=0 。
证明:∑∑+-=-=niiiniXYYYQ12121))ˆˆ(()ˆ(ββ其中:即: ∑e i =0 ,∑e i X i =02.5 证明0ˆβ是β0的无偏估计。
证明:)1[)ˆ()ˆ(1110∑∑==--=-=ni i xxi n i i Y L X X X Y n E X Y E E ββ )] )(1([])1([1011i i xx i n i i xx i ni X L X X X n E Y L X X X n E εββ++--=--=∑∑==1010)()1(])1([βεβεβ=--+=--+=∑∑==i xx i ni i xx i ni E L X X X nL X X X n E 2.6 证明 证明:)] ()1([])1([)ˆ(102110i i xxi ni ixx i ni X Var L X X X n Y L X X X n Var Var εβββ++--=--=∑∑== 222212]1[])(2)1[(σσxx xx i xx i ni L X n L X X X nL X X X n +=-+--=∑=2.7 证明平方和分解公式:SST=SSE+SSR证明:2.8 验证三种检验的关系,即验证: (1)21)2(r r n t --=;(2)2221ˆˆ)2/(1/t L n SSE SSR F xx ==-=σβ 01ˆˆˆˆi i i i iY X e Y Y ββ=+=-())1()1()ˆ(222122xx ni iL X n X XX nVar +=-+=∑=σσβ()()∑∑==-+-=-=n i ii i n i i Y Y Y Y Y Y SST 1212]ˆ()ˆ[()()()∑∑∑===-+--+-=ni ii ni i i i ni iY Y Y Y Y Y Y Y 12112)ˆˆ)(ˆ2ˆ()()SSESSR )Y ˆY Y Y ˆn1i 2ii n1i 2i +=-+-=∑∑==0100ˆˆQQββ∂∂==∂∂证明:(1)ˆt======(2)2222201111 1111ˆˆˆˆˆˆ()()(())(()) n n n ni i i i xxi i i iSSR y y x y y x x y x x Lβββββ=====-=+-=+--=-=∑∑∑∑2212ˆ/1ˆ/(2)xxLSSRF tSSE nβσ∴===-2.9 验证(2.63)式:2211σ)L)xx(n()e(Varxxii---=证明:0112222222ˆˆˆvar()var()var()var()2cov(,)ˆˆˆvar()var()2cov(,())()()11[]2[]()1[1]i i i i i i ii i i ii ixx xxixxe y y y y y yy x y y x xx x x xn L n Lx xn Lβββσσσσ=-=+-=++-+---=++-+-=--其中:222221111))(1()(1))(,()()1,())(ˆ,(),())(ˆ,(σσσββxxixxiniixxiiiniiiiiiiiLxxnLxxnyLxxyCovxxynyCovxxyCovyyCovxxyyCov-+=-+=--+=-+=-+∑∑==2.10 用第9题证明是σ2的无偏估计量证明:2221122112211ˆˆ()()()22()111var()[1]221(2)2n ni ii in niii i xxE E y y E en nx xen n n Lnnσσσσ=====-=---==----=-=-∑∑∑∑第三章2ˆ22-=∑neiσ1.一个回归方程的复相关系数R=0.99,样本决定系数R 2=0.9801,我们能判断这个回归方程就很理想吗? 答:不能断定这个回归方程理想。
应用回归分析第四版课后习题答案_全_何晓群_刘文卿
实用回归分析第四版第一章回归分析概述1.3回归模型中随机误差项ε的意义是什么?答:ε为随机误差项,正是由于随机误差项的引入,才将变量间的关系描述为一个随机方程,使得我们可以借助随机数学方法研究y与x1,x2…..xp的关系,由于客观经济现象是错综复杂的,一种经济现象很难用有限个因素来准确说明,随机误差项可以概括表示由于人们的认识以及其他客观原因的局限而没有考虑的种种偶然因素。
1.4 线性回归模型的基本假设是什么?答:线性回归模型的基本假设有:1.解释变量x1.x2….xp是非随机的,观测值xi1.xi2…..xip是常数。
2.等方差及不相关的假定条件为{E(εi)=0 i=1,2…. Cov(εi,εj)={σ^23.正态分布的假定条件为相互独立。
4.样本容量的个数要多于解释变量的个数,即n>p.第二章一元线性回归分析思考与练习参考答案2.1一元线性回归有哪些基本假定?答:假设1、解释变量X是确定性变量,Y是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性:E(εi)=0 i=1,2, …,nVar (εi)=σ2i=1,2, …,nCov(εi,εj)=0 i≠j i,j= 1,2, …,n假设3、随机误差项ε与解释变量X之间不相关:Cov(X i, εi)=0 i=1,2, …,n假设4、ε服从零均值、同方差、零协方差的正态分布εi~N(0, σ2) i=1,2, …,n2.3 证明(2.27式),∑e i =0 ,∑e i X i=0 。
证明:∑∑+-=-=niiiniXYYYQ12121))ˆˆ(()ˆ(ββ其中:即: ∑e i =0 ,∑e i X i =02.5 证明0ˆβ是β0的无偏估计。
证明:)1[)ˆ()ˆ(1110∑∑==--=-=ni i xxi n i i Y L X X X Y n E X Y E E ββ )] )(1([])1([1011i i xx i n i i xx i ni X L X X X n E Y L X X X n E εββ++--=--=∑∑==1010)()1(])1([βεβεβ=--+=--+=∑∑==i xx i ni i xx i ni E L X X X nL X X X n E 2.6 证明 证明:)] ()1([])1([)ˆ(102110i i xxi ni ixx i ni X Var L X X X n Y L X X X n Var Var εβββ++--=--=∑∑== 222212]1[])(2)1[(σσxx xx i xx i ni L X n L X X X nL X X X n +=-+--=∑=2.7 证明平方和分解公式:SST=SSE+SSR证明:2.8 验证三种检验的关系,即验证: (1)21)2(r r n t --=;(2)2221ˆˆ)2/(1/t L n SSE SSR F xx ==-=σβ 01ˆˆˆˆi i i i iY X e Y Y ββ=+=-())1()1()ˆ(222122xx ni iL X n X XX nVar +=-+=∑=σσβ()()∑∑==-+-=-=n i ii i n i i Y Y Y Y Y Y SST 1212]ˆ()ˆ[()()()∑∑∑===-+--+-=ni ii ni i i i ni iY Y Y Y Y Y Y Y 12112)ˆˆ)(ˆ2ˆ()()SSESSR )Y ˆY Y Y ˆn1i 2ii n1i 2i +=-+-=∑∑==0100ˆˆQQββ∂∂==∂∂证明:(1)ˆt======(2)2222201111 1111ˆˆˆˆˆˆ()()(())(()) n n n ni i i i xxi i i iSSR y y x y y x x y x x Lβββββ=====-=+-=+--=-=∑∑∑∑2212ˆ/1ˆ/(2)xxLSSRF tSSE nβσ∴===-2.9 验证(2.63)式:2211σ)L)xx(n()e(Varxxii---=证明:0112222222ˆˆˆvar()var()var()var()2cov(,)ˆˆˆvar()var()2cov(,())()()11[]2[]()1[1]i i i i i i ii i i ii ixx xxixxe y y y y y yy x y y x xx x x xn L n Lx xn Lβββσσσσ=-=+-=++-+---=++-+-=--其中:222221111))(1()(1))(,()()1,())(ˆ,(),())(ˆ,(σσσββxxixxiniixxiiiniiiiiiiiLxxnLxxnyLxxyCovxxynyCovxxyCovyyCovxxyyCov-+=-+=--+=-+=-+∑∑==2.10 用第9题证明是σ2的无偏估计量证明:2221122112211ˆˆ()()()22()111var()[1]221(2)2n ni ii in niii i xxE E y y E en nx xen n n Lnnσσσσ=====-=---==----=-=-∑∑∑∑第三章2ˆ22-=∑neiσ1.一个回归方程的复相关系数R=0.99,样本决定系数R 2=0.9801,我们能判断这个回归方程就很理想吗? 答:不能断定这个回归方程理想。
《应用回归分析》课后习题部分答案何晓群版
第二章 一元线性回归2.14 解答:(1)散点图为:(2)x 与y 之间大致呈线性关系。
(3)设回归方程为01y x ββ∧∧∧=+1β∧=12217()ni ii nii x y n x yxn x --=-=-=-∑∑0120731y x ββ-∧-=-=-⨯=-17y x ∧∴=-+可得回归方程为(4)22ni=11()n-2i i y y σ∧∧=-∑ 2n 01i=11(())n-2i y x ββ∧∧=-+∑=2222213⎡⎤⨯+⨯+⨯⎢⎥+⨯+⨯⎣⎦(10-(-1+71))(10-(-1+72))(20-(-1+73))(20-(-1+74))(40-(-1+75)) []1169049363110/3=++++=6.1σ∧=≈ (5)由于211(,)xxN L σββ∧t σ∧==服从自由度为n-2的t 分布。
因而/2|(2)1P t n αασ⎡⎤⎢⎥<-=-⎢⎥⎣⎦也即:1/211/2(p t t ααβββ∧∧∧∧-<<+=1α-可得195%β∧的置信度为的置信区间为(7-2.3537+2.353 即为:(2.49,11.5)2201()(,())xxx Nn L ββσ-∧+t ∧∧==服从自由度为n-2的t 分布。
因而/2(2)1P t n αα∧⎡⎤⎢⎥⎢⎥<-=-⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦即0/200/2()1p βσββσα∧∧∧∧-<<+=- 可得195%7.77,5.77β∧-的置信度为的置信区间为()(6)x 与y 的决定系数22121()490/6000.817()nii nii y y r y y ∧-=-=-==≈-∑∑(7)由于(1,3)F F α>,拒绝0H ,说明回归方程显著,x 与y 有显著的线性关系。
(8)t σ∧==其中2221111()22n ni i i i i e y y n n σ∧∧====---∑∑ 7 3.661==≈ /2 2.353t α= /23.66t t α=>∴接受原假设01:0,H β=认为1β显著不为0,因变量y 对自变量x 的一元线性回归成立。
第一章 课后习题解答(应用回归分析)
1、变量间统计关系和函数关系的区别是什么?答:函数关系是一种确定性的关系,一个变量的变化能完全决定另一个变量的变化;统计关系是非确定的,尽管变量间的关系密切,但是变量不能由另一个或另一些变量唯一确定。
2、回归分析与相关分析的区别和联系是什么?答:联系:刻画变量间的密切联系;区别:一、回归分析中,变量y 称为因变量,处在被解释的地位,而在相关分析中,变量y 与x 处于平等地位;二、相关分析中y 与x 都是随机变量,而回归分析中y 是随机的,x 是非随机变量。
三、回归分析不仅可以刻画线性关系的密切程度,还可以由回归方程进行预测和控制。
3、回归模型中随机误差项ε的意义是什么?主要包括哪些因素?答:随机误差项ε的引入,才能将变量间的关系描述为一个随机方程。
主要包括:时间、费用、数据质量等的制约;数据采集过程中变量观测值的观测误差;理论模型设定的误差;其他随机误差。
4、线性回归模型的基本假设是什么?答:1、解释变量非随机;2、样本量个数要多于解释变量(自变量)个数;3、高斯-马尔科夫条件;4、随机误差项相互独立,同分布于2(0,)N σ。
5、回归变量设置的理论根据?在设置回归变量时应注意哪些问题?答:因变量与自变量之间的因果关系。
需注意问题:一、对所研究的问题背景要有足够了解;二、解释变量之间要求不相关;三、若某个重要的变量在实际中没有相应的统计数据,应考虑用相近的变量代替,或者由其他几个指标复合成一个新的指标;四、解释变量并非越多越好。
6、收集、整理数据包括哪些内容?答:一、收集数据的类型(时间序列、截面数据);二、数据应注意可比性和数据统计口径问题(统计范围);三、整理数据时要注意出现“序列相关”和“异方差”的问题;四、收集数据的样本量应大于解释变量;四、整理数据包括:拆算、差分、对数化、标准化以及提出极端值,有缺失值时的处理。
7、构造回归理论模型的基本根据是什么?答:收集到的数据变量之间的数学关系(线性、非线性)以及所研究问题背景的相关模型,例如数理经济中的投资函数、生产函数、需求函数、消费函数等。
应用回归分析_第2章课后习题参考答案
2.1 一元线性回归模型有哪些基本假定?答:1. 解释变量 1x , ,2x ,p x 是非随机变量,观测值,1i x ,,2 i x ip x 是常数。
2. 等方差及不相关的假定条件为⎪⎪⎩⎪⎪⎨⎧⎪⎩⎪⎨⎧≠=====j i n j i j i n i E j i i ,0),,2,1,(,),cov(,,2,1,0)(2 σεεε 这个条件称为高斯-马尔柯夫(Gauss-Markov)条件,简称G-M 条件。
在此条件下,便可以得到关于回归系数的最小二乘估计及误差项方差2σ估计的一些重要性质,如回归系数的最小二乘估计是回归系数的最小方差线性无偏估计等。
3. 正态分布的假定条件为⎩⎨⎧=相互独立n i n i N εεεσε,,,,,2,1),,0(~212 在此条件下便可得到关于回归系数的最小二乘估计及2σ估计的进一步结果,如它们分别是回归系数的最及2σ的最小方差无偏估计等,并且可以作回归的显著性检验及区间估计。
4. 通常为了便于数学上的处理,还要求,p n >及样本容量的个数要多于解释变量的个数。
在整个回归分析中,线性回归的统计模型最为重要。
一方面是因为线性回归的应用最广泛;另一方面是只有在回归模型为线性的假设下,才能的到比较深入和一般的结果;再就是有许多非线性的回归模型可以通过适当的转化变为线性回归问题进行处理。
因此,线性回归模型的理论和应用是本书研究的重点。
1. 如何根据样本),,2,1)(;,,,(21n i y x x x i ip i i =求出p ββββ,,,,210 及方差2σ的估计;2. 对回归方程及回归系数的种种假设进行检验;3. 如何根据回归方程进行预测和控制,以及如何进行实际问题的结构分析。
2.2 考虑过原点的线性回归模型 n i x y i i i ,,2,1,1 =+=εβ误差n εεε,,,21 仍满足基本假定。
求1β的最小二乘估计。
答:∑∑==-=-=ni ni i i i x y y E y Q 1121121)())(()(ββ∑∑∑===+-=--=∂∂n i n i ni i i i i i i x y x x x y Q111211122)(2βββ 令,01=∂∂βQ即∑∑===-n i ni i i i x y x 11210β 解得,ˆ1211∑∑===ni ini i i xyx β即1ˆβ的最小二乘估计为.ˆ1211∑∑===ni ini ii xyx β2.3 证明: Q (β,β1)= ∑(y i-β0-β1x i)2因为Q (∧β0,∧β1)=min Q (β0,β1 )而Q (β0,β1) 非负且在R 2上可导,当Q 取得最小值时,有即-2∑(y i -∧β0-∧β1x i )=0 -2∑(y i-∧β0-∧β1x i ) x i=0又∵e i =yi -( ∧β0+∧β1x i )= yi -∧β0-∧β1x i ∴∑e i =0,∑e i x i =0(即残差的期望为0,残差以变量x 的加权平均值为零)2.4 解:参数β0,β1的最小二乘估计与最大似然估计在εi~N(0, 2 ) i=1,2,……n 的条件下等价。
应用回归分析_第2章课后习题参考答案
2.1 一元线性回归模型有哪些基本假定?答:1. 解释变量 1x , ,2x ,p x 是非随机变量,观测值,1i x ,,2 i x ip x 是常数。
2. 等方差及不相关的假定条件为⎪⎪⎩⎪⎪⎨⎧⎪⎩⎪⎨⎧≠=====j i n j i j i n i E j i i ,0),,2,1,(,),cov(,,2,1,0)(2 σεεε 这个条件称为高斯-马尔柯夫(Gauss-Markov)条件,简称G-M 条件。
在此条件下,便可以得到关于回归系数的最小二乘估计及误差项方差2σ估计的一些重要性质,如回归系数的最小二乘估计是回归系数的最小方差线性无偏估计等。
3. 正态分布的假定条件为⎩⎨⎧=相互独立n i n i N εεεσε,,,,,2,1),,0(~212 在此条件下便可得到关于回归系数的最小二乘估计及2σ估计的进一步结果,如它们分别是回归系数的最及2σ的最小方差无偏估计等,并且可以作回归的显著性检验及区间估计。
4. 通常为了便于数学上的处理,还要求,p n >及样本容量的个数要多于解释变量的个数。
在整个回归分析中,线性回归的统计模型最为重要。
一方面是因为线性回归的应用最广泛;另一方面是只有在回归模型为线性的假设下,才能的到比较深入和一般的结果;再就是有许多非线性的回归模型可以通过适当的转化变为线性回归问题进行处理。
因此,线性回归模型的理论和应用是本书研究的重点。
1. 如何根据样本),,2,1)(;,,,(21n i y x x x i ip i i =求出p ββββ,,,,210 及方差2σ的估计;2. 对回归方程及回归系数的种种假设进行检验;3. 如何根据回归方程进行预测和控制,以及如何进行实际问题的结构分析。
2.2 考虑过原点的线性回归模型 n i x y i i i ,,2,1,1 =+=εβ误差n εεε,,,21 仍满足基本假定。
求1β的最小二乘估计。
答:∑∑==-=-=ni ni i i i x y y E y Q 1121121)())(()(ββ∑∑∑===+-=--=∂∂n i n i ni i i i i i i x y x x x y Q111211122)(2βββ 令,01=∂∂βQ即∑∑===-n i ni i i i x y x 11210β 解得,ˆ1211∑∑===ni ini i i xyx β即1ˆβ的最小二乘估计为.ˆ1211∑∑===ni ini ii xyx β2.3 证明: Q (β,β1)= ∑(y i-β0-β1x i)2因为Q (∧β0,∧β1)=min Q (β0,β1 )而Q (β0,β1) 非负且在R 2上可导,当Q 取得最小值时,有即-2∑(y i -∧β0-∧β1x i )=0 -2∑(y i-∧β0-∧β1x i ) x i=0又∵e i =yi -( ∧β0+∧β1x i )= yi -∧β0-∧β1x i ∴∑e i =0,∑e i x i =0(即残差的期望为0,残差以变量x 的加权平均值为零)2.4 解:参数β0,β1的最小二乘估计与最大似然估计在εi~N(0, 2 ) i=1,2,……n 的条件下等价。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
2.1 一元线性回归模型有哪些基本假定?答:1. 解释变量 1x ,Λ,2x ,p x 是非随机变量,观测值,1i x ,,2Λi x ip x 是常数。
2. 等方差及不相关的假定条件为⎪⎪⎩⎪⎪⎨⎧⎪⎩⎪⎨⎧≠=====j i n j i j i n i E j i i ,0),,2,1,(,),cov(,,2,1,0)(2ΛΛσεεε 这个条件称为高斯-马尔柯夫(Gauss-Markov)条件,简称G-M 条件。
在此条件下,便可以得到关于回归系数的最小二乘估计及误差项方差2σ估计的一些重要性质,如回归系数的最小二乘估计是回归系数的最小方差线性无偏估计等。
3. 正态分布的假定条件为⎩⎨⎧=相互独立n i n i N εεεσε,,,,,2,1),,0(~212ΛΛ 在此条件下便可得到关于回归系数的最小二乘估计及2σ估计的进一步结果,如它们分别是回归系数的最及2σ的最小方差无偏估计等,并且可以作回归的显著性检验及区间估计。
4. 通常为了便于数学上的处理,还要求,p n >及样本容量的个数要多于解释变量的个数。
在整个回归分析中,线性回归的统计模型最为重要。
一方面是因为线性回归的应用最广泛;另一方面是只有在回归模型为线性的假设下,才能的到比较深入和一般的结果;再就是有许多非线性的回归模型可以通过适当的转化变为线性回归问题进行处理。
因此,线性回归模型的理论和应用是本书研究的重点。
1. 如何根据样本),,2,1)(;,,,(21n i y x x x i ip i i ΛΛ=求出p ββββ,,,,210Λ及方差2σ的估计;2. 对回归方程及回归系数的种种假设进行检验;3. 如何根据回归方程进行预测和控制,以及如何进行实际问题的结构分析。
2.2 考虑过原点的线性回归模型 n i x y i i i ,,2,1,1Λ=+=εβ误差n εεε,,,21Λ仍满足基本假定。
求1β的最小二乘估计。
答:∑∑==-=-=ni ni i i i x y y E y Q 1121121)())(()(ββ∑∑∑===+-=--=∂∂n i n i ni i i i i i i x y x x x y Q111211122)(2βββ 令,01=∂∂βQ即∑∑===-n i ni i i i x y x 11210β 解得,ˆ1211∑∑===ni ini i i xyx β即1ˆβ的最小二乘估计为.ˆ1211∑∑===ni ini ii xyx β2.3 证明: Q (β,β1)= ∑(y i-β0-β1x i)2因为Q (∧β0,∧β1)=min Q (β0,β1 )而Q (β0,β1) 非负且在R2上可导,当Q 取得最小值时,有 即-2∑(y i -∧β0-∧β1x i )=0 -2∑(y i-∧β0-∧β1x i ) x i=0又∵e i =yi -( ∧β0+∧β1x i )= yi -∧β0-∧β1x i ∴∑e i =0,∑e i x i =0(即残差的期望为0,残差以变量x 的加权平均值为零)2.4 解:参数β0,β1的最小二乘估计与最大似然估计在εi~N(0, 2 ) i=1,2,……n 的条件下等价。
证明:因为ni N i ,.....2,1),,0(~2=σε所以),(~2110110σββεββX X Y N i i +++=其最大似然函数为已知使得Ln (L )最大的0ˆβ,1ˆβ就是β0,β1的最大似然估计值。
即使得下式最小 :∑∑+-=-=nii i n i X Y Y Y Q 121021))ˆˆ(()ˆ(ββ ①因为①恰好就是最小二乘估计的目标函数相同。
所以,在ni N i ,.....2,1),,0(~2=σε 的条件下, 参数β0,β1的最小二100ˆˆQQββ∂∂==∂∂乘估计与最大似然估计等价。
2.5.证明0β)是0β的无偏估计。
证明:若要证明0β)是0β的无偏估计,则只需证明E(0β))=0β。
因为0β),1β)的最小二乘估计为⎪⎩⎪⎨⎧-==x y L L xxxy 101/βββ))) 其中∑∑∑∑∑∑∑∑∑-=-=-=-=-=--=22222)(1)(1))((i i i i xx i i i i i i i i xy x nx x n x x x L y x ny x y x n y x y y x x LE(0ˆβ)=E(x y 1ˆβ-)=E(∑∑==--n i i xx i n i i y L x x x y n 111)=E[∑=--ni i xx i y L x x x n 1)1(]=E[∑=++--ni i i xxi x L x x x n 110))(1(εββ]=E(∑=--ni xx i L x x x n 10)1(β)+E(∑=--n i i xx i x L x x x n 11)1(β)+E(∑=--ni i xx i L x x x n 1)1(ε)其中∑=--ni xx i L x x x n 10)1(β=∑=--ni xx i L x x x n 10)1(β=))(1(10∑=--ni ixx x xL x n n β由于∑=-ni i x x 1)(=0,所以∑=--ni xx i L x x x n 10)1(β=0β∑=--ni i xx i x L x x x n 11)1(β=∑=--ni ixx i i x L x x x n x 11)(β=))((11∑=--ni i ixx x x xL x x β=)-)(((11∑=--ni i ixxx x x xL xx β)=)(1x x -β=0又因为一元线性回归模型为⎩⎨⎧++=),0(210σεεββN x y i i i i 独立同分布,其分布为各所以E(iε)=0所以E(∑=--ni xx i L x x x n 10)1(β)+E(∑=--n i i xx i x L x x x n 11)1(β)+E(∑=--ni i xx i L x x x n 1)1(ε=++)0()(0E E β ∑=--ni i xx i E L x x x n 1)()1(ε=0β所以0β)是0β的无偏估计。
2.6 解:因为∑==ni i yn y 11 ①,xy ∧∧-=ββ1②,yLx in i xxix∑=∧-=11β③联立 ①②③式,得到y L x ini xx ix x n ∑=∧--=10)1(β。
])1([)(10y L x i ni xx i x x n Var Var ∑=∧--=β)(1])1[(2y L x x x ni Var ni xx i ∑--==σ2122]2(1[)∑-=--+=ni xxi nLx L x x x nx x xxi因为∑-==ni xxx x Li 12)(,)(1=-∑=n i ix x ,所以σβ21212212])(21[)()()(nLx L x x x nxxni ini ni x x xxi Var ∑∑-∑===∧-++=σ22)(1⎪⎪⎪⎭⎫ ⎝⎛+=L x xxn σ2122)()(1⎪⎪⎪⎪⎭⎫ ⎝⎛+=∑-=ni x x x i n2.7 证明平方和分解公式:SST=SSE+SSR证明:2.8 验证三种检验的关系,即验证:()()∑∑==-+-=-=ni i i n i i y i y yy y y SST 1212]ˆ()ˆ[()()()∑∑∑===-+--+-=ni i i n i i i i n i i y y y y y y y y12112)ˆˆ)(ˆ2ˆ()()SSE SSR y y y y ni i i n i i +=-+-=∑∑==1212)ˆˆ(1)21)2(r r n t --=;(2)2221ˆˆ)2/(1/t L n SSE SSR F xx ==-=σβ证明:(1)因为2-n 22SSESSR L xx =∧∧=σβ和,所以SSTSSE SST SSRn SSESSR n n SSE t LLxxxx)()(22222-=-=-∧=∧=∧βσβ又因为SST SSR r=2,所以SST SSE SST SSR SST r =-=-21故21)2(r r n t --=得证。
(2)22222011111111ˆˆˆˆˆˆ()()(())(())nnnni i ii xx i i i i SSR y y x y y x x y x x L βββββ=====-=+-=+--=-=∑∑∑∑2212ˆ/1ˆ/(2)xx L SSR F t SSE n βσ∴===-g2.9 验证(2.63)式:()σ2xx2i Lx -x e i-n 1-1var ⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=)(证明:),()()()()(∧∧∧+==y y y y y y eiiiiiii cov 2-var var -var var ))x -y cov 2var var x y x y i1ii1i(,()()(∧∧∧+-++=βββ ⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡+-⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡++=--L x x L xx i n )()(22xx 22212i n 1x x σσσ()σ2xx2x -x in 11⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡--=L其中: ()⎪⎪⎭⎫ ⎝⎛-∧+x y cov x y i1i β,()()⎪⎪⎭⎫⎝⎛∧+=x -cov y cov x y y i 1i i β,,()()⎪⎪⎭⎫⎝⎛+⎪⎭⎫⎝⎛=∑∑==n 1i i xxii i n 1i i i y x y x y y x -cov x -n 1cov L,, ()σσ222n1Lx x xxi-+=()σ22n 1⎪⎪⎪⎭⎫ ⎝⎛+=-Lx x xxi注:各个因变量yy y n (2)1,是独立的随机变量),cov()var()var()var(Y X Y X Y X 2++=+2.10 用第9题证明2-n ie 22∑=∧σ是σ2的无偏估计量证明:()∑-=∧∧=⎪⎪⎭⎫ ⎝⎛n 1i 22y y ii2-n 1E E σ∑=⎪⎭⎫⎝⎛=n 1i 2e i 2-n 1E ()∑==ni i e 12-n 1var()σ2n1i xx2Lx -x i-n1-12-n 1∑=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=()σ222-n 1-=n σ2= 注:[])()()var(X E X E X 22+=2.11验证22-+=n F Fr证明:)2(*)2(-⎪⎭⎫ ⎝⎛=-=n SSE SSR n SSESSR F 所以有F n SSR SSE )2(-=()2)2(11112-+=⎪⎭⎫ ⎝⎛-+=+=+==n F FF n SSR SSESSE SSR SSR SST SSR r以上表达式说明r ²与F 等价,但我们要分别引入这两个统计量,而不是只引入其中一个。