应用回归分析,第2章课后习题参考答案
应用回归分析+第2章详细答案word资料7页

由⎪⎪⎩⎪⎪⎨⎧=β-β-=β∂∂=β-β-=β∂∂∑∑=β=β=β=βn1i i i 10i ˆ1n 1i i 10i ˆ00x )x ˆˆy (Q 0)x ˆˆy (Q 1100得⎪⎪⎩⎪⎪⎨⎧==-==-∑∑∑∑====n 1i n 1i i i i i i n 1i n1i i i i 0x e x )y ˆy (0e )y ˆy ( 2.4在),0(N ~2i σε的正态分布假定下,10,ββ的最小二乘估计与最大似然估计等价,求对数似然函数的极大值等价于对∑=β+β-n1i 2i 10i )]x (y [求极小值,至此与最小二乘估计原理完全相同2.52.6 2.7 2.8(1)22i2i 2i2i 2i2i2i i2i i xx 1xx 1r 12n r )y y ()y y ˆ(12n r )y y ()y yˆ()y y (2n r )y y ()yˆy (2n r )y ˆy (2n L ˆˆL ˆt --=----=-----=---=--β=σβ=∑∑∑∑∑∑∑∑(2)F )2n /(SSE 1/SSR SSE SSR )2n (SSTSSR 1SST SSR)2n (r 1r )2n (t 222=-=-=--=--= 2.92.11如果一个线性回归方程通过F 检验,只能说明x 与y 之间的线性关系是显著的,不能说明数据拟合得很好,决定系数r 2是一个回归直线与样本观测值拟合优度的相对指标。
2.12如果自变量观测值都乘以2,回归参数的最小二乘估计0ˆβ不变,1ˆβ变为原来的½; 如果自变量观测值都加上2,回归参数的最小二乘估计0ˆβ,1ˆβ都扩大两倍; 2.13不成立,相关系数与样本量n 有关,当n 较小时,相关系数的绝对值容易接近于1;当n 较大时,相关系数绝对值容易偏小。
2.14(1)散点图为(2)x 与y 之间大致呈线性关系(3)设回归方程为 x ˆˆy ˆ10β+β= 模型非标准化系数 标准系数 tSig.B标准 误差试用版1(常量)-1.0006.351-.157.885x7.0001.915.9043.656.035由系数分析表可知:7ˆ,1ˆ10=β-=β (4)模型汇总b模型RR 方调整 R 方标准 估计的误差1.904a.817 .756 6.05530a. 预测变量: (常量), x 。
应用回归分析-第2章课后习题参考答案

第二章 一元線性回歸分析思考與練習參考答案2.1 一元線性回歸有哪些基本假定?答: 假設1、解釋變數X 是確定性變數,Y 是隨機變數;假設2、隨機誤差項ε具有零均值、同方差和不序列相關性: E(εi )=0 i=1,2, …,n Var (εi )=σ2 i=1,2, …,n Cov(εi, εj )=0 i≠j i,j= 1,2, …,n 假設3、隨機誤差項ε與解釋變數X 之間不相關: Cov(X i , εi )=0 i=1,2, …,n假設4、ε服從零均值、同方差、零協方差の正態分佈 εi ~N(0, σ2 ) i=1,2, …,n 2.2 考慮過原點の線性回歸模型 Y i =β1X i +εi i=1,2, …,n誤差εi (i=1,2, …,n )仍滿足基本假定。
求β1の最小二乘估計 解: 得:2.3 證明(2.27式),∑e i =0 ,∑e i X i =0 。
證明:∑∑+-=-=nii i ni X Y Y Y Q 121021))ˆˆ(()ˆ(ββ其中:即: ∑e i =0 ,∑e i X i =021112)ˆ()ˆ(ini i ni i i e X Y Y Y Q β∑∑==-=-=01ˆˆˆˆi ii i iY X e Y Y ββ=+=-0100ˆˆQQββ∂∂==∂∂2.4回歸方程E (Y )=β0+β1X の參數β0,β1の最小二乘估計與最大似然估計在什麼條件下等價?給出證明。
答:由於εi ~N(0, σ2 ) i=1,2, …,n所以Y i =β0 + β1X i + εi ~N (β0+β1X i , σ2 ) 最大似然函數:使得Ln (L )最大の0ˆβ,1ˆβ就是β0,β1の最大似然估計值。
同時發現使得Ln (L )最大就是使得下式最小,∑∑+-=-=nii i n i X Y Y Y Q 121021))ˆˆ(()ˆ(ββ上式恰好就是最小二乘估計の目標函數相同。
《应用回归分析》课后习题部分答案-何晓群版

第二章 一元线性回归2.14 解答:(1)散点图为:(2)x 与y 之间大致呈线性关系。
(3)设回归方程为01y x ββ∧∧∧=+1β∧=12217()ni ii nii x y n x yxn x --=-=-=-∑∑0120731y x ββ-∧-=-=-⨯=-17y x ∧∴=-+可得回归方程为(4)22ni=11()n-2i i y y σ∧∧=-∑ 2n 01i=11(())n-2i y x ββ∧∧=-+∑=2222213⎡⎤⨯+⨯+⨯⎢⎥+⨯+⨯⎣⎦(10-(-1+71))(10-(-1+72))(20-(-1+73))(20-(-1+74))(40-(-1+75)) []1169049363110/3=++++=6.1σ∧=(5)由于211(,)xxN L σββ∧t σ∧==服从自由度为n-2的t 分布。
因而/2||(2)1P t n αασ⎡⎤⎢⎥<-=-⎢⎥⎣⎦也即:1/211/2(p t t ααβββ∧∧∧∧-<<+=1α-可得195%β∧的置信度为的置信区间为(7-2.3537+2.353 即为:(2.49,11.5)2201()(,())xxx Nn L ββσ-∧+t ∧∧==服从自由度为n-2的t 分布。
因而/2|(2)1P t n αα∧⎡⎤⎢⎥⎢⎥<-=-⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦即0/200/2()1p βσββσα∧∧∧∧-<<+=- 可得195%7.77,5.77β∧-的置信度为的置信区间为()(6)x 与y 的决定系数22121()490/6000.817()ni i nii y y r y y ∧-=-=-==≈-∑∑(7)由于(1,3)F F α>,拒绝0H ,说明回归方程显著,x 与y 有显著的线性关系。
(8)t σ∧==其中2221111()22n ni i i i i e y y n n σ∧∧====---∑∑ 7 3.661==≈/2 2.353t α= /23.66t t α=>∴接受原假设01:0,H β=认为1β显著不为0,因变量y 对自变量x 的一元线性回归成立。
应用回归分析_第2章课后习题参考答案

2.1 一元线性回归模型有哪些基本假定?答:1. 解释变量 1x , ,2x ,p x 是非随机变量,观测值,1i x ,,2 i x ip x 是常数。
2. 等方差及不相关的假定条件为⎪⎪⎩⎪⎪⎨⎧⎪⎩⎪⎨⎧≠=====j i n j i j i n i E j i i ,0),,2,1,(,),cov(,,2,1,0)(2 σεεε 这个条件称为高斯-马尔柯夫(Gauss-Markov)条件,简称G-M 条件。
在此条件下,便可以得到关于回归系数的最小二乘估计及误差项方差2σ估计的一些重要性质,如回归系数的最小二乘估计是回归系数的最小方差线性无偏估计等。
3. 正态分布的假定条件为⎩⎨⎧=相互独立n i n i N εεεσε,,,,,2,1),,0(~212 在此条件下便可得到关于回归系数的最小二乘估计及2σ估计的进一步结果,如它们分别是回归系数的最及2σ的最小方差无偏估计等,并且可以作回归的显著性检验及区间估计。
4. 通常为了便于数学上的处理,还要求,p n >及样本容量的个数要多于解释变量的个数。
在整个回归分析中,线性回归的统计模型最为重要。
一方面是因为线性回归的应用最广泛;另一方面是只有在回归模型为线性的假设下,才能的到比较深入和一般的结果;再就是有许多非线性的回归模型可以通过适当的转化变为线性回归问题进行处理。
因此,线性回归模型的理论和应用是本书研究的重点。
1. 如何根据样本),,2,1)(;,,,(21n i y x x x i ip i i =求出p ββββ,,,,210 及方差2σ的估计;2. 对回归方程及回归系数的种种假设进行检验;3. 如何根据回归方程进行预测和控制,以及如何进行实际问题的结构分析。
2.2 考虑过原点的线性回归模型 n i x y i i i ,,2,1,1 =+=εβ误差n εεε,,,21 仍满足基本假定。
求1β的最小二乘估计。
答:∑∑==-=-=ni ni i i i x y y E y Q 1121121)())(()(ββ∑∑∑===+-=--=∂∂n i n i ni i i i i i i x y x x x y Q111211122)(2βββ 令,01=∂∂βQ即∑∑===-n i ni i i i x y x 11210β 解得,ˆ1211∑∑===ni ini i i xyx β即1ˆβ的最小二乘估计为.ˆ1211∑∑===ni ini ii xyx β2.3 证明: Q (β,β1)= ∑(y i-β0-β1x i)2因为Q (∧β0,∧β1)=min Q (β0,β1 )而Q (β0,β1) 非负且在R 2上可导,当Q 取得最小值时,有即-2∑(y i -∧β0-∧β1x i )=0 -2∑(y i-∧β0-∧β1x i ) x i=0又∵e i =yi -( ∧β0+∧β1x i )= yi -∧β0-∧β1x i ∴∑e i =0,∑e i x i =0(即残差的期望为0,残差以变量x 的加权平均值为零)2.4 解:参数β0,β1的最小二乘估计与最大似然估计在εi~N(0, 2 ) i=1,2,……n 的条件下等价。
(完整word版)应用回归分析,第2章课后习题参考答案汇总(word文档良心出品)

第二章一元线性回归分析思考与练习参考答案2.1 一元线性回归有哪些基本假定?答:假设1解释变量X是确定性变量,丫是随机变量;假设2、随机误差项&具有零均值、同方差和不序列相关性:E( i)=0 i=1,2,…,n2Var (i)=, i=1,2, …,nCov( E £)=0 i 工j i,j= 1,2, …,nCov(X i, i )=0 i=1,2, …,n假设4、&服从零均值、同方差、零协方差的正态分布2i~N(0, ~)i=1,2,…,n2.2考虑过原点的线性回归模型Y i= 0X i+ i i=1,2,…,nn nQ e 八(Y i -Y?)2八(Y i -?i X i)2i』i=1得: f?=M羊Xi)X^0n' (X i Y i)i dn' (X i2)i =1i d2.3 证明(2.27 式),工e i =0 ,工eXi=0。
n nQ=S:(丫-Y?)2=迟(Y i —(f?°+f?X i))2 证明: 1 1其中:丫?=児+叹e=Y-丫?即: I ^(A+AA;-l;) = 0|V^o+/?rVj-T;)A;= 0^e =0 ,乞eX i=0假设3、随机误差项&与解释变量X之间不相关:误差 $ (i=1,2,解:…)n仍满足基本假定。
求仪的最小二乘估计2.4回归方程E (Y ) = 00+ 3X 的参数①,妆的最小二乘估计与最大似然估计在什么条件下等价?给出证明。
答:由于 £ 厂N(0, ~2)i=1,2,…,n所以 Y i =场 + 0X + £~N ( [3D + [3iX i , o 2) 最大似然函数:1 nL( 0, i ,;「2)=二爲 f i (Y i ) =(2=2)』/2exp{——2、 [Y i -( o i o ,X i )]2}2 ynLn{L( o , i ,二2)}= -:帕(2二2)-2、 M -( o i o ,X i )]222<r y使得Ln (L )最大的况,瞬就是肉,0的最大似然估计值。
应用回归分析整理课后习题参考答案

第二章 一元线性回归分析思考与练习参考答案2.1 一元线性回归有哪些基本假定?答: 假设1、解释变量X 是确定性变量,Y 是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性: E(εi )=0 i=1,2, …,n Var (εi )=σ2 i=1,2, …,n Cov(εi, εj )=0 i≠j i,j= 1,2, …,n 假设3、随机误差项ε与解释变量X 之间不相关: Cov(X i , εi )=0 i=1,2, …,n假设4、ε服从零均值、同方差、零协方差的正态分布 εi ~N(0, σ2 ) i=1,2, …,n 2.2 考虑过原点的线性回归模型 Y i =β1X i +εi i=1,2, …,n误差εi (i=1,2, …,n )仍满足基本假定。
求β1的最小二乘估计 解: 得:2.3 证明(2.27式),∑e i =0 ,∑e i X i =0 。
证明:∑∑+-=-=nii i ni X Y Y Y Q 121021))ˆˆ(()ˆ(ββ其中:即: ∑e i =0 ,∑e i X i =021112)ˆ()ˆ(ini i ni i i e X Y Y Y Q β∑∑==-=-=0)ˆ(2ˆ111=--=∂∂∑=ii ni i eX X Y Q ββ)()(ˆ1211∑∑===ni i ni ii X Y X β01ˆˆˆˆi ii i iY X e Y Y ββ=+=-0100ˆˆQQββ∂∂==∂∂2.4回归方程E (Y )=β0+β1X 的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价?给出证明。
答:由于εi ~N(0, σ2 ) i=1,2, …,n所以Y i =β0 + β1X i + εi ~N (β0+β1X i , σ2 ) 最大似然函数:使得Ln (L )最大的0ˆβ,1ˆβ就是β0,β1的最大似然估计值。
同时发现使得Ln (L )最大就是使得下式最小,∑∑+-=-=nii i n i X Y Y Y Q 121021))ˆˆ(()ˆ(ββ上式恰好就是最小二乘估计的目标函数相同。
应用回归分析课后答案

应用回归分析课后答案第二章一元线性回归2.14 解答:EXCEL结果:SUMMARY OUTPUT回归统计Multiple R0.944911R Square0.892857Adjusted R Square0.857143标准误差0.597614观测值5方差分析df SS MS F Significance F回归分析18.9285718.928571250.015392残差3 1.0714290.357143总计410Coefficients标准误差t Stat P-value Lower 95%Upper 95%下限95.0%上限95.0% Intercept-0.214290.6962-0.307790.778371-2.4299 2.001332-2.4299 2.001332 X Variable 10.1785710.03571450.0153920.0649130.292230.0649130.29223RESIDUAL OUTPUT观测值预测Y残差1 1.571429-0.571432 1.5714290.4285713 3.357143-0.357144 3.3571430.6428575 5.142857-0.14286SPSS结果:(1)散点图为:(2)x 与y 之间大致呈线性关系。
(3)设回归方程为01y x ββ∧∧∧=+1β∧=12217()ni ii nii x y n x yxn x --=-=-=-∑∑0120731y x ββ-∧-=-=-⨯=-17y x ∧∴=-+可得回归方程为(4)22ni=11()n-2i i y y σ∧∧=-∑ 2n 01i=11(())n-2i y x ββ∧∧=-+∑=2222213⎡⎤⨯+⨯+⨯⎢⎥+⨯+⨯⎣⎦(10-(-1+71))(10-(-1+72))(20-(-1+73))(20-(-1+74))(40-(-1+75)) []1169049363110/3=++++=6.1σ∧=≈ (5)由于211(,)xxN L σββ∧t σ∧==服从自由度为n-2的t 分布。
应用回归分析_第2章课后习题参考答案.

应用回归分析_第2章课后习题参考答案1. 简答题1.1 什么是回归分析?回归分析是一种统计建模方法,用于研究自变量与因变量之间的关系。
它通过建立数学模型,根据已知的自变量和因变量数据,预测因变量与自变量之间的关系,并进行相关的推断和预测。
1.2 什么是简单线性回归和多元线性回归?简单线性回归是指只包含一个自变量和一个因变量的回归模型,通过拟合一条直线来描述两者之间的关系。
多元线性回归是指包含多个自变量和一个因变量的回归模型,通过拟合一个超平面来描述多个自变量和因变量之间的关系。
1.3 什么是残差?残差是指回归模型中,观测值与模型预测值之间的差异。
在回归分析中,我们希望最小化残差,使得模型与观测数据的拟合效果更好。
1.4 什么是拟合优度?拟合优度是用来评估回归模型对观测数据的拟合程度的指标。
一般使用R方(Coefficient of Determination)来表示拟合优度,其值范围为0到1,值越接近1表示模型拟合效果越好。
2. 计算题2.1 简单线性回归假设我们有一组数据,其中X为自变量,Y为因变量,如下所示:X Y13253749511我们想要建立一个简单线性回归模型,计算X与Y之间的线性关系。
首先,我们需要计算拟合直线的斜率和截距。
根据简单线性回归模型的公式Y = β0 + β1*X,我们可以通过最小二乘法计算出斜率和截距的估计值。
首先,计算X和Y的均值:mean_x = (1 + 2 + 3 + 4 + 5) / 5 = 3mean_y = (3 + 5 + 7 + 9 + 11) / 5 = 7然后,计算X和Y的方差:var_x = ((1-3)^2 + (2-3)^2 + (3-3)^2 + (4-3)^2 + (5-3)^2) / 5 = 2var_y = ((3-7)^2 + (5-7)^2 + (7-7)^2 + (9-7)^2 + (11-7)^2) / 5 = 8接下来,计算X和Y的协方差:cov_xy = ((1-3) * (3-7) + (2-3) * (5-7) + (3-3) * (7-7) + (4-3) * (9-7) + (5-3) * (11-7)) / 5 = 4根据最小二乘法的公式:β1 = cov_xy / var_x = 4 / 2 = 2β0 = mean_y - β1 * mean_x = 7 - (2 * 3) = 1因此,拟合直线的方程为:Y = 1 + 2X。
应用回归分析_整理课后习题参考题答案

第二章 一元线性回归分析思考与练习参考答案2.1 一元线性回归有哪些基本假定?答: 假设1、解释变量X 是确定性变量,Y 是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性: E(εi )=0 i=1,2, …,n Var (εi )=σ2 i=1,2, …,n Cov(εi, εj )=0 i≠j i,j= 1,2, …,n 假设3、随机误差项ε与解释变量X 之间不相关: Cov(X i , εi )=0 i=1,2, …,n 假设4、ε服从零均值、同方差、零协方差的正态分布 εi ~N(0, σ2 ) i=1,2, …,n 2.2 考虑过原点的线性回归模型 Y i =β1X i +εi i=1,2, …,n误差εi (i=1,2, …,n)仍满足基本假定。
求β1的最小二乘估计 解: 得:2.3 证明(2.27式),∑e i =0 ,∑e i X i =0 。
证明:其中:即: ∑e i =0 ,∑e i X i =0∑∑+-=-=nii i ni X Y Y Y Q 121021))ˆˆ(()ˆ(ββ21112)ˆ()ˆ(ini i ni i i e X Y Y Y Q β∑∑==-=-=01ˆˆˆˆi ii i iY X e Y Y ββ=+=-0100ˆˆQQββ∂∂==∂∂2.4回归方程E (Y )=β0+β1X 的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价?给出证明。
答:由于εi ~N(0, σ2 ) i=1,2, …,n所以Y i =β0 + β1X i + εi ~N (β0+β1X i , σ2 ) 最大似然函数:使得Ln (L )最大的0ˆβ,1ˆβ就是β0,β1的最大似然估计值。
同时发现使得Ln (L )最大就是使得下式最小,上式恰好就是最小二乘估计的目标函数相同。
值得注意的是:最大似然估计是在εi ~N (0, σ2 )的假设下求得,最小二乘估计则不要求分布假设。
应用回归分析_整理课后习题参考答案

第二章 一元线性回归分析思考与练习参考答案2.1 一元线性回归有哪些基本假定答: 假设1、解释变量X 是确定性变量,Y 是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性: E(εi )=0 i=1,2, …,n Var (εi )=?2 i=1,2, …,n Cov(εi, εj )=0 i≠j i,j= 1,2, …,n 假设3、随机误差项ε与解释变量X 之间不相关: Cov(X i , εi )=0 i=1,2, …,n假设4、ε服从零均值、同方差、零协方差的正态分布 εi ~N(0, ?2 ) i=1,2, …,n 2.2 考虑过原点的线性回归模型 Y i =β1X i +εi i=1,2, …,n误差εi (i=1,2, …,n )仍满足基本假定。
求β1的最小二乘估计 解: 得:2.3 证明(2.27式),?e i =0 ,?e i X i =0 。
证明:∑∑+-=-=nii i ni X Y Y Y Q 121021))ˆˆ(()ˆ(ββ其中: 即: ?e i =0 ,?e i X i =02.4回归方程E (Y )=β0+β1X 的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价给出证明。
答:由于εi ~N(0, ?2 ) i=1,2, …,n所以Y i =β0 + β1X i + εi ~N (β0+β1X i , ?2 ) 最大似然函数:21112)ˆ()ˆ(ini i ni i i e X Y Y Y Q β∑∑==-=-=01ˆˆˆˆi ii i iY X e Y Y ββ=+=-0100ˆˆQQββ∂∂==∂∂使得Ln (L )最大的0ˆβ,1ˆβ就是β0,β1的最大似然估计值。
同时发现使得Ln (L )最大就是使得下式最小,上式恰好就是最小二乘估计的目标函数相同。
值得注意的是:最大似然估计是在εi ~N (0, ?2 )的假设下求得,最小二乘估计则不要求分布假设。
应用回归分析第二章课后习题答案

32 21800 2533
33 22934 2729
34 18443 2305
序号
y
x
45 22341 2297
46 25610 2932
47 26015 3705
48 25788 4123
49 29132 3608
50 41480 8349
51 25845 3766
解答: (1)绘制y对x的散点图,可以用直线回归描 述 两者之间的关系吗? 如图所示:
(c)由表3 可见对的显著性t检验P值近似为零,故显著不为0,说明 x对y有显著的线性影响。
(d)综上,x与y的线性回归方程为:
yˆ 12112.629 3.314* x
(3)用线性回归的Plots功能绘制标准残差的直方图 和正态概率图,检验误差项的正态性假设。
如图所示:
图1 标准残差的直方图
由图1可见图形略呈右偏,由图2可见正态概率图中的各个散点基本呈 直线趋势,残差在0附近波动,可以认为残差服从正态分布。
图2 标准残差的正态概率图
t 10.113
Sig. .000
x a. 因变量: y
3.314
.312
.835 10.621
.000
(a)由表1可知,x与y决定系数为,说明模型的拟合效果一般。x与 y线性相关系数R=0.835,说明x与y有较显著的线性关系。
(b)由表2(方差分析表中)看到,F=112.811,显著性Sig.p=0,说 明回归方程显著。
2.16 表是1985年美国50个州和哥伦比亚特区公立学校中 教师的人均年工资y(美元)和学生的人均经费投入x(美元).
序号 y
x 序号 y
x 序号 y
x
应用回归分析课后习题参考答案

应用回归分析课后习题参考答案The following text is amended on 12 November 2020.第二章一元线性回归分析思考与练习参考答案一元线性回归有哪些基本假定答:假设1、解释变量X 是确定性变量,Y 是随机变量;假设2、随机误差项£具有零均值、同方差和不序列相关性:E ((:i )=O i=l, 2,…,n Var (£ J 」 i=l, 2, •: n Covfe,. Q )二0iHj i,j= 1,2,…,n假设3、随机误差项£与解释变量X 之间不相关:Cov (Xi, £ J =0 i=l, 2,…,n假设4、£服从零均值、同方差、零协方差的正态分布£「N (0, ' )i=l, 2, •: n考虑过原点的线性回归模型「0比"1=1, 2,…,n误差6 (Ul,2,…,n )仍满足基本假定。
求 厲的最小二乘估计 解:2=£(岭-*)_£(岭$址)2f.l /.I=_2£(岭-6/)£ =0 J-1 £(3)=——r«l0 = £(乙_£)2=£(匕_(瓦 +AX»I 1 得:证明证明:其中:X=Bo+B\Xj 耳=并一£丫(九+険厂耳)=0B|J :ei =0 , e 広 =0回归方程E =0。
+0/的参数 仏,已的最小二乘估计与最大似然估计在什么条件下等价给出证明。
答:由于£ i ~N(0, 2 )i=l, 2,・・・,n所以乙二Qo+ 0也+ £,3(0。
+0比,2) 最大似然函数:L(/?o ,^,,<r 2) = n;.,/,(y r -) = (2^0-2)-n,2 exp{ --lyy [岭-(仇+0A ,XJ]2}2b i.i伤,b2)} = -£ln(2勿■Z)-[乙 _(0。
应用回归分析课后习题答案部分-实用回归分析

第二章 一元线性回归2.14 解答:(1)散点图为:(2)x 与y 之间大致呈线性关系。
(3)设回归方程为01y x ββ∧∧∧=+1β∧=12217()ni ii nii x y n x yxn x --=-=-=-∑∑0120731y x ββ-∧-=-=-⨯=-17y x ∧∴=-+可得回归方程为(4)22ni=11()n-2i i y y σ∧∧=-∑2n01i=11(())n-2i y x ββ∧∧=-+∑=2222213⎡⎤⨯+⨯+⨯⎢⎥+⨯+⨯⎣⎦(10-(-1+71))(10-(-1+72))(20-(-1+73))(20-(-1+74))(40-(-1+75))[]1169049363110/3=++++=6.1σ∧= (5)由于211(,)xxN L σββ∧t σ∧==服从自由度为n-2的t 分布。
因而/2||(2)1P t n αασ⎡⎤⎢⎥<-=-⎢⎥⎣⎦也即:1/211/2(p t t ααβββ∧∧∧∧-<<+=1α-可得195%β∧的置信度为的置信区间为(7-2.3537+2.353 即为:(2.49,11.5)22001()(,())xxx N n L ββσ-∧+t ∧∧==服从自由度为n-2的t 分布。
因而/2|(2)1P t n αα∧⎡⎤⎢⎥⎢⎥<-=-⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦即0/200/2()1p βσββσα∧∧∧∧-<<+=- 可得195%7.77,5.77β∧-的置信度为的置信区间为()(6)x 与y 的决定系数22121()490/6000.817()nii nii y y r y y ∧-=-=-==≈-∑∑(7)由于(1,3)F F α>,拒绝0H ,说明回归方程显著,x 与y 有显著的线性关系。
(8)t σ∧==其中2221111()22n ni i i i i e y y n n σ∧∧====---∑∑ 7 3.661==≈/2 2.353t α= /23.66t t α=>∴接受原假设01:0,H β=认为1β显著不为0,因变量y 对自变量x 的一元线性回归成立。
《应用回归分析》课后习题部分答案何晓群版

第二章 一元线性回归2.14 解答:(1)散点图为:(2)x 与y 之间大致呈线性关系。
(3)设回归方程为01y x ββ∧∧∧=+1β∧=12217()ni ii nii x y n x yxn x --=-=-=-∑∑0120731y x ββ-∧-=-=-⨯=-17y x ∧∴=-+可得回归方程为(4)22ni=11()n-2i i y y σ∧∧=-∑ 2n 01i=11(())n-2i y x ββ∧∧=-+∑=2222213⎡⎤⨯+⨯+⨯⎢⎥+⨯+⨯⎣⎦(10-(-1+71))(10-(-1+72))(20-(-1+73))(20-(-1+74))(40-(-1+75)) []1169049363110/3=++++=6.1σ∧=≈ (5)由于211(,)xxN L σββ∧t σ∧==服从自由度为n-2的t 分布。
因而/2|(2)1P t n αασ⎡⎤⎢⎥<-=-⎢⎥⎣⎦也即:1/211/2(p t t ααβββ∧∧∧∧-<<+=1α-可得195%β∧的置信度为的置信区间为(7-2.3537+2.353 即为:(2.49,11.5)2201()(,())xxx Nn L ββσ-∧+t ∧∧==服从自由度为n-2的t 分布。
因而/2(2)1P t n αα∧⎡⎤⎢⎥⎢⎥<-=-⎢⎥⎢⎥⎢⎥⎢⎥⎣⎦即0/200/2()1p βσββσα∧∧∧∧-<<+=- 可得195%7.77,5.77β∧-的置信度为的置信区间为()(6)x 与y 的决定系数22121()490/6000.817()nii nii y y r y y ∧-=-=-==≈-∑∑(7)由于(1,3)F F α>,拒绝0H ,说明回归方程显著,x 与y 有显著的线性关系。
(8)t σ∧==其中2221111()22n ni i i i i e y y n n σ∧∧====---∑∑ 7 3.661==≈ /2 2.353t α= /23.66t t α=>∴接受原假设01:0,H β=认为1β显著不为0,因变量y 对自变量x 的一元线性回归成立。
应用回归分析_第2章课后习题参考答案

第二章 一元线性回归分析思考与练习参考答案2.1 一元线性回归有哪些基本假定?答: 假设1、解释变量X 是确定性变量,Y 是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性: E(εi )=0 i=1,2, …,n Var (εi )=σ2 i=1,2, …,n Cov(εi, εj )=0 i≠j i,j= 1,2, …,n 假设3、随机误差项ε与解释变量X 之间不相关: Cov(X i , εi )=0 i=1,2, …,n假设4、ε服从零均值、同方差、零协方差的正态分布 εi ~N(0, σ2 ) i=1,2, …,n 2.2 考虑过原点的线性回归模型 Y i =β1X i +εi i=1,2, …,n误差εi (i=1,2, …,n )仍满足基本假定。
求β1的最小二乘估计 解: 得:2.3 证明(2.27式),∑e i =0 ,∑e i X i =0 。
证明:∑∑+-=-=nii i ni X Y Y Y Q 121021))ˆˆ(()ˆ(ββ其中:即: ∑e i =0 ,∑e i X i =021112)ˆ()ˆ(ini i ni i i e X Y Y Y Q β∑∑==-=-=0)ˆ(2ˆ111=--=∂∂∑=ii ni i eX X Y Q ββ)()(ˆ1211∑∑===ni i ni ii X Y X β01ˆˆˆˆi ii i iY X e Y Y ββ=+=-0100ˆˆQQββ∂∂==∂∂2.4回归方程E (Y )=β0+β1X 的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价?给出证明。
答:由于εi ~N(0, σ2 ) i=1,2, …,n所以Y i =β0 + β1X i + εi ~N (β0+β1X i , σ2 ) 最大似然函数:使得Ln (L )最大的0ˆβ,1ˆβ就是β0,β1的最大似然估计值。
同时发现使得Ln (L )最大就是使得下式最小,∑∑+-=-=nii i n i X Y Y Y Q 121021))ˆˆ(()ˆ(ββ上式恰好就是最小二乘估计的目标函数相同。
【分析】应用回归分析整理课后习题参考答案

【关键字】分析第二章一元线性回归分析思考与练习参考答案2.1 一元线性返回有哪些基本假定?答:假设1、解释变量X是确定性变量,Y是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性:E(εi)=0 i=1,2, …,nVar (εi)= 2 i=1,2, …,nCov(εi, εj)=0 i≠j i,j= 1,2, …,n假设3、随机误差项ε与解释变量X之间不相关:Cov(Xi, εi)=0 i=1,2, …,n假设4、ε服从零均值、同方差、零协方差的正态分布εi~N(0, 2 ) i=1,2, …,n2.2 考虑过原点的线性返回模型Yi=β1Xi+εi i=1,2, …,n误差εi(i=1,2, …,n)仍满足基本假定。
求β1的最小二乘估计解:得:2.3 证明(2.27式),ei =0 ,eiXi=0 。
证明:其中:即:ei =0 ,eiXi=02.4返回方程E(Y)=β0+β1X的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价?给出证明。
答:由于εi~N(0, 2 ) i=1,2, …,n所以Yi=β0 + β1Xi + εi~N(β0+β1Xi , 2 )最大似然函数:使得Ln(L)最大的,就是β0,β1的最大似然估计值。
同时发现使得Ln(L)最大就是使得下式最小,上式恰好就是最小二乘估计的目标函数相同。
值得注意的是:最大似然估计是在εi~N(0, 2 )的假设下求得,最小二乘估计则不要求分布假设。
所以在εi~N(0, 2 ) 的条件下,参数β0,β1的最小二乘估计与最大似然估计等价。
2.5 证明是β0的无偏估计。
证明:2.6 证明证明:2.7 证明平方和分解公式:SST=SSE+SSR证明:2.8 验证三种检验的关系,即验证:(1);(2)证明:(1)(2)2.9 验证(2.63)式:证明:其中:2.10 用第9题证明是2的无偏估计量证明:2.14 为了调查某广告对销售收入的影响,某商店记录了5个月的销售收入y(万元)和广告费用x(万元),数据见表2.6,要求用手工计算:表2.6月份 1 2 3 4 5X 1 2 3 4 5Y 10 10 20 20 40 (1)画散点图(略)(2)X与Y是否大致呈线性关系?答:从散点图看,X与Y大致呈线性关系。
应用回归分析+第2章详细答案

2.3由⎪⎪⎩⎪⎪⎨⎧=β-β-=β∂∂=β-β-=β∂∂∑∑=β=β=β=βn1i i i 10i ˆ1n 1i i 10i ˆ00x )x ˆˆy (Q 0)x ˆˆy (Q 1100得⎪⎪⎩⎪⎪⎨⎧==-==-∑∑∑∑====n 1i n 1i i i i i i n 1i n1i i i i 0x e x )y ˆy (0e )y ˆy (2.4在),0(N ~2i σε的正态分布假定下,10,ββ的最小二乘估计与最大似然估计等价,求对数似然函数的极大值等价于对∑=β+β-n1i 2i 10i )]x (y [求极小值,至此与最小二乘估计原理完全相同2.52.62n1i 2i212210])x x()x (n 1[)ˆvar()x (n 1)x ˆy var()ˆvar(σ-+=β+σ=β-=β∑=2.7SSR SSE )y y ˆ)(y ˆy (2)y y ˆ()y ˆy ()y y ˆyˆy ()y y (SST n1i i i i n 1i 2i n 1i 2i i n 1i 2i i i n 1i 2i +=--+-+-=-+-=-=∑∑∑∑∑=====2.8(1)22i2i 2i2i 2i2i2i i2i i xx1xx 1r 12n r )y y ()y y ˆ(12n r )y y ()y yˆ()y y (2n r )y y ()yˆy (2n r )y ˆy (2n L ˆˆL ˆt --=----=-----=---=--β=σβ=∑∑∑∑∑∑∑∑(2)F )2n /(SSE 1/SSR SSE SSR )2n (SSTSSR 1SST SSR)2n (r 1r )2n (t 222=-=-=--=--= 2.92xxi 2i10L )x x (n 1)x ˆˆvar(σ-+σ=β+β xx2i 2xx i 2i i 2xx i i i i 2i 1i L )x x (n 1)L y )x x (,y cov(n 1)L y )x x ()x x (,y cov(n 1))x x (ˆy ,y cov(-+σ=-+σ=--+σ=-β+∑2xx 2i 22i1i i 10i i i i n11[L )x x (n 1))x x (ˆy ,y cov(2)x ˆˆvar()y var()y y var()e var(--=σ--σ-σ=-β+-β+β+=-=2.1022xx2i i 2i 2i 2i i 2)L )x x (1n (2n 1))e (E )e (var(2n 1)e (E 2n 1))y ˆy (2n 1(E )ˆ(E σ=σ----=--=-=--=σ∑∑2.112n F F )2n /(SSE SSE SSR )2n /(SSE SSR )2n /(SSE SST )2n /(SSE SSR SSTSSR r 2-+=-+-=--==如果一个线性回归方程通过F 检验,只能说明x 与y 之间的线性关系是显著的,不能说明数据拟合得很好,决定系数r 2是一个回归直线与样本观测值拟合优度的相对指标。
应用回归分析课后习题参考答案

第二章 一元线性回归分析思考与练习参考答案一元线性回归有哪些基本假定答: 假设1、解释变量X 是确定性变量,Y 是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性: E(εi )=0 i=1,2, …,n Var (εi )=2 i=1,2, …,n Cov(εi, εj )=0 i≠j i,j= 1,2, …,n 假设3、随机误差项ε与解释变量X 之间不相关: Cov(X i , εi )=0 i=1,2, …,n 假设4、ε服从零均值、同方差、零协方差的正态分布 εi ~N(0, 2 ) i=1,2, …,n 考虑过原点的线性回归模型Y i =β1X i +εi i=1,2, …,n误差εi (i=1,2, …,n)仍满足基本假定。
求β1的最小二乘估计 解: 得:证明(式),e i =0 ,e i X i =0 。
证明:∑∑+-=-=nii i ni X Y Y Y Q 121021))ˆˆ(()ˆ(ββ其中:即: e i =0 ,e i X i =021112)ˆ()ˆ(ini i ni i i e X Y Y Y Q β∑∑==-=-=0)ˆ(2ˆ111=--=∂∂∑=ii ni i eX X Y Q ββ)()(ˆ1211∑∑===ni i ni ii X Y X β01ˆˆˆˆi ii i iY X e Y Y ββ=+=-0100ˆˆQQββ∂∂==∂∂回归方程E (Y )=β0+β1X 的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价给出证明。
答:由于εi ~N(0, 2 ) i=1,2, …,n所以Y i =β0 + β1X i + εi ~N (β0+β1X i , 2 ) 最大似然函数:使得Ln (L )最大的0ˆβ,1ˆβ就是β0,β1的最大似然估计值。
同时发现使得Ln (L )最大就是使得下式最小,∑∑+-=-=nii i n i X Y Y Y Q 121021))ˆˆ(()ˆ(ββ上式恰好就是最小二乘估计的目标函数相同。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
第二章 一元线性回归分析思考与练习参考答案2.1 一元线性回归有哪些基本假定?答: 假设1、解释变量X 是确定性变量,Y 是随机变量;假设2、随机误差项ε具有零均值、同方差和不序列相关性: E(εi )=0 i=1,2, …,n Var (εi )=σ2 i=1,2, …,n Cov(εi, εj )=0 i≠j i,j= 1,2, …,n 假设3、随机误差项ε与解释变量X 之间不相关: Cov(X i , εi )=0 i=1,2, …,n假设4、ε服从零均值、同方差、零协方差的正态分布 εi ~N(0, σ2 ) i=1,2, …,n 2.2 考虑过原点的线性回归模型 Y i =β1X i +εi i=1,2, …,n误差εi (i=1,2, …,n )仍满足基本假定。
求β1的最小二乘估计 解: 得:2.3 证明(2.27式),∑e i =0 ,∑e i X i =0 。
证明:其中:即: ∑e i =0 ,∑e i X i =0∑∑+-=-=nii i ni X Y Y Y Q 121021))ˆˆ(()ˆ(ββ21112)ˆ()ˆ(ini i ni i i e X Y Y Y Q β∑∑==-=-=0)ˆ(2ˆ111=--=∂∂∑=ii ni i eX X Y Q ββ)()(ˆ1211∑∑===ni i ni ii X Y X β01ˆˆˆˆi ii i iY X e Y Y ββ=+=-0100ˆˆQQββ∂∂==∂∂2.4回归方程E (Y )=β0+β1X 的参数β0,β1的最小二乘估计与最大似然估计在什么条件下等价?给出证明。
答:由于εi ~N(0, σ2 ) i=1,2, …,n所以Y i =β0 + β1X i + εi ~N (β0+β1X i , σ2 ) 最大似然函数:使得Ln (L )最大的0ˆβ,1ˆβ就是β0,β1的最大似然估计值。
同时发现使得Ln (L )最大就是使得下式最小,上式恰好就是最小二乘估计的目标函数相同。
值得注意的是:最大似然估计是在εi ~N (0, σ2 )的假设下求得,最小二乘估计则不要求分布假设。
所以在εi ~N(0, σ2 ) 的条件下, 参数β0,β1的最小二乘估计与最大似然估计等价。
2.5 证明0ˆβ是β0的无偏估计。
证明:)1[)ˆ()ˆ(1110∑∑==--=-=ni i xx i n i iY L X X X Y n E X Y E E ββ )] )(1([])1([1011i i xx i n i i xx i ni X L X X X n E Y L X X X n E εββ++--=--=∑∑==1010)()1(])1([βεβεβ=--+=--+=∑∑==i xx i ni i xx i ni E L X X X nL X X X n E 2.6 证明 证明:)] ()1([])1([)ˆ(102110i i xx i ni i xx i ni X Var L X X X nY L X X X n Var Var εβββ++--=--=∑∑== ∑∑+-=-=nii i n i X Y Y Y Q 121021))ˆˆ(()ˆ(ββ())1()1()ˆ(222122xx ni iL X n X XX nVar +=-+=∑=σσβ222212]1[])(2)1[(σσxx xx i xx i ni L X n L X X X nL X X X n +=-+--=∑=2.7 证明平方和分解公式:SST=SSE+SSR证明:2.8 验证三种检验的关系,即验证: (1)21)2(r r n t --=;(2)2221ˆˆ)2/(1/t L n SSE SSR F xx ==-=σβ 证明:(1)ˆt ======(2)22222011111111ˆˆˆˆˆˆ()()(())(())nnnni i ii xx i i i i SSR y y x y y x x y x x L βββββ=====-=+-=+--=-=∑∑∑∑2212ˆ/1ˆ/(2)xx L SSR F t SSE n βσ∴===-2.9 验证(2.63)式:2211σ)L )x x (n ()e (Var xx i i ---=证明:112222222ˆˆˆvar()var()var()var()2cov(,)ˆˆˆvar()var()2cov(,())()()11[]2[]()1[1]i i i i i i i iiiii i xx xxi xxe y yy y y y y x y y x x x x x x n L n L x x n L βββσσσσ=-=+-=++-+---=++-+-=--()()∑∑==-+-=-=n i ii i n i i Y Y Y Y Y Y SST 1212]ˆ()ˆ[()()()∑∑∑===-+--+-=ni ii ni i i i ni iY Y Y Y Y Y Y Y 12112)ˆˆ)(ˆ2ˆ()()SSESSR )Y ˆY Y Y ˆn1i 2ii n1i 2i +=-+-=∑∑==其中:222221111))(1()(1))(,()()1,())(ˆ,(),())(ˆ,(σσσββxxi xx i ni i xx ii i ni i i ii i i i L x x n L x x n y L x x y Cov x x y n y Cov x x y Cov y y Cov x x y y Cov -+=-+=--+=-+=-+∑∑==2.10 用第9题证明是σ2的无偏估计量证明:2221122112211ˆˆ()()()22()111var()[1]221(2)2n n i i i i n n i i i i xx E E y y E e n n x x e n n n L n n σσσσ=====-=---==----=-=-∑∑∑∑ 2.11 验证决定系数与F 值之间的关系式22-+=n F Fr证明:211/121/(/(2))1221SSR SSR r SST SSR SSE SSE SSRn SSR SSE n F n F n F ===++=-+-==-+-+2.14 为了调查某广告对销售收入的影响,某商店记录了5个月的销售收入y (万元)和广告费用x (万元),数据见表2.6,要求用手工计算: 表2.6(1) 画散点图(略)(2) X 与Y 是否大致呈线性关系? 答:从散点图看,X 与Y 大致呈线性关系。
2ˆ22-=∑n eiσ(3) 用最小二乘法估计求出回归方程。
计算表(4) 求回归标准误差先求SSR (Q e )见计算表。
所以(5) 给出 的置信度为95%的区间估计; 由于(1-α)的置信度下, 的置信区间是 查表可得 915.110667.36ˆ2ˆ1===xxL S σβ 所以 的95%的区间估计为:(7—3.182*1.915,7+3.182*1.915),即(0.906,13.094)。
351.6)102551(667.36)1(ˆ22ˆ=+=+=xx L X n S σβ 所以 的95%的区间估计为:(-1-3.182*6.351,-1+3.182*6.351),即(-21.211, 19.211)。
^0β的置信区间包含0,表示^0β不显著。
(6) 计算x 和y 的决定系数10ˆ,ˆββ22ˆˆˆˆ(,)iii i t s t s ααββββ-⨯+⨯iβˆ182.3)3()2(025.02/==-t n t α1ˆβ0ˆβ说明回归方程的拟合优度高。
(7) 对回归方程作方差分析方差分析表F 值=13.364>F 0.05(1,3)=10.13(当n 1=1,n 2=8时,α=0.05查表得对应的值为10.13),所以拒绝原假设,说明回归方程显著。
(8)做回归系数β1的显著性检验H0: β1=0656.3915.1/7/ˆ1ˆ1===ββS t t 值=3.656>t 0.05/2(3)=3.182,所以拒绝原假设,说明x 对Y 有显著的影响。
(8) 做相关系数R 的显著性检验R 值=0.904>R 0.05(3)=0.878,所以接受原假设,说明x 和Y 有显著的线性关系。
(9) 对回归方程作残差图并作相应的分析残差图(略) .从残差图上看出,残差是围绕e=0在一个固定的带子里随机波动,基本满足模型的假设e i ~N(0, σ2 ), 但由于样本量太少, 所以误差较大.(10) 求广告费用为4.2万元时,销售收入将达到多少?并给出置信度为95%的置信区间.解: 当X 0=4.2时,4.282.471ˆˆˆ0100=⨯+-=+=X Y ββ所以广告费用为4.2万元时, 销售收入将达到28.4万元. 由于置信度为1-α时,Y 0估计值的置信区间为:)1044.1511(667.36)(11(ˆ202ˆ0++=-++=-xx YY L X X n S σ所以求得Y 0的95%的置信区间为: [6.05932 ,50.74068] 预测误差较大.2.15 一家保险公司十分关心其总公司营业部加班的制度,决定认真调查一下现状。
经过十周时间,收集了每周加班工作时间的数据和签发的新保单数目,x 为每周新签发的保单数目,y 为每周加班工作时间(小时)。
见表2.7。
表2..72、由散点图可以看出, x 与y 之间大致呈线性关系。
022ˆ000ˆ0ˆˆYY Y Y S t Y Y S t Y --⨯+<<⨯-αα3、用最小二乘法求出回归系数由表可知:118.0β= 00359.0β1= 回归方程为:x 00359.0118.0y ˆ+=4、求回归标准误差σˆ由方差分析表可以得到:SSE=1.843故回归标准误差2^2SSEn σ=-,^σ=0.48。
5、给出回归系数的置信度为95%的区间估计由回归系数显著性检验表可以看出,当置信度为95%时:^0β的预测区间为[-0.701,0.937], ^1β的预测区间为[0.003,0.005].^0β的置信区间包含0,表示^0β不拒绝为零的假设。
6、决定系数由模型概要表得到决定系数为0.9接近于1,说明模型的拟合优度高。
7. 对回归方程作方差分析 由方差分析表可知:F 值=72.396>5.32(当n 1=1,n 2=8时,查表得对应的值为5.32) P 值≈0,所以拒绝原假设,说明回归方程显著。
8、对^1β的显著性检验从上面回归系数显著性检验表可以得到^1β的t 统计量为t=8.509,所对应的p 值近似为0,通过t 检验。
说明每周签发的新保单数目x 对每周加班工作时间y 有显著的影响。