spss中的回归分析

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
All Cases:显示每一例的标准化残差、实测值和预测值、 残差。
7、Plots(图)对话框 单击“Plots”按钮,对话框如下图所示。Plots可帮助分析
资料的正态性、线性和方差齐性,还可帮助检测奇异值或异常值。
(1)散点图:可选择如下任何两个变量为Y(纵轴变量)与X (横轴变量)作图。为 获得更多的图形,可单击“Next”按钮来重 复操作过程。
Variables
Model
Entered
1
INCOMEa
Variables
Removed
Method
. Enter
a. All requested variables entered.
b. Dependent Variable: FOODEXP
输 入 / 移 去 的 变 量b
模型 1
输入的变量 移去的变量
DEPENDENT:因变量。 *ZPRED:标准化预测值。 *ZRESID: 标准化残差。 *DRESID:删除的残差。 *ADJPRED:调整残差。 *SRESID:Student氏残差。 *SDRESID: Student氏删除残差。 (2)Standardized Residual Plots:标准化残差图。 Histogram:标准化残差的直方图,并给出正态曲线。 Normal Probality Plot:标准化残差的正态概率图(P-P图)。 (3)Produce all Partial plots:偏残差图。
Coefficie nts Beta
.923
系 数a
t -.781 12.694
Sig. .441 .000
模型
1
(常量)
非标准化系数
B
标准误
-53.086
67.963
income
.422
.033
a. 因变量: foodexp
标准化系 数
Beta
.923
t -.781
12.694
显著性 .441
.000
存在正自相关 不能确定 无自相关 不能确定 存在负自相关
说明:当D.W.值在2左右时,模型不存在一阶自相关。
Casewise diagnostic:对标准化残差(服从均数=0,标准差=1的正 态分布)进行诊断。 判断有无奇异值(离群值)(outliers)。
Outliers:显示标准化残差超过n个标准差的奇异值,n=3 为默认值。
注:在一元线性回归中可用判定系数R2来判断模型的拟合 度。调整判定系数R2的值越大,模型的拟合优度越好。
AN OV Ab
Model
1
Regression
Sum of Squares 878382.33
df 1
Residual
152621.13
28
Total
1031003.5
29
a. Predictors: (Constant), INCOME
Std. Error of the Estimate
73.83
模型摘要
模型 1
R .923a
R方
调整的 R 方
.852
.847
a. 预测变量:(常量), income。
估计的标准差 73.829
模型摘要表
相关系数R=0.923, 判定系数R2=0.852,调整判定系数 R2=0.847,估计值的标准误为73.83
incomea
.
a. 已输入所有请求的变量。
b. 因变量: foodexp
方法 输入
变量引入或剔出表: Model 1 引入变量 income, 用强迫输入法Enter。
Model Summary
Model 1
Adjusted R
R
R Square Square
.923a
.852
.847
a. Predictors: (Constant), INCOME
在其他解释变量保持不变的情况下,Xj每变化1个单位时,Y 的均值E(Y)的变化。
样本回归函数
Yˆ ˆ0 ˆ1X1 ˆ2 X2 ˆk Xk
参数估计 最小二乘法
模型统计推断检验 拟合优度检验 方程显著性检验(F检验) 变量显著性检验(t检验)
(1)拟合优度检验
回归方程的拟合优度检验就是要检验样本 数据聚集在样本回归直线周围的密集程度,从 而判断回归方程对样本数据的代表程度。
回归方程的拟合优度检验一般用调整判定系数R2 实现。该统计量的值越接近于1越好。(注:在一元 线性回归中拟合优度的检验可用判定系数R2实现)
(2)回归方程的显著性检验(F检验) 回归方程的显著性检验是对因变量与所有 自变量之间的线性关系是否显著的一种假设检 验。 回归方程的显著性检验一般采用F检验, 利用方差分析的方法进行。
3、如果要对不同的自变量采用不同的引入方法,可利用“Previous” 与 “Next” 按钮把自变量归类到不同的自变量块(Block)中,然后对不同的变量子集 选用不同的引入方法(Method)。
Enter(进入):强迫引入法,默认选择项。定义的全部自变量均引入方 程。
Remove(移去):强迫剔除法。定义的全部自变量均删除。
b. Dependent Variable: FOODEXP
A NO V Ab
Mean Square 878382.334 5450.755
F 161.149
Sig. .000a
模型 1
回归
平方和 878382.33
df 1
残差 152621.13
28
合计 1031003.5
29
a. 预测变量:(常量), income。
5.7 回归分析
线性回归 曲线估计 二分量逻辑分析 多项式逻辑分析 标称变量分析 概率回归 非线性回归 加权估计 2阶段最小二乘法
5-7-1 线性回归模型
总体回归模型
Y 0 1X1 2 X 2 k X k
j也被称为偏回归系数(partial regression coefficients),表示
回归参数显著性检验的基本步骤。 ① 提出假设
H0:j =0 (j=1,2…k)
② 计算回归系数的t统计量值 ③ 根据给定的显著水平α 确定临界值, 或者计算t值所对应的p值 ④ 作出判断
一、一元线性回归 y=a+bx
例5-7-1 已知我国分地区家庭人均食品支出、人均收入。试作一元 线性回归分析。(e5-7-1)
变量显著性检验(t 检验)
回归系数:t=12.694, p=0.00, 拒绝原假,显著不为0
常数项:t=-0.781,p=0.441,接受原假设,常数项与0没有显著差异。
注意:在实际中一般不以t检验决定常数项是否保留在模型中,而是从经济意 义方面分析回归线是否应该通过原点。
回归方程: 常数项=-53.086, 回归系数=0.422, 则线性回归方程为: y=-53.086+0.422x
二、多元回归分析
1、从“Analyze” (分析)——“Regression”(回归)——“Linear” (线性),打开 Linear线性回归主对话框 。
2、在左侧的源变量栏中选择一数值变量作为因变量进入Dependent栏中, 选择一个或更多的变量作为自变量进入Independent(s)栏中。
注:H0为模型线性关系不成立,即b=0
Co ef fic ien tsa
Unstandardized Coefficients
Model
B
Std. Error
1
(Constant)
-53.086
67.963
INCOME
.422
.033
a. Dependent Variable: FOODEXP
Standardi zed
Durbin-Waston:用于随机误差项的分析,以检验回归模型 中的误差项的独立性。如果误差项不独立,那么对回归模型的任何 估计与假设所做出的结论都是不可靠的。
• 计算DW值
• 给定,由n和k的大小查DW分布表,得临界值dL和dU • 比较、判断
0<D.W.<dL
dL<D.W.<dU dU <D.W.<4-dU 4-dU <D.W.<4- dL 4-dL <D.W.<4
Confidence intervals:回归系数 B的 95%可信区间(95%Confidence interval for B)。
Descriptives:变量的均数、标准差、相关系数矩阵及单尾检验。
Covariance matrix:方差——协方差矩阵。
R sqared change:R2和 F值的改变,以及方差分析 P值的改变。
容差(Tolerance)是不能由方程中其它自变量解释的方差所占 的构成比。所有进入方程的变量的容差必须大于默认的容差水平值 (Tolerance:0.0001)。该值愈小,说明该自变量与其他自变量的 线性关系愈密切。该值的倒数为方差膨胀因子(Variance Inflation Factor)。当自变量均为随机变量时,若它们之间高度相关,则称 自变量间存在共线性。在多元线性回归时,共线性会使参数估计不 稳定。逐步选择变量是解决共线性的方法之一。
4、 Selection variable(选择变量):可从源变量栏中 选择一个变量,单击Rule后,通过该变量大于、小于或等于某 一数值,选择进入回归分析的观察单位。
5、Case Labels(个案标签):在左侧的源变量框中选择 一变量作为标签变量进入 Case Labels框中。
6、Statistics(统计)对话框 单击“Statistics”按钮,进入统计对话框如图:
Part and partial correlations: 显示方程中各自变量与因变量的零阶相关 (Zero一order,即Pearson相关)、偏相关(Partial)和部分相关(part)。进行此 项分析要求方程中至少有两个自变量。
Collinearity diagnostic(共线性诊断)。显示各变量的容差(Tolerance)、 方差膨胀因子(VIC,Variance Inflation Factor)和共线性的诊断表。
H0:1 0, 2 0,, k 0

(3)回归系数的显著性检验(t检验) 所谓回归系数的显著性检验,就是根据样 本估计的结果对总体回归系数的有关假设进行 检验。 之所以对回归系数进行显著性检验,是因 为回归方程的显著性检验只能检验所有回归系 数是否同时与零有显著性差异,它不能保证回 归方程中不包含不能较好解释说明因变量变化 的自变量。因此,可以通过回归系数显著性检 验对每个回归系数进行考察。
b. 因变量: foodexp
均方 878382.33
5450.755
F 161.149
显著性 .000a
方差分析表 回归的均方(Regression–Mean Square)=878382.334,剩余(残差)
的均方(Residual-Mean square)=5450.755, F=161.149 P=0.000.可以 认为这两个变量之间有直线关系.
Forward(向前):向前引入法。自变量由少到多一个一个引入回归方程, 直到不能按检验水准引入新的变量为止。该法的缺点是:当两个变量一起时效果 好,单独时效果不好,有可能只引入其中一个变量,或两个变量都不能引入。
Backward(向后):向后剔除法。自变量由多到少一个一个从回归方程中 剔除,直到不能按检验水准剔除为止,能克服向前引入法的缺点。当两个变量一 起时效果好,单独时效果不好,该法可将两个变量都引入方程。
Stepwise(逐步):逐步引入一剔除法。将向前引入法和向后剔除法结合 起来,在向前引入的每一步之后都要考虑从已引入方程的变量中剔除作用不显著 者,直到没有一个自变量能引入方程和没有一个自变量能从方程中剔除为止。缺 点同向前引入法,但选中的变量比较精悍。
说明:为弥补各种选择方法和各种标准的局限性,不妨分 别用各种方法和多种引入或剔除处理同一问题,若一些变量常 被选中,它们就值得重视。
操作步骤:使用系统默认选择项进行线性回归分析 Analyze-------Regression---------Linear 分析——回归——线性
Dependent:存放因变量 Independent:存放自变量
输出结果及结果分析
Va ri abl es En ter ed/ Re mov edb
Estimates(默认选择项):回归系数的估计值(B)及其标准误(Std.Error)、 常数(Constant);标准化回归系数(Beta);B的t值及其双尾显著性水平 (Sig.)。
Model fit(默认选择项):列出进入或从模型中剔除的变量;显示下列拟 合优度统计量:复相关系数(R)、判定系数(R2)、调整 R2(Adjusted R Square)、估计值的标准误以及方差分析表。
相关文档
最新文档