spss回归分析大全

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

多元线性回归方程显著性检验的零假设是各个偏回归系数同时为零, 检验采用F统计量,其数学定义为:
2 ˆ ( y y ) P i i 1 2 ˆ ( y y ) i i i 1 n n
F
n P 1

MSA MSE
即平均的SSA/平均的SSE,F统计量服从(p,n-p-1)个自由度的F 分布。SPSS将会自动计算检验统计量的观测值以及对应的概率p值, 如果p值小于给定的显著性水平α ,则应拒绝零假设,认为y与x的全 体的线性关系显著。
等级相关分析。具体过程见相关分析相关章节。
22
线性回归分析
回归分析步骤:
第一,分析大量样本变量观测值,确定变量之间的数学关系式——回归方 程; 第二,分析其回归方程的可信程度,区分影响显著的和影响不显著的自变 量; 第三,根据已确定的数学关系,预测(y)或者控制(x)特定变量的取值, 并给出预测或控制的精确度。
ZRE e i ˆ
,绝对值大于
3对应的观察值为异常值。
学生化残差SRE 剔除残差DRE(或剔除学生化残差SDRE)
上述SRE、SDRE的直观判断标准同标准化残差ZRE。
18
线性回归分析
19
线性回归分析
多元回归分析中的其他问题 变量筛选问题 向前筛选策略 解释变量不断进入回归方程的过程,首先选择与被解释变量具有最高线 性相关系数的变量进入方程,并进行各种检验;其次在剩余的变量中挑选 与解释变量偏相关系数最高并通过检验的变量进入回归方程。 向后筛选策略 变量不断剔除出回归方程的过程,首先所有变量全部引入回归方程并检 验,然后在回归系数显著性检验不显著的一个或多个变量中,剔除t检验值 最小的变量。 逐步筛选策略 向前筛选与向后筛选策略的综合
条件指数ki
k
i

m i
10≤ ki ≤100时,认为多重共线性较强, ki ≥100时,认为多重共线性 很严重
21
线性回归分析
回归方程的统计检验 残差分析——异方差分析 等级相关分析 得到残差序列后首先对其取绝对值,然后计算出残差和解
释变量的秩,最后计算Spearman等级相关系数,并进行
线性回归分析
(3)选择变量
该文本框主要用于指定分析个案的选择规则,当回归分析中包含由选 择规则定义的个案,则需要进行设置。
线性回归:设置规则子对话框用于选择关系 。对于分类变量,可用的关系有“等于”和 “不等于”,对于字符串型变量,可以用“ 等于”关系,在“值”文本框中输入按具体 数值或字符串选择个案的规则;如在“值” 中输入“f”,则表示只有那些性别为女性 的个案才能进入分析;对于连续变量,则可 用的关系有“等于”、“不等于”、“小于 ”、“小于等于”、“大于”以及“大于等 于”,如选择“不等于”,并在“值”中输 入“1”,表示只有那些有无线服务的个案 才会包含在回归分析中。
SPSS回归分析
小组成员: 李标 祝斌 宋金泽 周益丰 贾汪洋
本章内容
• 7.1 回归分析概述 • 7.2 线性回归分析 • 7.3 曲线估计回归分析 • 7.4 罗辑回归分析 • 7.5 序数、概率回归分析 • 7.6 非线性、权重估计、两阶最小二乘、
最佳尺度回归分析
2
回归分析 回归分析(regression analysis) 确定两种或两种以上变数间相互依赖 的定量关系的一种统计分析方法。 涉及的自变量的多少 a.一元回归分析 b.多元回归分析 自变量和因变量之间的关系类型, a.线性回归分析 b.非线性回归分析
式中n-p-1、n-1分别是SSE和SST的自由度。其取值范围和意义与一 元回归方程中的R2是相同的。
9
线性回归分析

回归方程的显著性检验(F检验)
一元线性回归方程显著性检验的零假设是β 1=0,检验采用F统计量, 其数学定义为:
2 ˆ ( y y ) i i 1 2 ˆ ( y y ) i i n n
一元线性回归分析
线性回归的使用条件: •线性趋势,即自变量与因变量的关系是线性的。 •独立性,因变量Y的取值相互独立。反映在方程中即残差独立。 •正态性,即自变量的任何一个线性组合,Y应该服从正态分布。反映
在方程中即残差Ei服从正态分布。 •方差齐性,自变量的任何一个线性组合,Y的方差相同。
线性回归分析
线性回归分析

• 一元线性回归的拟合优度检验采用R2统计量,称为判定系数或决定系
数,数学定义为
回归方程的拟合优度检验(相关系数检验)
R
2
ˆ y) (y
i 1 n i 1 i
n
2
2 ( y y ) i
其中
2 ˆ ( y y ) i i 1
n 2 ( y y ) i i 1
F
i 1 即平均的SSA/平均的SSE ,F统计量服从(1,n-2)个自由度的F分布。 SPSS将会自动计算检验统计量的观测值以及对应的概率p值,如果p 值小于给定的显著性水平α ,则应拒绝零假设,认为线性关系显著。
n 2
MSA MSE
线性回归分析
回归方程的显著性检验(F检验)
线性回归分析
• 对于一元线性模型,一般采用最小二乘估计法来估计相关的参数(如和的无
偏估计值和),从而得到样本回归直线,这样把得到的样本回归直线作为总 体回归的近似,是一种预测过程。 • 那要确定得到的样本回归直线是否能作为总体回归的近似,就必须对回归方 程的线性关系进行各种统计检验,包括拟合优度检验、回归方程显著性检验 、回归系数的显著性检验(t检验)、残差分析等。
2.一元线性回归分析的SPSS操作
打开【分析】→【回归】
→【线性】,出现线性
回归主对话 框,进行 SPSS程序命令操作, 即对各子对话框 进行设置。
线性回归分析
(1)变量
因变量 被选入该文本框中的变量为线性回归模型中的被解释 变量,数值类型为数值型。如果被解释变量为分类变量,则可以用 二元或者多元Logistic模型等建模分析。 自变量 被选入该列表框中的变量为线性模型中的解释变量, 数值类型一般为数值型。如果解释变量为分类变量或定性变量,可 以用虚拟变量(哑变量)表示。如果选择多个自变量,可将自变量 分组成块,通过“上一张”和“下一张”按钮对不同的变量子集指 定不同的进入方法。
3
回归分析
回归分析一般步骤: •确定回归方程中的解释变量(自变 量)和被解释变量(因变量) •确定回归模型 •建立回归方程 •对回归方程进行各种检验 •利用回归方程进行预测
4
线性回归分析
•一元线性回归方程反应一个因变量与一个自变量之间的线性
关系,当直线方程Y‘=a+bx的a和b确定时,即为一元回 归线性方程。经过相关分析后,在直角坐标系中将大量数据 绘制成散点图,这些点不在一条直线上,但可以从中找到一 条合适的直线,使各散点到这条直线的纵向距离之和最小, 这条直线就是回归直线,这条直线的方程叫作直线回归方程 。 注意:一元线性回归方程与函数的直线方程有区别,一元 线性回归方程中的自变量X对应的是因变量Y的一个取值范 围。
20
线性回归分析
多元回归分析中的其他问题 变量多重共线性问题 2 容忍度Tol 1 Tol i Ri 容忍度值越接近于1,表示多重共线性越弱。SPSS变量多重共线性的要 求不很严格,只是在容忍度值太小时给出相应警告信息。 方差膨胀因子VIF 膨胀因子是容忍度的倒数,越接近于1,表示解释变量间的多重共线性越 弱。通常如果VIFi大于等于10,说明解释变量xi与其余解释变量之间有 严重的多重共线性。 特征根和方差比 这里的特征根是指相关系数矩阵的特征根。如果最大特征根远远大于其 他特征根的值,则说明这些解释变量之间具有相当多的重叠信息。
n
称为回归平方和(SSA)
称为总离差平方和(SST)

R2取值在0-1之间, R2越接近于1,说明回归方程对样本数据点的拟 合优度越高。
线性回归分析
回归方程的拟合优度检验(相关系数检验)
R2
多元线性回归的拟合优度检验采用 或调整的决定系数,数学定义为 统计量,称为调整的判定系数
SSE 2 n p 1 R 1 SST n 1
线性回归分析
(4)个案标签
(5)WLS权重
11
线性回归分析

回归系数的显著性检验(t检验)
一元线性回归方程的回归系数显著性检验的零假设是β 1=0,检验采用 t统计量,其数学定义为:
t
n
ˆ 1 ˆ
2 ( x x ) i i 1
t统计量服从n-2个自由度的t分布。 SPSS将会自动计算t统计量的观测值 以及对应的概率p值,如果p值小于给定的显著性水平α ,则应拒绝零 假设,认为x对y有显著贡献,线性关系显著。
13
线性回归分析

残差分析
所谓残差是指由回归方程计算所得的预测值与实际样本值之间的差 距,即
e

i

y
i

ˆ y
i
它是回归模型中 i 的估计值。如果回归方程能较好地反映被解释变量 的特征和变化规律,那么残差序列中应不包含明显的规律性和趋势性。
线性回归分析

残差分析——均值为0的正态性分析
残差均值为0的正态性分析,可以通过绘制残差图进行分析,如果残 差均值为0,残差图中的点应在纵坐标为0的横线上下随机散落着。正 态性可以通过绘制标准化(或学生化)残差的累计概率图来分析
线性回归分析
回归系数的显著性检验(t检验)
多元线性回归方程的回归系数显著性检验的零假设是β i=0,检验采 用t统计量,其数学定义为:
t
i

n
ˆi ˆ
2 ( x x ) ji i j 1
(i=1,2, … ,p)
ti统计量服从n-p-1个自由度的t分布。 SPSS将会自动计算ti统计 量的观测值以及对应的概率p值,如果p值小于给定的显著性水平α , 则应拒绝零假设,认为xi对y有显著贡献,应保留在线性方程中。
线性回归分析
1.一元线性回归分析的基本理论
把解释变量和被解释变量的多个对应样本值组队成坐标数 据对(xi,yi),通过观察数据对(xi,yi)的散点图,如 果发现y与xi之间呈现出显著的线性关系,则应考虑建立y 和xi的一元线性回归模型,其中,y=a+bx+μ,y为被解 释变量;a为模型的截距项;b为待估计参数;x为解释变量 ;μ为随机误差项。

16
线性回归分析
回归方程的统计检验 残差分析——异方差分析 绘制残差图 如果残差的方差随着解释变量值的增加呈增加(或减少) 的趋势,说明出现了异方差现象。
17
百度文库
回归方程的统计检验 残差分析——探测样本中的异常值和强影响点(对于y值) 标准化残差ZRE
由于残差是服从均值为0的正态分布,因此可以根据3σ准 则 进行判断,首先对残差进行标准化
线性回归分析
总离差平方和可分解为 (2)方法
用于选择线性回归中变量的进入和剔除方法,来建立多个回归模型
进入,该方法表示自变量列表中所有的变量都进入回归模型。 逐步,该方法是一个动态过程,表示具有F统计量的概率最小 的自变量被选进回归模型;对于已经在回归方程中的变量, 如果它们的F统计量的概率变得足够大,则移除这些变量, 直到不再有自变量符合进入或移除的条件,该方法终止。 删除,该方法表示建立回归模型前设定一定条件,然后根据 条件删除自变量。 向后,该方法表示首先将自变量列表中的所有自变量选入到回归模型中, 然后按顺序移除,最先删除与因变量之间的部分相关性最小的那个变量, 移除第一个变量后,得到新的方程,又将与因变量之间的部分相关性最小 的那个变量删除,直到方程中没有满足消除条件的变量,过程结束。 向前,该方法与“向后”恰好相反,是将自变量按顺序选入到回归模型中 。首先选入与因变量之间具有最大相关性的、满足选入条件的变量进入回 归模型中,然后再考虑下一个变量,直到没有满足条件的变量时,过程结 束。
线性回归分析
回归方程的统计检验 残差分析——独立性分析 绘制残差序列的序列图 以样本期(或时间)为横坐标,残差为纵坐标,如果残差随时间的推移呈规律 性变化,则存在一定的正或负相关性。 计算残差的自相关系数 取值在-1到+1之间,接近于+1表明序列存在正自相关性。 ˆ DW(Durbin—Watson)检验 DW取值在0至4之间,直观判断标准是DW=4,残差序列完全负自相关; DW=2,完全无自相关;DW=0,完全正自相关。
相关文档
最新文档