基本统计分析功能
合集下载
相关主题
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
二阶段最小二乘分析;
最优尺度回归。
一、线性回归
(一)一元线性回归方程
直线回归分析的任务就是根据若干个观测(xi,yi)i=1~n
找出描述两个变量x、y之间关系的直线回归方程y^=a+bx。
y^是变量y的估计值。求直线回归方程y^=a+bx,实际上是用 回归直线拟合散点图中的各观测点。常用的方法是最小二乘
第七章 回归分析
变量之间的联系
确定型的关系:指某一个或某几个现象的变动必然会 引起另一个现象确定的变动,他们之间的关系可以使 用数学函数式确切地表达出来,即y=f(x)。当知道x的 数值时,就可以计算出确切的y值来。如圆的周长与 半径的关系:周长=2πr。 非确定关系:例如,在发育阶段,随年龄的增长,人 的身高会增加。但不能根据年龄找到确定的身高,即 不能得出11岁儿童身高一定就是1.40米公分。年龄与 身高的关系不能用一般的函数关系来表达。研究变量 之间既存在又不确定的相互关系及其密切程度的分析 称为相关分析。
(5)残差图示法
在直角坐标系中,以预测值y^为横轴,以y与 y^之间的误差et为纵轴(或学生化残差),绘
制残差的散点图。如果散点呈现出明显的规
律性则,认为存在自相关性或者非线性或者非 常数方差的问题。
(二)多元线性回归
1.多元线性回归的概念
多元线性回归:根据多个自变量的最优组合建立回归 方程来预测因变量的回归分析称为多元回归分析。多 元回归分析的模型为:y^=b0+b1x1+b2x2+ · · · · +bnxn 其中y^为根据所有自变量x计算出的估计值, b0为常 数项, b1、b2· · · · bn称为y对应于x1、x2· · ·xn的偏回归 系数。偏回归系数表示假设在其他所有自变量不变 的情况下,某一个自变量变化引起因变量变化的比 率。 多元线性回归模型也必须满足一元线性回归方程中所 述的假设理论。
得到它们的均方。
统计量F=回归均方/残差均方。当 F值很大时,拒 绝接受b=0的假设。
(4)Durbin-Watson检验
回归模型的诊断中,要诊断回归模型中误差 项的独立性。如果误差项不独立,那么对回
归模型的任何估计与假设所作出的结论都是
不可靠的。其参数称为DW或D。D的取值范 围是0<D<4,统计学意义如下: ①当残差与自变量互为独立时D≈2; ③当相邻两点的残差为正相关时,D<2; ③当相邻两点的残差为负相关时,D>2
2、一元线性回归方程的检验
检验的假设是总体回归系数为0。另外要检验回归方 程对因变量的预测效果如何。 (1)回归系数的显著性检验
对斜率的检验,假设是:总体回归系数为0。检验该
假设的t值计算公式是;t=b/SEb,其中SEb是回归系数 的标准误。
对截距的检验,假设是:总体回归方程截距a=0。检
验该假设的t值计算公式是: t=a/SEa,其中SEa是截 距的标准误。
(2) R2判定系数
在判定一个线性回归直线的拟合度的好坏时,R2系 数是一个重要的判定指标。 R2判定系数等于回归平方和在总平方和 中所占的比率,即R2体现了回归模型所能解释的因 变量变异性的百分比。如果R2=0.775,则说明变量y 的变异中有77.5%是由变量X引起的。当R2=1时, 表示所有的观测点全部落在回归直线上。当R2=0时, 表示自变量与因变量无线性关系。
线形趋势:自变量与因变量的关系是线形的,如果不 是,则不能采用线性回归来分析。 独立性:可表述为因变量y的取值相互独立,它们之 间没有联系。反映到模型中,实际上就是要求残差间 相互独立,不存在自相关。 正态性:自变量x的任何一个线形组合,因变量y均服 从正态分布,反映到模型中,实际上就是要求随机误 差项εi服从正态分布。 方差齐性:自变量的任何一个线形组合,因变量y的 方差均齐性,实质就是要求残差的方差齐。
与一元回归方程相同,在多元回归中也使用判定系数
R2来解释回归模型中自变量的变异在因变量变异中 所占比率。 但是,判定系数的值随着进入回归方程的自变量的 个数(或样本容量的大小n)的增加而增大。因此, 为了消除自变量的个数以及样本量的大小对判定系数 的影响,引进了经调整的判定系数(Adjusted R Square)。
2 2
ˆ i y) ( y R ( yi y)
2
为了尽可能准确的反应模型的拟合度,SPSS输出中 的Adjusted R Square是消除了自变量个数影响的R2 的修正值。
(3)方差分析
体现因变量观测值与均值之间的差异的偏差平方和
SSt是由两个部分组成:
SSt=SSr+SSe SSr:回归平方和,反应了自变量X的重要程度; SSe :残差平方和,它反应了实验误差以及其他意外 因素对实验结果的影响。这两部分除以各自的自由度,
回归分析
如果把其中的一些因素作为自变量,而另一
些随自变量的变化而变化的变量作为因变量, 研究他们之间的非确定因果关系,这种分析
就称为回归分析。
回归分析是研究一个自变量或多个自变量与
一个因变量之间是否存在某种线性关系或非
线性关系的一种统计学方法。
回归分析
线性回归分析; 曲线回归分析; 二维Logistic回归分析; 多维Logistic回归分析; 概率单位回归分析; 非线性回归分析; 权重估计分析;
ˆ i y) (n k 1) ( y 1 AdjustedR ( yi y) (n 1)
2.多元线性回归分析中的参数
(l)复相关系数 R 复相关系数表示因变量y 与他的自变量xi 之 间线性相关密切程度的指标,亦即观察Y与 Y^之间的相关程度,复相关系数使用字母R 表示。
复相关系数的取值范围在0-1之间。其值越 接近1表示其线性关系越强,越接近0表示线 性关系越差。
(2)R2判定系数与经调整的判定系数
法。也就是使该直线与各点的纵向垂直距离最小。即使实测
值y与回归直线y^之差的平方和Σ(y-y^)2达到最小。Σ(y-y^)2 也称为剩余(残差)平方和。因此求回归方程y^=a+bx的问 题,归根到底就是求Σ(y-y^)2取得最小值时a和b的问题。a称 为截距,b为回归直线的斜率,也称回归系数。
Leabharlann Baidu
1、一元线性回归方程的适用条件