第九章相关与简单线性回归分析

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

第九章相关与简单线性回归分析
第一节相关与回归的基本概念
一、变量间的相互关系
现象之间存在的依存关系包括两种:确定性的函数关系和不确定性的统计关系,即相关关系。

二、相关关系的类型
1、从相关关系涉及的变量数量来看:简单相关关系;多重相关或复相关。

2、从变量相关关系变化的方向看:正相关;负相关。

3、从变量相关的程度看:完全相关;不相关;不完全相关。

二、相关分析与回归分析概述
相关分析就是用一个指标 (相关系数) 来表明现象间相互依存关系的性质和密切程度;回归分析是在相关关系的基础上进一步说明变量间相关关系的具体形式,可以从一个变量的变化去推测另一个变量的变化。

相关分析与回归分析的区别:目的不同:相关分析是用一定的数量指标度量变量间相互联系的方向和程度;回归分析是要寻求变量间联系的具体数学形式,要根据自变量的固定值去估计和预测因变量的值。

对变量的处理不同:相关分析不区分自变量和因变量,变量均视为随机变量;回归区分自变量和因变量,只有因变量是随机变量。

注意:相关和回归分析都是就现象的宏观规律/ 平均水平而言的。

第二节简单线性回归
一、基本概念
如果要研究两个数值型/定距变量之间的关系,以收入x 与存款额y 为例,对n 个人进行独立观测得到散点图,如果可以拟合一条穿过这一散点图的直线来描述收入如何影响存款,即简单线形回归。

二、回归方程
在散点图中,对于每一个确定的x值,y的值不是唯一的,而是符合一定概率分布的随机变量。

如何判断两个变量之间存在相关关系?要看对应不同的x,y 的概率分布是否相同/y 的总体均值是否相等。

在x=xi 的条件下,yi 的均值记作E(yi) ,如果它是x 的函数,E(yi) =f(xi) ,即回归方程,就表示y 和x 之间存在相关关系,回归方程就是研究自变量不同取值时,因变量y的平均值的变化。

当y的平均值和x呈现线性关系时,称作线性回归方程,只有一个自变量就是一元线性回归方程。

—元线性回归方程表达式:E(yJ= a + B X i,其中a称为常数,B称为回
归系数
对于每一个真实的y ,其表达式为y i = a +B x+ £ i, yi是随机变量,「是随机误差,由于「的值不固定,从而使x和y呈现出不确定的关系。

三、回归方程的建立与最小二乘法
回归方程中描述的是总体关系,总体不知道的情况下,只能通过样本来估计总体,即通过样本的散点图来估计总体回归直线的系数a和B。

如何根据样本散点图拟合出一条最佳的估计直线?使用最小二乘法。

设从总体中抽取一个样本,观测值为(x i,y i),(x 2,y 2),…(X n,y n),穿过这n
个观测点可以得到无数直线y=a+bx,最佳直线就是与各个点都比较接近的这条直线,即各点到该直线的铅直距离即偏差之和最小,但偏差有正有负会抵消,需
要对所有偏差求平方和,使得刀(yi- ?)2最小,即最小二乘法原理。

根据最小二乘法准则拟合的回归方程记作?= a+bx。

n
迟(xi _x)(yi _y)
根据最小二乘法原理可推导出b=』^ ,a=y-bx
'二(xi -x)2
i总
为了便于计算,也可将上述公式分解为:b=2 峯x i T
n送X j2—(送x)2
由此通过最小二乘法所确定的a、b带入待估计的直线方程式得到?=a+bx就是总体线性回归方程E(y i)= a + B X i的最佳估计方程。

斜率b的意义:x发生一个单位的变化时,y相应发生的变化量。

第三节回归方程的假定和检验
一、回归方程的基本假定
对于总体线性回归方程E(y i)= a + B X i,需要作出一些基本假定:
A、对于x的每一个取值xi,yi是随机变量/y的子总体,所有yi的方差相等。

B、所有yi的均值都在一条直线上,其数学表达式为E(y i)= a +B X i,由于a和B对于所有子总体yi都是一样的,所以a和B是总体参数。

C、随机变量yi是统计独立的。

这三个假定可以写为:
随机变量yi在统计上是相互独立的,它们的均值=E(y i)= a + B x i,方差=c D出于假设检验需要,还要求y的每一个子总体yi都满足正态分布。

综合回归分析中估计和检验的两方面需要,对总体数据结构有如下假定:
y i= a +B X l+ £1 , y= a +B X2+ £2, y n= a +B X n+ £n,
其中,£ 1, £ 2….£ n是随机变量,相互独立,且都服从相同正态分布N(0,° 2)
二、回归方程的检验
在拟合回归直线前,需要对总体变量之间是否存在线形关系进行检验,否则
拟合回归直线是没有意义的。

1、作出假设
H O: B =0 ;H 1:B 工0
类似于方差分析,B =0意味着各总体均值相等,说明x和y之间没有关系, B工0意味各总体均值不等,说明x和y之间有线性关系。

所以可理解为检验各总体均值是否相等,类似方差分析的检验。

2、计算检验统计量
(1)计算偏差平方和
n
总偏差平方和TSS=7(yi-y)2,反映了观测值yi围绕均值y总的离散程
iT
度。

n
剩余平方和RSS=v (yi-?)2,反映了观测值yi偏离回归直线?的离散程度,
i生
是通过回归直线进行估计之后,仍然未能消除/未被解释的误差,也称残差平方和,说明了除x 对y的线性影响外,还存在其他未被考虑的因素。

由于(yi- y)可以分解为(yi- ?)+( ?- y),所以TSS可分解为RSSRSSR回归
n
平方和RSSR= (?i- y)2,表示通过回归直线被解释掉的误差。

i =1
(2)计算检验统计量
计算均方:TSS的自由度为n-1 ,RSS的自由度为1(?i始终是同一个值),RSSR 的自由度为n-2。

RSSR
所以F= ~F(1 , n-2)
RSS/(n - 2)
在显著性水平a的情况下,如果F>F a ,贝加绝原假设,即总体存在线性相关;反之,如果F V F a ,则不能拒绝原假设,就没有必要拟合回归直线了。

F的意义:RSSRfc于RSS说明了引入回归直线后能够解释掉的误差大,反
映了回归直线是有较强意义的
第四节 拟合优度和相关系数
一、决定系数与相关系数
TSS 表示总离差平方和,RSSR 表示通过回归直线被解释掉的误差, RSS 表示 回归直线未能作出解释的离差平方和。

如果回归直线对样本观测点拟合得越好, 那么各样本观测点与回归直线靠得越近(RSS 越小),由样本回归直线作出解释 的离差平方和在总离差平方和中的比重也将越大。

反之,拟和程度越差,
RSSR
占TSS 的比重越小。

RSSR/TSS 就是综合度量回归直线对样本观测值拟和优度的指标,也称决定
n n
系数/判定系数,用r 2表示。

r 2八(?i-y )7、(yi_y )2
i 4 i 4
也可利用消减误差比例原理PRE=(E-E 2)/E 1来解释。

r 2=,(?卜y)2八 (yi _y )2可化简为:r 2=( 凶
W (在SPSS 中 i4 i4 ' (xi -x)' (yi -旳
显示为R Square )
r= .r 2,r 为简单线性相关系数/皮尔逊相关系数,取值范围由 0到1
r 2是就回归模型而言,度量回归模型拟和优度; 两变量间的依存内程度;r 2是非负数,r 可正可负 二、协方差 瓦(xi —x )(yi —y ) / (Xi -X )2' (yi -y)2
H (xi -X)(yi -y )/(n-1)
' (xi -x)2/(n -1)' (yi -y)2 /(n -1) Var(X)是变量X 的方差,Var(Y)是变量Y 的方差,Cov (X,Y )是变量X 和Y 的协方差。

将变量x 和y 的数值对标在坐标图上,计算x 和y 的均值x 和y ,把坐标轴 移到x 和y ,得到新坐标轴,观测值变为:
(x 1- x ),(x 2- x ), ....... (x n - x )
(y 1- y ),(y 2- y ), .........(y n - y )
每对数据的乘积:(x 1- x )(y 1- y ); (x 2- x )(y 2- y), ..................... (x n - x )(y n - y )
如果数据观测值落在第一或第三象限,乘积
(X i - x )(y i - y )为正;如果数据
观测值落在第二或第四象限,乘积(X i - x )(y i - y )为负
如果x 和y 之间呈线性相关,观测点会集中在第一三象限或第二四象限; 如 果均匀落在四r 是就两个变量而言,说明
Cov(X,Y) ,Var(X)Var(Y)
个象限,乘积之和为零。

线性相关的程度可以用协方差表示,等于零表示观测点均匀散落在四个象限,不存在线性相关;不等于零表示存在线性相关,大于零正相关,小于零负相关。

协方差绝对值越大,相关程度越强。

单变量方差公式表示变量各观测值相对其平均值的平均偏差,所以协方差表示x和y两变量观测值相对其各自均值所造成的共同平均偏差。

第五节相关系数与回归系数的检验
一、相关系数和回归系数的检验
1、相关系数r的检验:
H0: ■ =0 ; H 1:工0
I -------------
检验统计量为t=,:;2〜t(n-2),为简化计算,可使用相关系数检验表根据自由度和给定的a来反查临界相关系数。

将计算出的样本r值与临界相关系数r a进行比较,若I r l> r a,则y 和x之间存在线性相关关系,r在显著性水平a下显著;若I r Iv r a,y和x不存在线性相关关系,r在显著性水平a下不显著。

2、回归系数B的检验
对回归系数的检验H: B =0; H: 0就是要确认线性回归方程是有意义
的,B =0意味之间不存在线性相关关系。

所以,H0:「=0和H O: B =0是等价的。

如果r通过了检验,也必然会导致B通过F检验。

二、相关系数与回归系数的比较
回归系数反映自变量的增量和因变量增量之间的关系。

相关系数反映了真实数据和回归直线靠拢的程度。

相同回归系数可有不同的相关系数,相同的相关系数可有不同的回归系数。

补充说明:
不能脱离样本量来判断相关程度。

在回归分析或相关分析中,即使检验的结果是 '工0或3工0也不能得出X 与丫之间存在因果关系的结论。

因为严格的因果关系研究需要进行有对照组的随机试验,即使不能进行对照组试验,也要对观测数据进行多元回归分析才可能部分地控制外来影响,近似分析出可能的因果关系。

相关文档
最新文档