线性回归方程中的相关系数r
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
线性回归方程中的相关系数r
r=∑(Xi-X的平均数)(Yi-Y平均数)/根号下[∑(Xi-X平均数)^2*∑(Yi-Y平均数)^2]
R2就是相关系数的平方,
R在一元线性方程就直接是因变量自变量的相关系数,多元则是复相关系数
判定系数R^2
也叫拟合优度、可决系数。表达式是:
R^2=ESS/TSS=1-RSS/TSS
该统计量越接近于1,模型的拟合优度越高。
问题:在应用过程中发现,如果在模型中增加一个解释变量,R2往往增大
这就给人一个错觉:要使得模型拟合得好,只要增加解释变量即可。
——但是,现实情况往往是,由增加解释变量个数引起的R2的增大与拟合好坏无关,R2需调整。
这就有了调整的拟合优度:
R1^2=1-(RSS/(n-k-1))/(TSS/(n-1))
在样本容量一定的情况下,增加解释变量必定使得自由度减少,所以调整的思路是:将残差平方和与总离差平方和分别除以各自的自由度,以剔除变量个数对拟合优度的影响:
其中:n-k-1为残差平方和的自由度,n-1为总体平方和的自由度。
总是来说,调整的判定系数比起判定系数,除去了因为变量个数增加对判定结果的影响。R = R接近于1表明Y与X1,X2 ,…,Xk之间的线性关系程度密切;
R接近于0表明Y与X1,X2 ,…,Xk之间的线性关系程度不密切
相关系数就是线性相关度的大小,1为(100%)绝对正相关,0为0%,-1为(100%)绝对负相关
相关系数绝对值越靠近1,线性相关性质越好,根据数据描点画出来的函数-自变量图线越趋近于一条平直线,拟合的直线与描点所得图线也更相近。
如果其绝对值越靠近0,那么就说明线性相关性越差,根据数据点描出的图线和拟合曲线相差越远(当相关系数太小时,本来拟合就已经没有意义,如果强行拟合一条直线,再把数据点在同一坐标纸上画出来,可以发现大部分的点偏离这条直线很远,所以用这个直线来拟合是会出现很大误差的或者说是根本错误的)。
分为一元线性回归和多元线性回归
线性回归方程中,回归系数的含义
一元:
Y^=bX+a b表示X每变动(增加或减少)1个单位,Y平均变动(增加或减少)b各单位多元:
Y^=b1X1+b2X2+b3X3+a 在其他变量不变的情况下,某变量变动1单位,引起y平均变动量
以b2为例:b2表示在X1、X3(在其他变量不变的情况下)不变得情况下,X2每变动1单位,y平均变动b2单位
就一个reg来说y=a+bx+e
a+bx的误差称为explained sum of square
e的误差是不能解释的是residual sum of square
总误差就是TSS
所以TSS=RSS+ESS
判定系数也叫拟合优度、可决系数。表达式是
该统计量越接近于1,模型的拟合优度越高。
问题:在应用过程中发现,如果在模型中增加一个解释变量, R2往往增大
这就给人一个错觉:要使得模型拟合得好,只要增加解释变量即可。
——但是,现实情况往往是,由增加解释变量个数引起的R2的增大与拟合好坏无关,R2需调整。
这就有了调整的拟合优度
在样本容量一定的情况下,增加解释变量必定使得自由度减少,所以调整的思路是:将残差平方和与总离差平方和分别除以各自的自由度,以剔除变量个数对拟合优度的影响:其中:n-k-1为残差平方和的自由度,n-1为总体平方和的自由度。
总是来说,调整的判定系数比起判定系数,除去了因为变量个数增加对判定结果的影响。
顺便补充一下:
一般做回归的时候要求拟合优度(实际值与拟合值相关系数的平方)越高越好,可以通过增加解释变量来实现,可是解释变量多了后很多解释变量的系数T检验不显著了,而且增加很多变量后模型的自由度就减少了,这些情况狂的存在往往使得模型预测不精确;修正拟合优
度就是将残差平方和跟总离差平方和分别除以各自的自由度,这样就剔除了变量个数对其影响了。
首先有一个恒等式:TSS = ESS + RSS
即总偏差平方和= 回归平方和+ 残差平方和
通常情况,我们都是讨论解释变量对总效应的贡献,使用一个叫“拟合优度”(或者叫“判定系数”)的指标
其定义为:
回归平方和/ 总偏差平方和=ESS/TSS = (TSS-RSS)/TSS =(923-325)/923
如果说随机误差对总效应的贡献,那可以直接RSS/TSS
因为 1 - (TSS-RSS)/TSS 就可以化为RSS / TSS
SPSS中pearson(皮尔逊相关系数)看r值还是P值,确定相关性
两个值都要看,r值表示在样本中变量间的相关系数,表示相关性的大小;p值是检验值,是检验两变量在样本来自的总体中是否存在和样本一样的相关性。
SPSS回归系数SIG
在SPSS软件统计结果中,不管是回归分析还是其它分析,都会看到“SIG”,
SIG=significance,意为“显著性”,后面的值就是统计出的P值,如果P值0.01
则为差异显著,如果P<0.01,则差异极显著
sig是指的的显著性水平,就是p值,一般来说接近0.00越好,过大的话只能说不显著,sig是F检验的结果,<0.01代表方程通过检验,进行回归分析是有效的
F表示数据的方差,sig表示显著性,也就是对F检验的结果,如果sig>0.05则说明模型受误差因素干扰太大不能接受。R是复相关系数,表示观测值和模型描述值之间的线性相关系数,越大越好。R方通俗的说就是解释率,就是说你的自变量能够解释多少因变量的变化。具体到你这个就是模型不能接受,自变量解释了22.1%,剩下的只能用误差解释。
spss软件的线性回归分析中,输出了一个anova表,表中的回归、残差、平方
和、df、均方、F、sig分别代表什么
回归是方法
残差是实测与预计值的差值
平方和有很多个,不同的平方和的意思不一样
df是自由度
均方是方差除以自由度
f是f分布的统计量
sig是p值
anova表中的“回归平方和”表示反应变量的变异中的回归模式中所包含的自变量所能解释的部分。“残差平方和”代表反应变量的变异中没有被回归模型所包含的变量解释的部分。这两个值与样本量及模型中自变量的个数有关,样本量越大,相应变异就越大。df是自由度,是自由取值的变量个数,F为F检验统计量,用于检验该回归方程是否有意义,当Sig对应的值小于0.05(当显著性水平为0.05时)时,说明所建立的回归方程具有统计学意义,即自变量和因变量之间存在线性关系。
多元线性回归分析中,t检验与F检验有何不同
t检验常能用作检验回归方程中各个参数的显著性,而f检验则能用作检验整个回归关系的显著性。各解释变量联合起来对被解释变量有显著的线性关系,并不意味着每一个解释变量分别对被解释变量有显著的线性关系
F检验主要是检验因变量同多个自变量的整体线性关系是否显著,在k个自变量中,只要有一个自变量同因变量的线性关系显著,t检验则是对每个回归系数分别进行单独的检验,以判断每个自变量对因变量的影响是否显著。