一元线性回归的最小二乘估计
计量经济学的2.2 一元线性回归模型的参数估计
基于样本数据,所得到的总体回归函数的一个估 计函数称为样本回归函数。
问题:当我们设定总体回归模型的函数形式后, 如何通过样本数据得到总体回归函数的一个估计 (即样本回归函数)?--参数估计问题
E (Y | X i ) 0 1 X i
ˆ ˆ ˆ Yi f ( X i ) 0 1 X i
Xi确定
作此假设的理由:当我们把PRF表述为 时,我们假定了X和u(后者代表所有被省略的变量的影 响)对Y有各自的(并且可加的)影响。但若X和u是相关 25 的,就不可能评估它们各自对Y的影响。
线性回归模型的基本假设(4)
假设4、服从零均值、同方差、零协方差的正态分布 i~N(0, 2 ) i=1,2, …,n 意为:ui服从正态分布且相互独立。因为对两个正态 分布的变量来说,零协方差或零相关意为这两个变量 独立。 作该假设的理由:i代表回归模型中末明显引进的许多解释
Yi 0 1 X i i
i=1,2,…,n
Y为被解释变量,X为解释变量,0与1为待估 参数, 为随机干扰项
3
回归分析的主要目的是要通过样本回归函 数(模型)SRF尽可能准确地估计总体回归函 数(模型)PRF。
ˆ ˆ ˆ Yi 0 1 X i
ˆ ˆ ˆ Yi 0 1 X i ui
同方差假设表明:对应于不同X值的全部Y值具有同 样的重要性。
22
线性回归模型的基本假设(2-3)
假设2、随机误差项具有零均值、同方差和不自相关 性(不序列相关): (2.3) 不自相关: Cov(i, j|Xi, Xj)=0 i≠j i,j= 1,2, …,n 或记为 Cov(i, j)=0 i≠j i,j= 1,2, …,n 意为:相关系数为0, i, j非线性相关。 几何意义如下
一元线性回归中最小二乘估计量的有效性
Fi ly, he c s s e tr s l s de i e r m h wo me h s na l t on it n e u t wa rv d f o t e t t od .
Ke r :e f c i e s ; la ts u r s e tm a or r gr s i n l i y wo ds fe tv ne s e s q a e s i t ; e e son a a yss
第 2 5卷 第 3期
21 0 1年 9月
上
海
工
程
技
术
大
学
学
报
Vo _ 5 NO 3 【2 .
S p .2 1 e t 01
J OURNAI OF S HAN GHAI UNI VER I NGI S TY OF E NEE I C E E R NG S I NC
了更 加全 面地研 究未 知参 数 的有效 性 , 本文 采用 比
这 n次试验 中因变量 可能取 的观察结 果 , 依次 记 , … , 从 而 得到 一 个容 量 为 ”的样 本 :z , Y, Y (
1
), z2 Y ) … , z Y ) ( ,2 , ( , .
假设 对 每 一 个 值 , 随机 变量 Y有 确 定 的 分
第 3期
肖 翔 , : 元 线 性 回归 中最 小 二 乘 估 计 量 的有 效性 等 一
s u e Fr m if r n e s e tv s t ompa a i e m e ho n if r n ito t od we e a ple o t did. o d fe e t p r p c i e , he c r tv t d a d d fe e ta i n me h r p id t
一元线性回归模型参数的最小二乘法估计
8.2.1一元线性回归模型1.生活经验告诉我们,儿子的身高与父亲的身高相关.一般来说,父亲的身高较高时,儿子的身高通常也较高.为了进一步研究两者之间的关系,有人调查了14名男大学生的身高及其父亲的身高,得到的数据如表1所示.编号1234567891011121314父亲身高/cm 174 170 173 169 182 172 180 172 168 166 182 173 164 180 儿子身高/cm 176 176 170 170 185 176 178 174 170 168 178 172 165 182从图上看,散点大致分布在一条直线附近根据我们学过的整理数据的方法:相关系数r =0.886.父亲身高/cm180 175 170 165 160160 165 170 175180 185 190 ·· ·· · · · 儿子身高/cm· · · · ·185 1).问题1:可以得到什么结论?由散点图的分布趋势表明儿子的身高与父亲的身高线性相关,通过相关系数可知儿子的身高与父亲的身高正线性相关,且相关程度较高.2).问题2:是否可以用函数模型来刻画?不能,因为不符合函数的定义.这其中还受其它因素的影响.3).问题3:那么影响儿子身高的其他因素是什么?影响儿子身高的因素除父亲的身外,还有母亲的身高、生活的环境、饮食习惯、营养水平、体育锻炼等随机的因素,儿子身高是父亲身高的函数的原因是存在这些随机的因素.4).问题4: 你能否考虑到这些随机因素的作用,用类似于函数的表达式,表示儿子身高与父亲身高的关系吗?用x表示父亲身高,Y表示儿子的身高,用e表示各种其它随机因素影响之和,称e为随机误差, 由于儿子身高与父亲身高线性相关,所以Y=bx+a.考虑随机误差后,儿子的身高可以表示为:Y=bx+a+e由于随机误差表示大量已知和未知的各种影响之和,它们会相互抵消,为使问题简洁,可假设随机误差e的均值为0,方差为与父亲身高无关的定值 . 2σ2即E e D eσ:()0,().==我们称①式为Y 关于x 的一元线性回归模型,其中,Y 称为因变量或响应变量,x 称为自变量或解释变量 . a 称为截距参数,b 称为斜率参数;e 是Y 与bx+a 之间的随机误差.2,()0,().Y bx a e E e D e σ=++⎧⎨==⎩① 2、一元线性回归模型如果用x 表示父亲身高,Y 表示儿子的身高,e 表示随机误差.假定随机误差e 的均值为0,方差为与父亲身高无关的定值 ,则它们之间的关系可以表示为2σ4.问题5:你能结合具体实例解释产生模型①中随机误差项的原因吗?产生随机误差e的原因有:(1)除父亲身高外,其他可能影响儿子身高的因素,比如母亲身高、生活环境、饮食习惯和锻炼时间等.(2)在测量儿子身高时,由于测量工具、测量精度所产生的测量误差.(3)实际问题中,我们不知道儿子身高和父亲身高的相关关系是什么,可以利用一元线性回归模型来近似这种关系,这种近似关系也是产生随机误差e的原因.8.2.2一元线性回归模型参数的最小二乘法估计二、自主探究问题1.为了研究两个变量之间的相关关系, 我们建立了一元线性回归模型表达式 刻画的是变量Y 与变量x 之间的线性相关关系,其中参数a 和b 未知,我们如何通过样本数据估计参数a 和b?2,()0,().Y bx a e E e D e σ=++⎧⎨==⎩问题2.我们怎样寻找一条“最好”的直线,使得表示成对样本数据的这些散点在整体上与这条直线最“接近”?从成对样本数据出发,用数学的方法刻画“从整体上看,各散点与蓝色直线最接近”利用点到直线y=bx+a 的“距离”来刻画散点与该直线的接近程度,然后用所有“距离”之和刻画所有样本观测数据与该直线的接近程度.父亲身高/cm180 175 170 165 160160 165 170 175180 185 190 ·· ·· · · · 儿子身高/cm· · · · ·185 父亲身高/cm180 175 170 165 160160 165 170 175 180 185 190·· ·· · · · 儿子身高/cm· · · · ·185设满足一元线性回归模型的两个变量的n 对样本数据为(x 1,y 1),(x 2,y 2),…,(x n ,y n )父亲身高/cm180 175170165 160160165 170 175 180 185 190·· · · · · · 儿子身高/cm· ·· · · 185()()(1,2,3,,-).i i i i i i i i i i i y bx a e i n y bx a e e x y x bx a =++=⋅⋅⋅+=+由),得(显然越小,表示点,与点,的距离越小,()0,.i i i x y =即样本数据点离直线y=bx+a 的竖直距离越小,如上图特别地,当e 时,表示点在这条直线上1-)ni i i y bx a =+∑因此可用(来刻画各样本观测数据与直线y=bx+a 的整体接近程度.()iix y ,y=bx+a()i i x bx a +,·[]21(,)()ni i i Q a b y bx a ==-+∑残差平方和: 即求a ,b 的值,使Q ( a ,b )最小残差:实际值与估计值之间的差值,即 使Q 取得最小值,当且仅当b 的取值为121()()()nii i nii xx y y b xx ==--=-∑∑b.,ˆ,ˆ的最小二乘估计叫做求得a b a b(,).x y 经验回顾直线必经过的符号相同与相关系数r b ˆ最小二乘法我们将 称为Y 关于x 的经验回归方程,也称经验回归函数或经验回归公式,其图形称为经验回归直线,这种求经验回归方程的方法叫最小二乘法.ˆˆˆy bxa =+12111=i ni n22i ni n x x y y ˆb ,x x ˆˆa x y x y x xy b .i i i i i i ΣΣx )n ΣΣ(()()n ====⎧--⎪=⎪⎨-⎪⎪--=⎩-问题2:依据用最小二乘估计一元线性回归模型参数的公式,求出儿子身高Y 关于父亲身高x 的经验回归方程.儿子的身高不一定会是177cm ,这是因为还有其他影响儿子身高的因素,回归模型中的随机误差清楚地表达了这种影响,父亲的身高不能完全决定儿子的身高,不过,我们可以作出推测,当父亲的身高为176cm 时,儿子身高一般在177cm 左右.当x=176时, ,如果一位父亲身高为176cm,他儿子长大后身高一定能长到177cm 吗?为什么?177y ≈083928957ˆy .x .=+的意义?∧b残差的定义,e a bx Y ++=一元线性回归模型,,Y y 对于通过观测得响应到的数据称量为变观测值ˆ,y通过经验回归方程得到称为预报值的ˆ.ˆey y =-残观测值减去预报值称为即差判断模型拟合的效果:残差分析问题3:儿子身高与父亲身高的关系,运用残差分析所得的一元线性回归模型的有效性吗?残差图:作图时纵坐标为残差,横坐标可以选为样本编号,或身高数据或体重估计值等,这样作出的图形称为残差图.从上面的残差图可以看出,残差有正有负,残差点比较均匀地分布在横轴的两边,可以判断样本数据基本满足一元线性回归模型对于随机误差的假设.所以,通过观察残差图可以直观判断样本数据是否满足一元线性回归模型的假设,从而判断回归模型拟合的有效性.所以,只有图(4)满足一元线性回归模型对随机误差的假设图(1)显示残差与观测时间有线性关系,应将时间变量纳入模型; 图(2)显示残差与观测时间有非线性关系,应在模型中加入时间的非线性函数部分; 图(3)说明残差的方差不是一个常数,随观测时间变大而变大图(4)的残差比较均匀地集中在以横轴为对称轴的水平带状区域内.根据一元线性回归模型中对随机误差的假定,残差应是均值为0,方差为 的随机变量的观测值.2σ观察以下四幅残差图,你认为哪一个残差满足一元线性回归模型中对随机误差的假定?1.残差等于观测值减预测值2.残差的平方和越小越好;3.原始数据中的可疑数据往往是残差绝对值过大的数据;4. 对数据刻画效果比较好的残差图特征:残差点比较均匀的集中在水平带状区域内.归纳小结(残差图中带状越窄,精度越高)1.关于残差图的描述错误的是( )A.残差图的横坐标可以是样本编号B.残差图的横坐标也可以是解释变量或预报变量C.残差点分布的带状区域的宽度越窄相关指数越小D.残差点分布的带状区域的宽度越窄残差平方和越小C 三、巩固提升2.根据如下样本数据:得到的经验回归方程为 ,则( ) A. >0, >0B. >0, <0C. <0, >0D. <0, <0 x 2 3 4 5 6 Y42.5-0.5-2-3a $a $a $a$$b $b$b$b $$ybx a =+$ B3.某种产品的广告支出费用x(单位:万元)与销售额Y(单位:万元)的数据如表:已知Y 关于x 的经验回归方程为 =6.5x+17.5,则当广告支 出费用为5万元时,残差为________. x 2 4 5 6 8Y 30 40 60 50 70$y当x=5时, =6.5×5+17.5=50,表格中对应y=60,于是残差为60-50=10.$y10一元线性回归模型的应用例1.经验表明,对于同一树种,一般树的胸径(树的主干在地面以上1.3m处的直径)越大,树就越高.由于测量树高比测量胸径困难,因此研究人员希望由胸径预测树高.在研究树高与胸径之间的关系时,某林场收集了某种树的一些数据如下表所示,试根据这些数据建立树高关于胸径的经验回归方程.编号 1 2 3 4 5 6胸径/cm 18.1 20.1 22.2 24.4 26.0 28.3树高/m 18.8 19.2 21.0 21.0 22.1 22.1编号7 8 9 10 11 12胸径/cm 29.6 32.4 33.7 35.7 38.3 40.2树高/m 22.4 22.6 23.0 24.3 23.9 24.7dh· · ·· · · · · · · · · 解: 以胸径为横坐标,树高为纵坐标作散点图如下:散点大致分布在一条从左下角到右上角的直线附近,表明两个变量线性相关,并且是正相关,因此可以用一元线性回归模型刻画树高与胸径之间的关系.0.249314.84h d =+··· ·· · · · · · · · 用d 表示胸径,h 表示树高,根据据最小二乘法,计算可得经验回归方程为0.249314.84h d =+根据经验回归方程,由胸径的数据可以计算出树高的预测值(精确到0.1)以及相应的残差,如下表所示.编号胸径/cm 树高观测值/m 树高预测值/m 残差/m1 18.1 18.8 19.4 -0.62 20.1 19.2 19.9 -0.73 22.2 21.0 20.4 0.64 24.4 21.0 20.9 0.15 26.0 22.1 21.3 0.86 28.3 22.1 21.9 0.27 29.6 22.4 22.2 0.28 32.4 22.6 22.9 -0.39 33.7 23.0 23.2 -0.210 35.7 24.3 23.7 0.611 38.3 23.9 24.4 -0.512 40.2 24.7 24.9 -0.2以胸径为横坐标,残差为纵坐标,作残差图,得到下图.30252015-1.0-0.5 0.0 0.5 1.0· · · · · · · 残差/m· · · ·· 354045胸径/cm观察残差表和残差图,可以看到残差的绝对值最大是0.8,所有残差分布在以横轴为对称轴、宽度小于2的带状区域内 .可见经验回归方程较好地刻画了树高与胸径的关系,我们可以根据经验回归方程由胸径预测树高.编号1 2 3 4 5 6 7 8 年份 1896 1912 1921 1930 1936 1956 1960 1968 记录/s 11.8010.6010.4010.3010.2010.1010.009.95例2.人们常将男子短跑100m 的高水平运动员称为“百米飞人”.下表给出了1968年之前男子短跑100m 世界纪录产生的年份和世界纪录的数据.试依据这些成对数据,建立男子短跑100m 世界纪录关于纪录产生年份的经验回归方程以成对数据中的世界纪录产生年份为横坐标,世界纪录为纵坐标作散点图,得到下图在左图中,散点看上去大致分布在一条直线附近,似乎可用一元线性回归模型建立经验回归方程.将经验回归直线叠加到散点图,得到下图:76913031.4902033743.0ˆ1+-=t y用Y 表示男子短跑100m 的世界纪录,t 表示纪录产生的年份 ,利用一元线性回归模型来刻画世界纪录和世界纪录产生年份之间的关系 . 根据最小二乘法,由表中的数据得到经验回归方程为:从图中可以看到,经验回归方程较好地刻画了散点的变化趋势,请再仔细观察图形,你能看出其中存在的问题吗?你能对模型进行修改,以使其更好地反映散点的分布特征吗?仔细观察右图,可以发现散点更趋向于落在中间下凸且递减的某条曲线附近.回顾已有的函数知识,可以发现函数y=-lnx的图象具有类似的形状特征注意到100m短跑的第一个世界纪录产生于1896年, 因此可以认为散点是集中在曲线y=f(t)=c1+c2ln(t-1895)的周围,其中c1、c2为未知参数,且c2<0.y=f(t)=c1+c2ln(t-1895)这是一个非线性经验回归函数,如何利用成对数据估计参数c1、c2令x=ln(t-1895),则Y=c2x+c1对数据进行变化可得下表:编号 1 2 3 4 5 6 7 8 年份/t 1896 1912 1921 1930 1936 1956 1960 1968 x 0.00 2.83 3.26 3.56 3.71 4.11 4.17 4.29 记录/s 11.80 10.60 10.40 10.30 10.20 10.10 10.00 9.95将x=ln(t-1895)代入:得 8012653.114264398.0ˆ2+-=x y上图表明,经验回归方程对于成对数据具有非常好的拟合精度.将经验回归直线叠加到散点图,得到下图: 8012653.114264398.0ˆ2+-=x y8012653.11)1895ln(4264398.0ˆ2+--=t y经验回归方程为对于通过创纪录时间预报世界纪录的问题,我们建立了两个回归模型,得到了两个回归方程,你能判断哪个回归方程拟合的精度更好吗?8012653.114264398.0ˆ2+-=x y① 2ˆ0.4264398ln(1895)11.8012653y t =--+② 我们发现,散点图中各散点都非常靠近②的图象, 表明非线性经验回归方程②对于原始数据的拟合效果远远好于经验回归方程①.(1).直接观察法.在同一坐标系中画出成对数据散点图、非线性经验回归方程②的图象(蓝色)以及经验回归方程①的图象(红色).28212811ˆ,ˆQ Q (()0.004)0.669i i i i eu ===≈=≈∑∑8012653.114264398.0ˆ2+-=x y① 2ˆ0.4264398ln(1895)11.8012653yt =--+②(2).残差分析:残差平方和越小,模型拟合效果越好.Q 2明显小于Q 1,说明非线性回归方程的拟合效果 要优于线性回归方程.R 2越大,表示残差平方和越小,即模型的拟合效果越好 R 2越小,表示残差平方和越大,即模型的拟合效果越差. 21212ˆ()11()n i i nii i y y y y R ==-=-=--∑∑残差平方和。
最小二乘法一元线性回归
最小二乘法产生的历史
• 最小二乘法最早称为回归分析法。由著 名的英国生物学家、统计学家道尔顿 (F.Gallton)——达尔文的表弟所创。 • 早年,道尔顿致力于化学和遗传学领域 的研究。 • 他研究父亲们的身高与儿子们的身高之 间的关系时,建立了回归分析法。
14
最小二乘法的地位与作用
• 现在回归分析法已远非道尔顿的本意 • 已经成为探索变量之间关系最重要的方 法,用以找出变量之间关系的具体表现 形式。 • 后来,回归分析法从其方法的数学原 理——误差平方和最小(平方乃二乘也) 出发,改称为最小二乘法。
12
解决问题的思路——可能性
• 寻找变量之间直线关系的方法多多。于是,再接下 来则是从众多方法中,寻找一种优良的方法,运用 方法去求出线性模型——y=a+bx+u中的截距a=?; 直线的斜率b=?正是是本章介绍的最小二乘法。 • 根据该方法所得,即表现变量之间线性关系的直线 有些什么特性? • 所得直线可靠吗?怎样衡量所得直线的可靠性? • 最后才是如何运用所得规律——变量的线性关系?
• Y=f(X1,X2,…,Xk; ū)
2
• 三、随机误差和系统误差 • 1、随机误差:是由随机因素形成的误差。 所 谓随机因素,是指那些对被解释变量的作用不 显著,其作用方向不稳定(时正时负),在重 复试验中,正作用与负作用可以相互抵消的因 素。 • 2、系统误差:由系统因素形成的误差。所谓 系统因素,是指那些对被解释变量的作用较显 著,其作用方向稳定,重复试验也不可能相互 抵消的因素。
2 2 i 相同,即 ,并且随机干扰项彼此不相关,即对于 i≠j,
2 Y1 Y1 , Y2 Y2 , Y1 2 Y2 Var Y ... ... Yn , Y1 Yn , Y2
一元线性回归分析
回归分析(一元)一、实验目的掌握回归分析的步骤及操作。
二、相关理论知识1.回归分析的步骤: 首先,进行相关分析。
具体应先从定性角度分析变量之间有无相关关系;若存在相关关系,在借助散点图,相关系数等方式,进一步确定相关关系的类型及相关程度,为建立回归模型提供依据。
接下来,以相关分析为基础,进行回归分析。
2.流程框架3.一元线性回归模型的基本形式为:i i i X Y μββ++=10 n i ,,2,1 =4.参数估计方法:最小二乘法最小二乘法通过使残差项的平方和最小来估计参数0β和1β。
即∑2i e 最小。
求出0β、1β的估计值为:21)())((i i i i i i X X Y Y X X -∑--∑=∧β,i i X Y 10∧∧-=ββ三、实验内容及要求1、实验内容:(1)散点图、相关系数; (2)参数估计及结果解读; 2、实验要求:掌握相关分析及回归分析的操作及结果解读四、操作指导(一)相关分析 1.散点图绘制利用我国1978年——2001年国内生产总值和最终消费支出的数据。
经济学的理论可以证明,国内生产总值和最终消费支出之间存在关联。
在此基础上,绘制散点图。
第一步,同时选中x ,y 两个序列,点击右键,选择open 级联菜单as group 。
(注意:在选中两个序列时,先选择哪个,打开组后哪个就在前面,作图时默认它就是横轴的变量)第二步,在group窗口,点击view下拉菜单,选择graph——scatter,点确定。
见图1图1表明两者具有很强的线性相关关系。
2.简单相关系数的计算在group窗口选择view下拉菜单中的covariance analysis,将correlation选中,同时将covariance复选框中的√去掉。
然后确定,即可得x和y的简单相关系数矩阵,见图2:图2结果显示x和y之间的简单相关系数为0.999373,两者之间存在高度正线性相关关系。
可建立一元线性回归模型。
一元线性回归模型的参数估计解读
假定1:解释变量X i是确定性变量,不是随机变量
假定2:E(ui ) 0,即随机误差项的均值或期望为零
2 假定3:Var (ui ) ( 2为常数),即各个随机误差
项的方差相同
假定4:Cov(ui , u j ) 0(i j ),即不同的随机误差项 之间是互不相关的
假定5:Cov( X i , ui ) 0,即解释变量和随机误差项 之间也是互不相关的
xi ˆ 1 Y kiYi 2 i xi
1 1 ˆ ˆ 0 Y 1 X Yi kiYi X ( Xki )Yi wY i i n n
ˆ 、 ˆ 的均值(期望)等于总体 2.无偏性,即估计量 0 1 回归参数真值0与1
ˆ k Y k ( X u ) 证: ii i 0 1 i i 1
解释变量是确定性变量不是随机变量常数的方差相同即不同的随机误差项之间是互不相关的即解释变量和随机误差项之间也是互不相关的即每一个随机误差项都服从正态分布以上假定称为线性回归模型的经典假定满足该假定的线性回归模型称为经典线性回归模型
第二节 一元线性回归模型的参数估计
• • • • • • 一元线性回归模型的概念 一元线性回归模型的基本假定 参数的普通最小二乘估计 截距为零的一元线性回归模型的估计 最小二乘估计量的性质 参数估计量的概率分布
Yi
594 638 1122 1155 1408
X i2
X iYi
475200 701800 1570800 1963500 2816000
640000 1210000 1960000 2890000 4000000
6
7 8 9 10 求和
2300
2600 2900 3200 3500 21500
一元线性回归分析与多元线性回归分析比较
多元线性回归分析 t检验
tj
ˆj j t(nk1) Vˆa( r ˆj)
T f t (n2) 2
P值
p
至少一个x j 对因变量
有影响。 P值
p
方程的显著性检验
一元线性回归分析
相关系数 r L xy L xx L yy
拟合优度
TSS=ESS+RSS
t (−0.62)(12.11) t (−5.27)(2.66)(4.88)
R R SE F R20 . 9, S1 . E.2 . 0, F41. 4 76 166 2 0 . 9 ,2 8 0 . 9, 7 . . 9 5 . 8 , 2. 7 6
输出结果的变量关系
Dependent Variable: Y Method: Least Squares Date: 10/25/11 Time: 21:03 Sample: 1 12 Included observations: 12
n k 1
F检验
F
ESS/k RSS/nk 1
输出结果表达式
一元线性回归分析
多元线性回归分析
y x x yˆ t 0.76 20. 940xt43 ˆ 2 . 0 0 5 6 . 41 0 1 . 6 72 4
S.E.(1.22)(0.03)
S.E.(3.80)(2.41)(3.61)
经典假设
ut
xt
uj
xi
参数经济意义
一元线性回归分析
1
反映了x影响y的程度, 包括大小和方向。
多元线性回归分析
1,2,,k
在其他解释变量 xj,i j 保持不变时,解释变量 x i 每变动一个单位对因变 量y均值的影响程度。
一元线性回归模型与多元线性回归模型对比
总离差平方和的分解
TSS=ESS+RSS
, 越接近于1,拟合优度越高。
总离差平方和的分解
TSS=ESS+RSS
,(即总平方和中回归平方和的比例)
对于同一个模型, 越接近于1,拟合优度越高。
(调整的思路是残差平方和RSS和总平方和TSS各自除以它们的自由度)
为什么要对 进行调整?解释变量个数越多,它们对Y所能解释的部分越大(即回归平方和部分越大),残差平方和部分越小, 越高,由增加解释变量引起的 的增大与拟合好坏无关,因此在多元回归模型之间比较拟合优度, 就不是一个合适的指标,必须加以调整。
变量的显著性检验目Fra bibliotek:对模型中被解释变量对每一个解释变量之间的线性关系是否成立作出判断,或者说考察所选择的解释变量对被解释变量是否有显著的线性影响。针对某解释变量 ,
原假设: 备择假设:
最常用的检验方法: t检验
构造统计量:
判断步骤:①计算t统计量的值
②给定显著性水平 ,查t分布的临界值表获得
)
③比较t值与 的值,
(普通最小二乘估计的离差形式)
随机干扰项的方差
最大似然估计(ML)
矩估计(MM)
参数估计值估计结果与OLS方法一致,但随机干扰项的方差的估计量与OLS不同
参数估计值估计结果与OLS方法一致,但随机干扰项的方差的估计量
参数估计量的性质
线性性、无偏性、有效性
线性性、无偏性、有效性
参数估计量的概率分布
---
随机误差项与解释变量不相关。
假设:6:
正态性假设。随机项服从正态分布。
正态性假设。随机项服从正态分布。
参数估计
一元线性回归模型
一元线性回归的最小二乘估计
最小二乘估计是在所有线性无偏估计中方差最小的。
易于计算
最小二乘估计可以通过矩阵运算或者最优化方法快速计算得到。
最小二乘估计的应用范围和局限性
1 广泛应用
最小二乘估计在经济学、统计学、机器学习等领域有着广泛的应用。
2 数据相关性要求
最小二乘估计需要假设自变量和因变量之间存在线性关系,并且数据的相关性较强。
一元线性回归的最小二乘 估计
最小二乘估计(Least Squares Estimation)是一种常用的线性回归参数估计方 法,通过最小化数据与回归直线之间的垂直距离,寻找使模型与数据拟合最 好的参数组合。
最小二乘估计的背景和概念
回归分析起源
最小二乘估计最早由高斯提出,用于解决天文观测中的误差问题。
最小二乘估计可以应用于医疗研 究,分析药物剂量和疗效之间的 关系,指导临床决策。
残差图
残差图用于检验回归模型是否合理, 是否存在模型假设的违背。
最小二乘估计的公式推导
1 回归直线的表达式
2 最优参数估计
3 参数估计的标准误差
最小二乘估计通过最小化残 差平方和来求解回归直线的 斜率和截距。
最小二乘估计的求解可以通 过矩阵运算和最优化方法来 实现。
最小二乘估计可以估计参数 的标准误差,用于判断参数 估计的精确程度。
线性回归模型
线性回归模型假设自变பைடு நூலகம்和因变量之间存在线性关系,是最小二乘估计的基础。
误差项的假设
最小二乘估计假设误差项满足独立同分布的正态分布。
一元线性回归的基本原理和模型
散点图
通过散点图可以直观地观察自变量 和因变量之间的关系。
回归直线
线性回归模型通过一条直线拟合数 据,表示自变量对因变量的影响。
02一元线性回归模型
xi xi2 Yi
o
Wi Yi
1
n
X
xi
xi 2
Yi
证: βˆ1
xi yi xi2
xi (Yi Y ) xi2
xiYi Y xi
xi2
xi2
令ki
xi
xi2
,因xi
(Xi
X)
0 ,故有
使偏导数为零
(
e2 i
)
o
2(Yi
o
1 Xi)
0
(
e2 i
)
1
2(Yi
o
1 Xi) Xi
0
得正规方程
Yi = nβo + β 1 Xi XiYi = β o Xi + β 1 Xi2
解得
1
X iYi nXY
14
800
1000
1200
1400
1600
x
y
Fitted values
OLS估计结果:Yˆi 10.7662 0.0051X i (第2版教材第17页)
(第3版教材第15页)
2.3 最小二乘估计量的统计性质
一、线性性
线性特性是指估计式 β^o 和 β 1^是Yi 的线性函数。
1 Ki Yi
如此以来,高的越来越高,矮的越来越矮。他 百思不得其解,同时又发现某人种的平均身高 是相当稳定的。最后得到结论:儿子们的身高 回复于全体男子的平均身高,即“回归”—— 见1889年F.Gallton的论文《普用回归定律》。
一元线性回归的最小二乘估计
3. 高斯--马尔柯夫定理(Gauss--Markov Theorem)
对于满足统计假设条件(1)--(4)的线性回归模型 Yt = + Xt + ut , ,普通最小二乘估计量 ( OLS估 计量) 是最佳线性无偏估计量(BLUE)。 或 对于古典线性回归模型(CLR模型)Yt=α+β+Xt , 普通最小二乘估计量(OLS估计量)是最佳线性无 偏估计量(BLUE)。
最小二乘法就是选择一条直线,使其残差平方和 ,使得 ˆ和 达到最小值的方法。即选择 α
ˆ )2 S et (Yt Y t
2
ˆX ) 2 ˆ (Yt t
达到最小值。
运用微积分知识,使上式达到最小值的必要条件为:
S S 0 ˆ ˆ
两边取期望值,得:
ˆ )2 E (
1 2 2 [ x E ( i ) xi x j E ( i j )] 2 2 i ( xt ) i j
由于 E( t )=
2
2
, t=1,2,…,n
——根据假设(3) ——根据假设(2)
E( i j )=0, i≠j
ˆ
xy 390 0.39,ˆ Y ˆ * X 22 0.39 * 30 10.3 x 1000
Eviews 创建工作文件,输入数据并进行回归:
Create u 1 5
data x y ls y c x
三、 最小二乘法估计量的性质 ˆ 和 ˆ 的均值 1.
2 1 2 2 2 ˆ E ( ) ( x 0) ∴ 2 2 i 2 ( xt ) x t 2 ˆ) 即 Var ( 2 x t
从统计学看线性回归(1)——一元线性回归
从统计学看线性回归(1)——⼀元线性回归⽬录1. ⼀元线性回归模型的数学形式2. 回归参数β0 , β1的估计3. 最⼩⼆乘估计的性质 线性性 ⽆偏性 最⼩⽅差性⼀、⼀元线性回归模型的数学形式 ⼀元线性回归是描述两个变量之间相关关系的最简单的回归模型。
⾃变量与因变量间的线性关系的数学结构通常⽤式(1)的形式:y = β0 + β1x + ε (1)其中两个变量y与x之间的关系⽤两部分描述。
⼀部分是由于x的变化引起y线性变化的部分,即β0+ β1x,另⼀部分是由其他⼀切随机因素引起的,记为ε。
该式确切的表达了变量x与y之间密切关系,但密切的程度⼜没有到x唯⼀确定y的这种特殊关系。
式(1)称为变量y对x的⼀元线性回归理论模型。
⼀般称y为被解释变量(因变量),x为解释变量(⾃变量),β0和β1是未知参数,成β0为回归常数,β1为回归系数。
ε表⽰其他随机因素的影响。
⼀般假定ε是不可观测的随机误差,它是⼀个随机变量,通常假定ε满⾜:(2)对式(1)两边求期望,得E(y) = β0 + β1x, (3)称式(3)为回归⽅程。
E(ε) = 0 可以理解为ε对 y 的总体影响期望为 0,也就是说在给定 x 下,由x确定的线性部分β0 + β1x 已经确定,现在只有ε对 y 产⽣影响,在 x = x0,ε = 0即除x以外其他⼀切因素对 y 的影响为0时,设 y = y0,经过多次采样,y 的值在 y0 上下波动(因为采样中ε不恒等于0),若 E(ε) = 0 则说明综合多次采样的结果,ε对 y 的综合影响为0,则可以很好的分析 x 对 y 的影响(因为其他⼀切因素的综合影响为0,但要保证样本量不能太少);若 E(ε) = c ≠ 0,即ε对 y 的综合影响是⼀个不为0的常数,则E(y) = β0 + β1x + E(ε),那么 E(ε) 这个常数可以直接被β0 捕获,从⽽变为公式(3);若 E(ε) = 变量,则说明ε在不同的 x 下对 y 的影响不同,那么说明存在其他变量也对 y 有显著作⽤。
一元线性回归模型的参数估计
(2.2.4) (2.2.5)
或
ˆ ˆ ΣYi = nβ 0 + β1ΣX i 2 ˆ ˆ ΣYi X i = β 0 ΣX i + β1ΣX i
但是,随机误差项的方差的估计量是不同的。 是不同的
解或然方程
∂ * n 1 ˆ ˆ L =− 2 + Σ(Yi − β 0 − β 1 X i ) 2 = 0 2 4 ∂σ µ 2σ µ 2σ µ
2 σ µ 的最大或然估计量为: 即可得到
1 ˆ ˆ ˆ2 σ µ = Σ(Yi − β 0 − β 1 X i ) 2 = n
于是, Yi 的概率函数为
P (Yi ) = 1
− 1 2σ µ
2
ˆ ˆ (Yi − β 0 − β1 X i ) 2
σ 2π
e
i=1,2,…,n
因为 Yi 是相互独立的, 所以 Y 的所有样本观测值的联合概率, 也即或然函数 或然函数(likelihood function)为: 或然函数
ˆ ˆ 2 L( β 0 , β1 ,σ µ ) = P(Y1 , Y2 ,⋅ ⋅ ⋅, Yn )
解得模型的参数估计量为:
ˆ ΣX i2 ΣYi − ΣX i ΣYi X i β 0 = nΣX i2 − (ΣX i ) 2 ˆ β 1 = nΣYi X i − ΣYi ΣX i nΣYi 2 − (ΣX i ) 2
可见,在满足一系列基本假设的情况下, 可见,在满足一系列基本假设的情况下,模型结构参 数的 最大或然估计量 与 普通最小二乘估计量 是相同 的。
2.2 一元线性回归模型的最小二乘估计
511 382950 562500 260712
1018 1068480 1102500 1035510
963 1299510 1822500 926599
5769300 7425000 4590020
640000 352836 1210000 407044 1960000 1258884 2890000 1334025 4000000 1982464 5290000 2544025 6760000 3876961 8410000 4318084 10240000 6682225 12250000 6400900 53650000 29157448
2无偏性即估计量的均值期望等于总体回归参数真值3有效性最小方差性即在所有线性无偏估计量中最小二乘估计量2证明最小方差性假设为不全为零的常数则容易证明具有最的小方差普通最小二乘估计量ordinaryleastsquaresestimators称为最佳线性无偏估计量bestlinearunbiasedestimatorblue
易知 故
ki
xi 0 xi2
ˆ1 1 ki i
ki Xi 1
E(ˆ1 ) E(1 ki i ) 1 ki E(i ) 1
同样地,容易得出
E(ˆ0 ) E(0 wi i ) E(0 ) wi E(i ) 0
二、参数的普通最小二乘估计(OLS)
给定一组样本观测值(Xi, Yi)(i=1,2,…n)要 求样本回归函数尽可能好地拟合这组值.
普通最小二乘法(Ordinary least squares, OLS) 给出的判断标准是:二者之差的平方和
n
n
Q (Yi Yˆi )2 (Yi (ˆ0 ˆ1 X i )) 2
8.2.2一元线性回归模型的最小二乘估计课件(人教版)
ෝ=x,则
通过经验回归方程
x=179.733,即当父亲身高为179.733cm时,儿子的平均身
高与父亲的身高一样.
对于响应变量Y , 通过视察得到的数据称为观测值 , 通
ෝ为预测值. 视察值减去预测值称为
过经验回归方程得到的
残差.
残差是随机误差的估计结果,通过对残差的分析可判
叫做b,a的最小二乘估计.
求得的,ෝ
ഥ); 与相关系数
易得: 经验回归直线必过样本中心(ഥ
,
r符号相同.
对于上表中的数据,利
用我们学过的公式可以计算出
=0.839
,ෝ
=28.957,求出儿
子身高Y关于父亲身高x的经验
回归方程为
ŷ 0.839 x 28.957
相应的经验回归直线如图所示.
n i =1
n i =1
n
n
Q(a,b ) = ( yi - bxi - a ) = [ yi - bxi - ( y - bx ) + ( y - bx ) - a ]
2
i =1
n
2
i =1
= [( yi y ) b( xi - x ) + ( y - bx ) - a ]
2
i =1
i =1
综上,当a)( y y )
i
i
i =1
.
n
( x - x)
2
i
i =1
ˆ
ˆ
a
=
y
bx
时, Q到达最小.
ˆ aˆ 称为Y 关于x 的经验回归方程,也称
计量经济学【一元线性回归模型——参数估计】
ˆ0计量ˆ1 和
可以分别表示为被解释变量观测Y值i
的线
性组合(线性函数);
ˆ证1 明
如( X下i : X )(Yi (Xi X )2
Y
)
(Xi X) (Xi X )2
(Yi
Y
)
ki (Yi Y )
其中ki :
(Xi X) (Xi X )2
ki
对ki于引0 进的 ki (X容i 易X证) 明有k如i X下i 的1 特性k:i2
2
,
,
,
,
,
,
,
,
i
1,
2,
n
假设3:随机误差项在不同样本点之间是独立的,不
存
Cov(i , j ) 0,,,,,,,i j,,,,i, j 1, 2, n
在序列相关,即:
一、一元线性回归模型的基本假设
假设 4:随机误差项与解释变量之间不相关, 即:
Cov( Xi , i ) 0,,,,,,,,,,,i 1, 2, n
:待估
E(Y
总样体本回回归归函函数数形形式式::Yˆi
| Xi)
ˆ0
0 ˆ1X i
1X i
其 计
中 估
方
ˆ0 , ˆ1 法ˆ0,, ˆ1求
是ˆ00,,ˆ11 出
的估计值,我们需要找到一种参数 , 并0 ,且1 这 种 参 数 估 计 方 法 保 证 了 估
计值 数
与总体真值
尽可能地接近;这种参
i
根据微 小,
积
分中
ˆ0 , ˆ1
求
极
值
的
原
理
,
要
使 i
ei2
待定系数
一元线性回归模型参数的最小二乘估计 (教学设计)高二数学(人教A版2019选择性必修第三册)
8.2.2 一元线性回归模型参数的最小二乘估计(第2课时)教学设计一、课时教学内容本节的主要内容是一元线性回归模型,它是线性回归分析的核心内容,也是后续研究两变量间的相关性有关问题的基础.通过散点图直观探究分析得出的直线拟合方式不同,拟合的效果就不同,它们与实际观测值均有一定的偏差.在经历用不同估算方法描述两个变量线性相关关系的过程中,解决用数学方法刻画从整体上看各观测点到拟合直线的距离最小的问题,让学生在此基础上了解更为科学的数据处理方式——最小二乘法,有助于他们更好地理解核心概念“经验回归直线”,并最终体现回归方法的应用价值.二、课时教学目标1.进一步掌握一元线性回归模型参数的统计意义,会用相关统计软件.2.了解非线性回归模型.3.会通过分析残差和利用R2判断回归模型的拟合效果.三、教学重点、难点1.重点:一元线性回归模型的基本思想,经验回归方程,最小二乘法.2.难点:求最小二乘估计,残差分析.四、教学过程设计环节一创设情境,引入课题例经验表明,一般树的胸径(树的主干在地面以上1.3m处的直径)越大,树就越高由于测量树高比测量胸径困难,因此研究人员希望由胸径预测树高,在研究树高与胸径之间的关系时,某林场收集了某种树的一些数据(表8.2-3),试根据这些数据建立树高关于胸径的经验回归方程.表8.2-3出散点,进而得到散点图,再根据散点图推断树高与胸径是否线性相关.如果是,再利用公式(2)计算出b ,a 即可.解:以胸径为横坐标、树高为纵坐标作散点图,得到图8.2-9.在图8.2-9中,散点大致分布在一条从左下角到右上角的直线附近,表明两个变量线性相关,并且是正相关,因此可以用一元线性回归模型刻画树高与胸径之间的关系.用d 表示胸径,h 表示树高,根据最小二乘法,计算可得经验回归方程为0.249314.84h d =+,相应的经验回归直线如图8.2-10所示,根据经验回归方程,由表8.2-3中胸径的数据可以计算出树高的预测值(精确到0.1)以及相应的残差,如表8.2-4所示/cm/cm表8.2-4以胸径为横坐标,残差为纵坐标,作残差图,得到图8.2-11.观察残差表和残差图,可以看到,残差的绝对值最大是0.8,所有残差分布在以横轴为对称轴、宽度小于2的带状区域内.可见经验回归方程较好地刻画了树高与胸径的关系,我们可以根据经验回归方程由胸径预测树高.【师生互动】教师让学生总结建立线性回归模型的一般步骤.建立线性回归模型的基本步骤:(1)确定研究对象,明确哪个变量是解释变量,哪个变量是响应变量.(2)画出解释变量与响应变量的散点图,观察它们之间的关系(如是否存在线性关系等).(3)由经验确定回归方程的类型.(4)按一定规则(如最小二乘法)估计经验回归方程中的参数.(5)得出结果后需进行线性回归分析. ①残差平方和越小,模型的拟合效果越好.②决定系数R 2取值越大,说明模型的拟合效果越好.需要注意的是:若题中给出了检验回归方程是否理想的条件,则根据题意进行分析检验即可. 环节二 观察分析,感知概念问题 人们常将男子短跑100 m 的高水平运动员称为“百米飞人”.表8.2-5给出了1968年之前男子短跑100 m 世界纪录产生的年份和世界纪录的数据,试依据这些成对数据,建立男子短跑100 m 世界纪录关于纪录产生年份的经验回归方程.表8.2-5【师生活动】师:以成对数据中的世界纪录产生年份为横坐标,世界纪录为纵坐标作散点图如下图所示.由散点图可以看出,散点看上去大致分布在一条直线附近,似乎可用一元线性回归模型建立经验回归方程.现在用丫表示男子短跑100m 的世界纪录,f 表示纪录产生的年份,你能利用一元线性回归模型求经验回归方程吗?在图8.2-12中,散点看上去大致分布在一条直线附近,似乎可用一元线性回归模型建立经验回归方程.用Y 表示男子短跑100 m 的世界纪录,t 表示纪录产生的年份,利用一元线性回归模型2,()0,()Y bt a e E e D e σ=++⎧⎨==⎩ 来刻画世界纪录和世界纪录产生年份之间的关系.根据最小二乘法,由表中的数据得到经验回归方程为1ˆ0.020*******.76913031yt =-+.① 将经验回归直线叠加到散点图,得到图8.2-13师:在散点图中画出经验回归直线,你能看出其中存在的问题吗? 生:得到下图:环节三 抽象概括,形成概念布特征,例如,第一个世界纪录所对应的散点远离经验回归直线,并且前后两时间段中的散点都在经验回归直线的上方,中间时间段的散点都在经验回归直线的下方,这说明散点并不是随机分布在经验回归直线的周围,而是围绕着经验回归直线有一定的变化规律,即成对样本数据呈现出明显的非线性相关的特征思考:你能对模型进行修改,以使其更好地反映散点的分布特征吗?仔细观察图8.2-12,可以发现散点更趋向于落在中间下凸且递减的某条曲线附近.回顾已有的函数知识,可以发现函数ln y x =-的图象具有类似的形状特征.注意到100 m 短跑的第一个世界纪录产生于1896年,因此可以认为散点是集中在曲线12()ln(1895)y f t c c t ==+-的周围,其中1c ,2c 为未知的参数,且20c <.【设计意图】目的是使学生明白,不是所有的两个变量的关系都适合用一元线性回归模型刻画.师:这说明散点并不是随机分布在经验回归直线的周围,而是围绕着经验回归直线有一定的变化规律,即成对样本数据呈现出明显的非线性相关的特征.师:你能对模型进行修改,以使其更好地反映散点的分布特征吗?生:仔细观察散点图,可以发现散点更趋向于落在中间下凸且递减的某条曲线附近.回顾已有的函数知识,可以发现函数ln y x =-的图象具有类似的形状特征.【设计意图】提醒学生需熟悉常见非线性函数模型的特点.用上述函数刻画数据变化的趋势,这是一个非线性经验回归函数,其中1c ,2c 是待定参数.现在问题转化为如何利用成对数据估计参数1c 和2c .为了利用一元线性回归模型估计参数1c 和2c ,我们引进一个中间变量x ,令ln(1895)x t =-.通过ln(1895)x t =-,将年份变量数据进行变换,得到新的成对数据(精确到0.01),如表8.2-6所示.表8.2-6型和新的成对数据,对参数1c 和2c 作出估计,进而可以得到Y 关于t 的非线性经验回归方程. 在直角坐标系中画出表8.2-6中成对数据的散点图,如图8.2-14所示,散点的分布呈现出很强的线性相关特征.因此,用一元线性回归模型212()0,()Y c x c uE u D u δ=++⎧⎨==⎩拟合表8.2-6中的成对数据,得到经验回归方程2ˆ0.426439811.8012653yx =-+,(*) 再在图8.2-14中画出(*)式所对应的经验回归直线,得到图8.2-15.(1).直接观察法.在同一坐标系中画出成对数据散点图、非线性经验回归方程②的图象(蓝色)以及经验回归方程①的图象(红色).图8.2-15表明,经验回归方程(*)对于表8.2-6中的成对数据具有非常好的拟合精度.将图8.2-15习图8.2-13进行对比,可以发现x 和Y 之间的线性相关程度比原始样本数据的线性相关程度强得多.将ln(1895)x t =-代入(*)式,得到由创纪录年份预报世界纪录的经验回归方程2ˆ0.4264398ln(1895)11.8012653yt =--+ ② 在同一坐标系中画出成对数据散点图、非线性经验回归方程②的图象(蓝色)以及经验回归方程①的图象(红色),表明非线性经验回归方程②对于原始数据的拟合效果远远好于经验回归方程①.【师生活动】师:对于通过创纪录时间预报世界纪录的问题,我们建立了两个回归模型,得到了两个经验回归方程①②,你能判断哪个经验回归方程拟合的精度更好吗?生:散点图中各散点都非常靠近②的图象,表明非线性经验回归方程②对于原始数据的拟合效果远远好于经验回归方程①.【设计意图】分析两个模型的拟合效果,由比较不同回归模型拟合效果的需要,引出评价模型好坏的指标.环节四 辨析理解 深化概念下面通过残差来比较这两个经验回归方程对数据刻画的好坏.在表8.2-5中,用i t 表示编号为i 的年份数据,用i y 表示编号为i 的纪录数据,则经验回归方程①和②的残差计算公式分别为ˆˆ0.020*******.76913031,1,2,,8;0.4264398ln(1895)11.8012653,1,2,,8.i i i i i i ey t i y t i u=+-==+--=图8.2-15(2).残差分析:残差平方和越小,模型拟合效果越好.两个经验回归方程的残差(精确到0.001)如表8.2-7所示.观察各项残差的绝对值,发现经验回归方程②远远小于①,即经验回归方程②的合效果要远远好于①.表8.2-5的绝对值比另一个模型的小,而另一些散点的情况则相反.可以通过比较残差的平方和来比较两个模型的效果.由82110.)669(i i Q e ==≈∑,8221()ˆ0.004i i Q u==≈∑. 可知2Q 小于1Q .因此在残差平方和最小的标准下,非线性回归模型212ln(1895)()0,()Y c t c uE u D u δ=-++⎧⎨==⎩ 的拟合效果要优于一元线性回归模型 的拟合效果.(3).利用决定系数2R 刻画回归效果.也可以用决定系数2R 来比较两个模型的拟合效果,2R 的计算公式为22121()()ˆ1niii nii y yR y y ==-=--∑∑在2R 表达式中,21()n i i y y =-∑与经验回归方程无关,残差平方和21()ˆni i i y y=-∑与经验回归方程有关.因此2R 越大,表示残差平方和越小,即模型的拟合效果越好;2R 越小,表示残差平方和越大,即模型的拟合效果越差.由表8.2-7容易算出经验回归方程①和②的2R 分别约为0.7325和0.9983,因此经验回归方程②的刻画效果比经验回归方程①的好很多.(4) 用新的观测数据来检验模型的拟合效果另外,我们还可以用新的观测数据来检验模型的拟合效果.事实上,我们还有1968年之后的男子短跑100 m 世界记录数据,如表8.2-8所示.表8.2-8回归直线(红色),以及经验回归方程②所对应的经验回归曲线(蓝色),得到图8.2-17显然绿色散点分布在蓝色经验回归曲线的附近,远离红色经验回归直线,表明经验回归方程②对于新数据的预报效果远远好于①.环节五 概念应用,巩固内化思考:在上述问题情境中,男子短跑100 m 世界纪录和纪录创建年份之间呈现出对数关系,能借助于样本相关系数刻画这种关系的强弱吗? 在使用经验回归方程进行预测时,需要注意下列问题:(1)经验回归方程只适用于所研究的样本的总体.例如,根据我国父亲身高与儿子身高的数据建立的经验回归方程,不能用来描述美国父亲身高与儿子身高之间的关系.同样,根据生长在南方多雨地区的树高与胸径的数据建立的经验回归方程,不能用来描述北方干旱地区的树高与胸径之间的关系.(2)经验回归方程一般都有时效性.例如,根据20世纪80年代的父亲身高与儿子身高的数据建立的经验回归方程,不能用来描述现在的父亲身高与儿子身高之间的关系.(3)解释变量的取值不能离样本数据的范围太远.一般解释变量的取值在样本数据范围内,经验回归方程的预报效果会比较好,超出这个范围越远,预报的效果越差.(4)不能期望经验回归方程得到的预报值就是响应变量的精确值.事实上,它是响应变量的可能取值的平均值.师生互动:学生总结建立非线性回归模型的基本步骤.教师及时补充完善.建立非线性经验回归模型的基本步骤:1.确定研究对象,明确哪个是解释变量,哪个是响应变量;2.由经验确定非线性经验回归方程的模型;3.通过变换,将非线性经验回归模型转化为线性经验回归模型;4.按照公式计算经验回归方程中的参数,得到经验回归方程;5.消去新元,得到非线性经验回归方程;6.得出结果后分析残差图是否有异常.判断模型的拟合效果的依据如下:①残差平方和越小,模型的拟合效果越好.②决定系数斤取值越大,说明模型的拟合效果越好.需要注意的是:若题中给出了检验回归方程是否理想的条件,则根据题意进行分析检验即可.【设计意图】探索非线性回归分析问题的求解方法,培养学生的数学应用意识.环节六归纳总结,反思提升1.本节课学习的概念有哪些?(1)非线性回归模型.(2)决定系数.2.比较两个模型拟合效果的方法:(1)残差法,残差越大,拟合效果越差;残差越小,拟合效果越小.(2)R2法,R2越接近1,拟合效果越好,R2越接近0,拟合效果越差.3.对于线性回归模型与非线性回归模型,当数据的散点图分布在直线带状区域内,则选用线性回归模型刻画;当数据的散点分布在曲线带状区域内,要先对数据进行适当变换,再利用线性回归模型进行拟合.4. 在解决问题时,用到了哪些数学思想?转化与化归思想.【设计意图】通过总结,让学生进一步巩固本节所学内容,提高概括能力。
第3章一元线性回归模型的估计
3.1普通最小二乘法
图3-4 工作文件对话框
图3-5 工作文件窗口
3.1普通最小二乘法
工作文件窗口是EViews的子窗口,工作文件一建立就包含了两个对象,一 个是系数向量C(用来保存估计系数),另一个是残差序列RESID(实际值与 拟合值之差)。 3.建立工作对象
在工作文件窗口上选择Objects/New Object,弹出一个对象窗口,选择组 (Group)对象并命名,点击“OK”,如图3-6所示。
(Yi ˆ0 ˆ1Xi )Xi ei Xi 0
(3-10)
对式(3-9)、(3-10)进行整理得:
3.1普通最小二乘法
Yi nˆ0 ˆ1 X i (3-11)
Yi Xi ˆ0
X i ˆ1
X
2 i
(3-12)
式(3-11)和(3-12)称为正规方程,其中n是样本容量 。由这两个正规方程
式(3-15)和式(3-16)称为最小二乘估计量的离差形式。
对于最小二乘估计量(OLS估计量)ˆ0 、ˆ1 ,我们要做如下一些解释:
第一, OLS估计量 ˆ0 和 ˆ1 是由给定的样本观测值计算得到的。
第二, OLS估计量ˆ0和ˆ1 是总体参数 0 和 1 的点估计值。对于不同的样本
用最小二乘法可以计算得到不同的值,所以 ˆ0和 ˆ1 是统计量,是随机变量。
1 2 3 4 5 6 7 8 9 10 合计 平均
4000 4500 5000 5500 6000 6500 7000 7500 8000 8500 62500 6250
2687 3048 3374 3651 3772 4400 4797 4917 5526 5523 41695 4169.5
-2250 -1750 -1250 -750 -250
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
= (
1 xt2 )2
( x1 1
x22
xnn )2
两边取期望值,得:
1
= (
xt2 )2 (
xi2i2 xi x j i j )
i j
E(ˆ )2 1 [ ( xt2 )2
xi2E(i2 ) xi x j E(i j )]
i j
由于
E(
2 t
)=
2
,
t=1,2,…,n
——根据假设(3)
4. ˆ和 ˆ的分布
我们在前面列出的假设条件(5)表明, ut ~ N( 0, 2 ) , t= 1, 2, ...,n
即各期扰动项服从均值为0、方差为2的正态分布。 考虑到假设条件(4),即Xt为非随机量,则由前面结果:
ˆ
xt t
xt2
=
kt t
其中,
kt
xt xt2
这表明,ˆ 是N个正态分布变量u1,u2,…,un的线 性函数,因而亦为正态分布变量,,即
ˆ xtYt xt2
——由上段结果,
= ktYt
其中 kt
xt xt2
这 故表ˆ是明线,性ˆ 估是计诸量样。本观测值Yt(t=1,2,…,n)的线性函数, 剩下的就是最佳性了,即 ˆ 的方差小于等于β的其他
任何线性无偏估计量的方差,我们可以证明这一点,但 由于时间关系,从略。有兴趣的同学请参见教科书 (P46-47)
第二部分,et 代表观测点对于回归线的误差,称 为拟合或预测的残差 (residuals):
et Yt Yˆt
t=1,2,……,nLeabharlann 即 et Yt ˆ ˆ Xt
t=1,2,……,n
如何决定估计值 和 ?
残差平方和
我们的目标是使拟合出来的直线在某种
意义上是最佳的,直观地看,也就是要求估
计直线尽可能地靠近各观测点,这意味着应
3 例子
例1 对于第一段中的消费函数,若根据数据 得到:
n = 10 , X =23, Y =20
(X X)2 64, (X X)(Y Y) 37
则有ˆ
( X i X )(Yi (Xi X )2
Y)
37 64
0.58
ˆ Y ˆ X 20 0.58 * 23 6.70
因而 Yˆi 6.70 0.58X i
0.39,ˆ
Y
ˆ
*
X
22 0.39*30
10.3
Eviews 创建工作文件,输入数据并进行回归: Create u 1 5 data x y ls y c x
三、 最小二乘法估计量的性质
1. ˆ 和ˆ 的均值
ˆ
xt yt
xt (Yt Y )
xt Yt
Y
xt
xt2
xt2
x
ˆ ∽ N ( , 2 )
xt2
类似的有:
ˆ 2 ∽ N (, n
X xt2
2 t
)
10
-8
-20
160 400
20
-4
-10
40 100
3 23 30
1
0
0
0
4 25 40
3
10
30 100
5 30 50
8
20
160 400
n=5 110 150
0
0
390 1000
Y X y x xy x2
X X t 150 30,Y Yt 110 22
n5
n5
ˆ
xy x2
390 1000
对于满足统计假设条件(1)--(4)的线性回归模型 Yt = + Xt + ut , ,普通最小二乘估计量 ( OLS估 计量) 是最佳线性无偏估计量(BLUE)。 或
对于古典线性回归模型(CLR模型)Yt=α+β+Xt , 普通最小二乘估计量(OLS估计量)是最佳线性无 偏估计量(BLUE)。
我们已在前面证明了无偏性,此外,由于:
Y
* * Y X
Yt
* **
Yˆt
et * *
*
*
**
* * * Yˆ*t
*Y
Yt
*
Xt
X
图2
残差
拟合的直线 Y X 称为拟合的回归线.
对于任何数据点 (Xt, Yt), 此直线将Yt 的总值 分 成两部分。 第一部分是Yt的拟合值或预测值 Yˆt :
Yˆt αˆ βˆ Xt , t=1,2,……,n
= X X
即ˆ
=α 是α的无偏估计量。
2. ˆ 和ˆ 的方差
Var( ˆ )=E{[ˆ -E(ˆ )]2} ——根据定义
=E(ˆ -β)2
——由无偏性 E(βˆ )=β
由上段结果: ˆ
xt t
xt2
即
ˆ xt t
x
2 t
∴ (ˆ )2 ( xt t )2 xt2
使各残差尽可能地小。要做到这一点,就必
须用某种方法将每个点相应的残差加在一起,
使其达到最小。理想的测度是残差平方和,
即
et 2 (Yt Yˆt )2
最小二乘法就是选择一条直线,使其残差平方和
达到最小值的方法。即选择 αˆ 和 ,使得
S et 2 (Yt Yˆt )2 (Yt ˆ ˆX t )2
达到最小值。
运用微积分知识,使上式达到最小值的必要条件为:
S ˆ
S ˆ
0
即
S
ˆ
2(1)(Yt ˆ ˆX t ) 0
(1)
S
ˆ
2( X t )(Yt ˆ ˆX t ) 0
(2)
整理,得:
Yt nˆ ˆ X t
(3)
XtYt ˆ
X t ˆ
X
2
.t
(4)
此二式称为正规方程。解此二方程,得:
E(i j )=0, i≠j
——根据假设(2)
∴ E(ˆ )2 (
1 xt2 )2 (
xi2 2 0)
2
xt2
即Var(ˆ) 2
xt2
与此类似,可得出:
2
Var(ˆ)
n
X
2 t
xt2
Cov(ˆ, ˆ)
X 2
xt2
3. 高斯--马尔柯夫定理(Gauss--Markov Theorem)
一元线性回归的最小二乘估计
我们的任务是, 在给定X和Y的一组观测值 (X1, Y1), (X2, Y2) , ..., (Xn, Yn) 的情况下, 如 何求出 Yt = + Xt + ut 中 和 的估计值,使得拟 合的直线为最佳。
直观上看,也就是要求在X和Y的散点图上穿过 各观测点画出一条“最佳”直线,如下图所示。
ˆ (X t X )(Yt Y ) n X tYt X t Yt xt yt (5)
(Xt X)2
n X t 2 ( X t )2
xt 2
ˆ Y ˆ X
(6)
其中:Y Yt , X X t
n
n
xt X t X ,
yt Yt Y
样本均值 离差
(5)式和(6)式给出了OLS法计算αˆ 和 的 公式,αˆ 和 称为线性回归模型 Yt = + Xt + ut
的参数 和 的普通最小二乘估计量 (OLS estimators)。
这两个公式可用于任意一组观测值数据,以求出 截距和斜率的OLS估计值(estimates),估计值是 从一组具体观测值用公式计算出的数值。
一般说来,好的估计量所产生的估计值将相当 接近参数的真值,即好的估计值。可以证明,对 于CLR模型,普通最小二乘估计量正是这样一个 好估计量。
例2 设Y和X的5期观测值如下表所示,试估计方程
Yt = + Xt + ut
序号
1
2
3
4
5
Yt 14 18 23 25 30
Xt 10 20 30 40 50
解:我们采用列表法计算。计算过程如下:
31
序号 Yt 表 1 14 - 2 18
Xt yt= Yt -Y xt=Xt-X xt yt xt2
xt t )
1 ( xt2
xt2
xt t )
即 ˆ
xt t
x
2 t
两边取期望值,有
E(ˆ)
xt E(t )
xt2
=
这表明ˆ是的无偏估计量。
假设(4) --假设(1)
由ˆ Y ˆ X 我们有:
E(ˆ) E(Y ˆ X )
= E( X ˆ X ) = X E() X E(ˆ)
2 t
xt2
∵ xt ( X t X ) X t X n X n X 0
∴ ˆ
xtYt xt2
xt ( X t t )
xt2
=
1 (
xt2
xt
xt X t
xt t )
=
1 (
xt2
xt X t
xt t )
1 xt2
(
xt2 X
xt