数学建模-一元线性回归方程的计算

合集下载

一元线性回归分析

一元线性回归分析

(ˆ0 t (n 2) Sˆ0 )
2
1的置信水平为1-区间估计为
(ˆ1 t (n 2) Sˆ1 )
2
回归分析的Excel实现
“工具”->“数据分析”->“回归”
ˆ0
S ˆ0
ˆ1
S ˆ1
(ˆ0 t (n 2) Sˆ0 )
2
(ˆ1 t (n 2) Sˆ1 )

0
n

2 t1 Xt (Yt ˆ0 ˆ1 Xt ) 0


nˆ0

n
ˆ1
t 1
Xt
n
Yt
t 1
n
n
n


ˆ0
t 1
Xt
ˆ1
t 1
X
2 t

t 1
X tYt
n
n
n
n
n XtYt Xt Yt
( X t X )(Yt Y )
Yˆt ˆ0 ˆ1 Xt
残差平方和:
n
n
n
Q et2 (Yt Yˆt )2 (Yt ˆ0 ˆ1Xt )2
t 1
t 1
t 1
Q

ˆ0
Q
ˆ1

0 0

2
n t 1
(Yt

ˆ0

ˆ1 X t
)
907717
Xt×Yt 440 720 720 1312 8170 2112 2100 2832
11154 6678 2739 4496 2240 1323 1890 600
49526

一元线性回归方程

一元线性回归方程

Upper 95% 238.4541 -118.508
第二十六页,编辑于星期六:十三点 五十五分。
Y
140 120 100
80 60 40 20
0 0
X Variable 1 Line Fit Plot
0.2
0.4
0.6
0.8
1
X Variable 1
Y 预测 Y
1.2
第二十七页,编辑于星期六:十三点 五十五分。
i 1
y )2
第八页,编辑于星期六:十三点 五十五分。
散点图
以(xi ,yi)为坐标在平面直角坐标系中描 点,所得到的这张图便称之为散点图.
第九页,编辑于星期六:十三点 五十五分。
北京市城市居民家庭生活抽样调查表1
Y:人均收入
14 12 10 8 6 4 2 0
1976
1978
1980 1982 1984
第二节
一元线性回归方程
第一页,编辑于星期六:十三点 五十五分。
一 回归直线方程
两个变量之间的线性关系,其回归模型为:
yi a bxi i
y称为因变量,x称为自变量, 称为随
机扰动,a,b称为待估计的回归参数, 下标i表示第i个观测值。
第二页,编辑于星期六:十三点 五十五分。
对于回归模型,我们假设:
4.代入样本信息,F落入否定域则否定原假设,
线性关系显著;落入接受域则接受原假设,
线性关系不显著.
第二十一页,编辑于星期六:十三点 五十五分。
相关系数检验法:
1.提出原假设:H0:b=0;
2.选择统计量 R lxy lxxl yy
3.对给定的显著性水平α,查临界值rα (n-2),

第二讲 一元线性回归模型

第二讲 一元线性回归模型

E(i Xi ) 0, i 1,2,, n
• (2)同方差假设。 Var( X ) 2 , i 1, 2,, n i i • (3)序列不相关假设。
Cov(i , j ) 0, i, j 1, 2,, n, i j

(4)正态性假设。 一般假设随机项服从正态分布。
3、可决系数R2统计量
ESS RSS R 1 TSS TSS
2
• 是一个非负的统计量。取值范围:[0,1] • 越接近1,说明实际观测点离回归线越近, 拟合优度越高。
• 拟合优度越高,说明回归结果越好。
二、变量的显著性检验
T检验(检验单个回归系数是否显著不为零)
二、变量的显著性检验:T检验(检验 单个变量的回归系数是否显著不为零)
ˆ ˆ yt 0 1xt et MinQ (Y Y ) 2 e2 ˆ i i i
n n
ˆ ˆ ˆ yt 0 1xt
1
1
ˆ X )) 2 (Yi ( 0 ˆ1 i
1
n
2、正规方程组
Q 0 0 Q 1 0
第二章 经典单方程计量经济学模型: 一元线性回归模型 The Classical Single Equation Econometric Model: Simple Regression Model
本章内容
• §2.1一元线性回归模型的设定与古典假

• §2.2一元线性回归模型的参数估计 • §2.3一元线性回归模型的检验 • §2.4一元线性回归模型的预测
二、经典线性回归模型的基本假设 The Basic Assumptions of Classical Linear Regression Model(CLRM)

一元线性回归方程

一元线性回归方程
- 6
750
200
120 136 140 144 145
- - 5
685
220
135 137 140 152 157 160 162
7 104
3
240
137 145 155 165 175 189
- 6
966
260
150 152 175 178 180 185 191
5 121
1
描出散点图发现:随着收入的增加,消费“平均地说”也在增加,且Y 的条件均值均落在一根正斜率的直线上。这条直线称为总体回归线。
第一章 一元线性回归模型
以下设 x 为自变量(普通变量) Y 为因变量(随机变 量) .现给定 x 的 n 个值 x1,…, xn, 观察 Y 得到相应的 n 个 值 y1,…,yn, (xi ,yi) i=1,2,…, n 称为样本点.
以 (xi ,yi) 为坐标在平面直角坐标系中描点,所得到 的这张图便称之为散点图.
把它们看作是Q的函数,就变成了一个求极值的问题,可以通过求
导数得到。 求Q对 两个待估参数 的偏导数:
正规方程组
Q
ˆ 0
n
= 2 (Yi ˆ0 ˆ1X i )(1)
i 1
=0

Q
ˆ1
=
n
2 (Yi ˆ0 ˆ1X i )( X i ) = 0 i 1
Lxx
t

/
2
(n

2)


同理,可,并求得 0 的置信区间为:
ˆ0 ˆ

1 n

X2 Lxx
t

/ 2 (n

2), ˆ0
ˆ

一元线性回归分析

一元线性回归分析

一元线性回归分析摘要:一元线性回归分析是一种常用的预测和建模技术,广泛应用于各个领域,如经济学、统计学、金融学等。

本文将详细介绍一元线性回归分析的基本概念、模型建立、参数估计和模型检验等方面内容,并通过一个具体的案例来说明如何应用一元线性回归分析进行数据分析和预测。

1. 引言1.1 背景一元线性回归分析是通过建立一个线性模型,来描述自变量和因变量之间的关系。

通过分析模型的拟合程度和参数估计值,我们可以了解自变量对因变量的影响,并进行预测和决策。

1.2 目的本文的目的是介绍一元线性回归分析的基本原理、建模过程和应用方法,帮助读者了解和应用这一常用的数据分析技术。

2. 一元线性回归模型2.1 模型表达式一元线性回归模型的基本形式为:Y = β0 + β1X + ε其中,Y是因变量,X是自变量,β0和β1是回归系数,ε是误差项。

2.2 模型假设一元线性回归模型的基本假设包括:- 线性关系假设:自变量X与因变量Y之间存在线性关系。

- 独立性假设:每个观测值之间相互独立。

- 正态性假设:误差项ε服从正态分布。

- 同方差性假设:每个自变量取值下的误差项具有相同的方差。

3. 一元线性回归分析步骤3.1 数据收集和整理在进行一元线性回归分析之前,需要收集相关的自变量和因变量数据,并对数据进行整理和清洗,以保证数据的准确性和可用性。

3.2 模型建立通过将数据代入一元线性回归模型的表达式,可以得到回归方程的具体形式。

根据实际需求和数据特点,选择适当的变量和函数形式,建立最优的回归模型。

3.3 参数估计利用最小二乘法或最大似然法等统计方法,估计回归模型中的参数。

通过最小化观测值与回归模型预测值之间的差异,找到最优的参数估计值。

3.4 模型检验通过对回归模型的拟合程度进行检验,评估模型的准确性和可靠性。

常用的检验方法包括:残差分析、显著性检验、回归系数的显著性检验等。

4. 一元线性回归分析实例为了更好地理解一元线性回归分析的应用,我们以房价和房屋面积之间的关系为例进行分析。

数学建模中的线性回归分析

数学建模中的线性回归分析

数学建模中的线性回归分析数学建模是一门综合性学科,融合了数学、统计学、物理学、工程学等多个学科的知识,旨在解决实际问题。

在数学建模中,线性回归分析是一种常见的方法,用于对数据进行建模和预测。

在本文中,我们将探讨线性回归分析在数学建模中的应用。

一、线性回归分析的基本原理线性回归分析是一种统计学方法,用于确定两个或多个变量之间的关系,并对未知变量进行预测。

在线性回归中,我们通常将一个变量称为因变量,而将另一个或多个变量称为自变量。

当只有一个自变量时,我们称之为简单线性回归;而当有多个自变量时,我们称之为多元线性回归。

简单线性回归模型可以表示为:Y = a + bX + e其中,Y表示因变量,X表示自变量,a表示截距,b表示斜率,e表示误差项。

我们的目标是通过最小化误差项的平方和来确定a和b的值,从而建立最优的线性回归方程。

在多元线性回归中,我们可以使用矩阵来表示线性回归方程:Y = Xb + e其中,Y, X, b, e的意义与简单线性回归的相同。

我们的目标是通过最小化误差项的平方和来确定b的值,从而建立多元线性回归方程。

二、线性回归分析在数学建模中的应用线性回归分析在数学建模中有着广泛的应用,以下是几个常见的例子:1. 市场营销在市场营销中,我们可以使用线性回归来预测销售额。

例如,我们可以收集销售额和广告费用的数据,通过建立线性回归模型来预测在不同的广告投入下,对销售额的影响。

2. 资源规划在资源规划中,我们可以使用线性回归来预测未来的能源需求。

例如,我们可以收集近年来的用电量和气温数据,通过建立线性回归模型来预测未来的用电量,并据此制定相应的能源供应计划。

3. 生态环境管理在生态环境管理中,我们可以使用线性回归来分析环境污染的来源。

例如,我们可以收集空气、水、土壤等指标的数据,通过建立线性回归模型来分析不同污染物的来源,以便制定相应的减排政策。

以上仅是线性回归分析在数学建模中的几个典型应用,实际上线性回归在其他领域中也有着广泛的应用,如金融、医学、物流等。

一元线性回归法linlm

一元线性回归法linlm

b
x y xy x2 x2
101.8389 ,
a y bx -28.6883
y
[ yi (a bxi )]2 n2
0.931912
利用肖维涅舍弃判据来剔除测量值中带有粗差的数 据,列表如下(n=16时,Cu=2.15):
y'=a+bxi-Cu·σy
y"=a+bxi+Cu·σy
令Y lห้องสมุดไป่ตู้ y, X x,A lna, B b
则方程可化为:Y A BX
可求得,BA
A B
A B
Alna,Bba b
eA eAA B B
线性方程 y a bx
a y bx
xy x y
,
b
x2 x2
a b. x2
b
n(
x
1 2
x
2
)
.
y
r
xy x y
n 14 15 16 17 18 19 20 21 22 Cu 2.10 2.13 2.15 2.17 2.20 2.22 2.24 2.26 2.28
n 23 24 25 30 40 50 75 100 200 Cu 2.30 2.31 2.33 2.39 2.49 2.58 2.71 2.81 3.02
最终得到最佳的拟合直线方程(也称回归方程):
y a bx
• 需要考虑的两个问题
* 经验公式是否合适——相关系数 * 测量列是否存在粗差——肖维涅舍弃判据
附:相关系数表和肖维涅系数表
注意
*相关系数 r
1.只有当x和y之间存在线性关系时,拟合的直线才有
意义。
2.为了检验拟合的直线有无意义,引入一个叫相关系 数r来判别,r的定义为:

回归分析(数学建模)

回归分析(数学建模)
156.23 155.09 156.77 157.2 156.31 158.26
16 17 18 19 20 21
166.88 164.07 164.27 164.57 163.89 166.35
141.4 143.03 142.29 141.44 143.61 139.29
-144.34 -140.97 -142.15 -143.3 -140.25 -144.2
正规方程组
一元线性回归
整理得
n n n 0 xi 1 yi i 1 i 1 n n 2 xi 0 xi 1 i 1 i 1
( 2)
x
i 1
n
i
yi
一元线性回归
ˆ ˆ 0 y x 1 n x i y i n xy ˆ 1 i 1 n 2 2 xi n x i 1
(x
i 1 n
n
i
x )( y i y )
2
( 3)
( xi x )
i 1
1一元线性回归一元线性回归模型为其中x是自变量y是因变量为未知的待定常数称为回归系数是随机误差且假设其中相互独立且使其随机误差的平方和达到最小即一元线性回归正规方程组一元线性回归整理得一元线性回归其中参数的最小二乘估计一元线性回归xxxx的无偏估计量
线性回归分析
华北电力大学数理系 雍雪林
一、引言
2004年全国数模竞赛的B题 “电力市场的 输电阻塞管理” 第一个问题: 某电网有8台发电机组,6条主要线路,表 1和表2中的方案0给出了各机组的当前出力和 各线路上对应的有功潮流值,方案1~32给出了 围绕方案0的一些实验数据,试用这些数据确 定各线路上有功潮流关于各发电机组出力的近 似表达式。

一元线性回归模型 计量一元线性回归模型参数估计

一元线性回归模型 计量一元线性回归模型参数估计

1一元线性回归模型的参数估计1、普通最小二乘估计(OLS )对于所研究的经济问题,通常真实的回归直线是观测不到的。

收集样本的目的就是要对这条真实的回归直线做出估计。

假如给出了样本观测值(X i ,Y i ), i=1, 2, …, n (是样本容量)。

?+β? X i +u ?i (也可以记为e i )则样本回归模型(估计的模型)Y i=β01?和β?分别是β0 和β1的估计值或估计量,u ?i (或e i )是的u i 估计值,称为残差β01(residual )项,也称为拟合误差。

?=β?+β? X i ,称为样本回归方程或样本回归线。

用来估计样本回归模型的直线写为Y 01i ?称Y i 的拟合值(fitted value)其中Y i如何估计?(1)用“残差和最小”确定直线位置是一个途径。

但很快发现计算“残差和”存在相互抵消的问题。

(2)用“残差绝对值和最小”确定直线位置也是一个途径。

但绝对值的计算比较麻烦。

(3)最小二乘法的原则是以“残差平方和(residual sum of square, RSS)最小”确定直线位置。

用最小二乘法除了计算比较方便外,得到的估计量还具有优良特性。

(这种方法对异常值非常敏感)设残差平方和ESS 用Q 表示,?) 2=?i=∑(Y i -Y Q=∑u i2i=1i=1T T∑(Y -β?ii=1?X ) 2,-β1i?和β?的估计值。

以β?和β?为变量,把Q 看作是β?则通过Q 最小确定这条直线,即确定β01010?的函数,?和β?的偏导数并令其为零,和β这是一个求极值的问题。

求Q 对β得正规方程组,101?Q=2?β∑(Y -β?ii=1nn?X ) (-1)=0 (1) -β1i ?X ) (- X i )=0 (2) -β1i=2?β1∑(Y -β?ii=1?=-β? ?β01? ?(X i -)(Y i -) β1=2(X -) i ?x i y i ?i=Y i -Y ,x i=X i -X 。

一元线性回归模型案例

一元线性回归模型案例

一元线性回归模型案例一元线性回归模型是统计学中最基本、应用最广泛的一种回归分析方法,可以用来探究自变量与因变量之间的线性关系。

一元线性回归模型的数学公式为:y = β0 + β1x,其中y表示因变量,x表示自变量,β0和β1分别为截距和斜率。

下面以一个实际案例来说明一元线性回归模型的应用。

假设我们有一组数据,其中x表示一个房屋的面积,y表示该房屋的售价,我们想利用一元线性回归模型来预测房屋的售价。

首先,我们需要收集一组已知数据,包括房屋的面积和售价。

假设我们收集了10个不同房屋的面积和售价数据,如下所示:房屋面积(x)(平方米)售价(y)(万元)80 12090 130100 140110 150120 160130 170140 180150 190160 200170 210我们可以根据这组数据绘制散点图,横坐标表示房屋面积x,纵坐标表示售价y,如下所示:(插入散点图)接下来,我们可以利用最小二乘法来拟合一条直线,使其能够最好地拟合这些散点。

最小二乘法是一种最小化误差平方和的方法,可以得到最优的拟合直线。

根据一元线性回归模型的公式,可以通过计算拟合直线的斜率β1和截距β0来实现最小二乘法。

其中,斜率β1可以通过下式计算得到:β1 = n∑(xiyi) - (∑xi)(∑yi)n∑(xi^2) - (∑xi)^2截距β0可以通过下式计算得到:β0 = (1/n)∑yi - β1(1/n)∑xi通过带入已知数据,我们可以计算得到斜率β1和截距β0的具体值。

在本例中,计算结果如下:β1 ≈ 1.0667β0 ≈ 108.6667最后,利用得到的斜率β1和截距β0,我们可以得到一元线性回归模型的具体公式为:y ≈ 108.6667 + 1.0667x我们可以利用这个回归模型进行预测。

例如,如果有一个房屋的面积为130平方米,那么根据回归模型,可以预测该房屋的售价为170 + 108.6667 ≈ 278.6667万元。

一元线性回归分析预测法的基本数学模型为

一元线性回归分析预测法的基本数学模型为

一元线性回归分析预测法的基本数学模型为:bx a y+=ˆ 此式又称为一元线性回归方程 式中:x 为自变量;yˆ为因变量,线性回归分析估计值,或预测值; a ,b 为待定回归参数; a 为回归直线的截距; b 为回归直线的斜率。

一元线性回归分析模型的几何图形如图 所示。

图 直线回归分析模型的几何图形(三)一元线性回归分析预测法参数a ,b 的确定一元线性回归分析预测法用最小二乘法求回归方程的参数。

假设有n 期的历史观察资料:用最小二乘法求回归参数的基本原则是,对于确定的方程,要使观察值y 与估计值y ˆ的偏差的平方和最小。

由此方法可求出:x0 xb>0b<0b=22)(∑∑∑∑∑--x x n y x xy n ( 6-1)a=∑∑⋅-x nb y n 11 ( 6-2) 只需将历史资料自变量x 和对应的因变量y 的数据代入上面的两式,即可求得回归参数a ,b 。

(四)一元线性回归分析预测法模型的建立将利用历史资料数据和参数公式(6-1)和(6-2)求得的a ,b 值,代入一元回归方程式,既可得预测模型:bx a y+=ˆ (6-3) 此时虽已求除预测模型,但不能将预测模型直接用于实际预测,还必须对模型进行检验。

(五)一元线性回归分析预测法预测模型的检验 对预测模型的检验主要包括以下几个方面:1、回归标准差检验。

一般情况下,从观察值y 与估计值y ˆ的对比来看,回归直线上的各点(估计值)同对应的观察期各点(观察值)之间,均存在着一定的离差,即观察值曲线上各点的y 值均偏离回归直线。

离差越大,拟合程度越差。

因而需要测定估计值的标准差,而回归标准差s 就是用来估计y 值在回归直线两侧的离差程度,以便在进行实际预测时为预测值建立一个置信区间范围。

回归标准差的计算公式为:S y =()kn y y tt --∑2ˆ (6-4)式中:S y 为回归标准差;y 为因变量第t 期的观察值;n 为观察期的个数;k 为自由度,为变量的个数(包括因变量和自变量)。

一元线性回归方程式

一元线性回归方程式

一元线性回归方程式为:y=a+b x
b=n∑xy−∑x∑y n∑x2−(∑x)2
a=y̅−bx̅
其中a、b都是待定参数,可以用最小二乘法求得。

(最小平方法)b表示直线的斜率,又称为回归系数。

n表示所有数据的项数。

∑x表示所有x的求和
∑y表示所有y的求和
∑xy表示所有xy的求和
∑x2表示所有x2的求和
(∑x)2表示∑x的平方,即所有x的求和再求平方。

x̅表示所有x的平均数
y̅表示所有y的平均数
答题解法如下:
解:(答:)相关数据如下表:
根据公式b=n∑xy−∑x∑y
n∑x2−(∑x)2
得:
b=6∗1481−21∗426
6∗79−212=8886−8946
474−441
=−60
33
=-1.82
根据公式a=y̅−bx̅得:
a=71−(−1.82)∗3.5=71-(-6.37)=71+6.37=77.37
代入方程式y=a+b x得:
y=77.37+(-1.82)x=77.37-1.82 x
已知7月份产量为7000件,则x=7(千件),代入得:
y=77.37-1.82 x=77.37-1.82*7=77.37-12.74=64.63(元)
根据一元回归方程(最小乘法或最小平方法),当7月份产量为7000件时,其单位成本为64.63元。

一元线性回归模型及参数估计

一元线性回归模型及参数估计

步骤:收集数据、建立模型、 计算参数、评估模型
优点:简单易行,适用于线 性回归模型
最大似然估计法
定义:最大似然 估计法是一种基 于概率的参数估 计方法,通过最 大化样本数据的 似然函数来估计
参数。
原理:利用已知 样本数据和概率 分布函数,计算 出样本数据出现 的概率,然后选 择使得概率最大 的参数值作为估
参数估计的性质
无偏性
定义:参数估计量是 无偏估计时,其期望 值等于参数的真实值。
性质:无偏性是线性 回归模型参数估计的 最基本性质之一,是 评价估计量优劣的重 要标准。
证明:可以通过数学 推导证明无偏性,具 体过程可以参考相关 教材或论文。
应用:在回归分析中, 无偏性可以保证估计 的参数具有最小误差, 从而提高预测的准确 性和可靠性。
计值。
优点:简单易行, 适用于多种分布 类型的数据,具
有一致性。
局限:对样本数 据的要求较高, 当样本数据量较 小或分布不均时, 估计结果可能不
准确。
最小绝对误差准则
定义:最小化预测值与实际值之间的绝对误差
优点:对异常值不敏感,能够更好地处理数据中的噪声和异常值
缺点:可能导致模型过于复杂,过拟合数据 应用场景:适用于预测连续变量,尤其是当因变量和自变量之间的关系是 非线性的情况
行处理。
处理方法:包括 删除不必要的自 变量、合并相关 性较高的自变量、 使用其他模型等
方法。
模型预测与决策应用
预测未来趋势
利用一元线性回 归模型预测未来 趋势
模型参数估计的 方法和步骤
预测结果的解读 与决策应用
模型预测的局限 性及改进方法
制定决策依据
利用回归方程进行 预测
ห้องสมุดไป่ตู้

数学建模9.3_一元线性回归

数学建模9.3_一元线性回归
( x) aˆ bˆx
称为Y 关于 x 的经验回归函数,记aˆ bˆx yˆ,方程 yˆ aˆ bˆx
称为Y 关于 x 的经验回归方程,简称回归方程,其 图形称为回归直线.
yˆ y bˆ( x x), 对于样本值( x1, y1),( x2, y2 ),( xn, yn),回归直线通
3.未知参数a,b的估计
取x的n个不全相同的值x1, x2 ,,xn做独立试 验 , 得到样本 ( x1,Y1), ( x2,Y2 ), ,( xn,Yn ) .
Yi a bxi i , ~ i N (0, 2 ),各i相互独立. 于是 Y~ i N (a bxi , 2 ),i 1, 2,,n. 由Y1,Y2 ,,Yn

i 1
i 1
i 1
n
n
xi2
n
xi 2
i 1
i1
i1 n
,
( xi x)2
i 1

1 n
n i 1
yi
bˆ n
n i 1
xi
y
bˆ x
其中
1n x n i1 xi ,
y
1n n i1
yi .
在 得 到a , b的 估 计aˆ , bˆ 后 ,对于给定的x,
取aˆ bˆx作为回归函数( x) a bx的估计,即
这里自变量x是普通变量,Y是随机变量. 画出散点图如下,
观察散点图, ( x)具有线性函数a bx的形式 .
设Y关于x的回归函数为( x) . 利用样本来估计( x)的问题称为求Y关于x的回
归问题 .
特别, 若( x)为线性函数:( x) a bx ,
此时估计( x)的问题称为求一元线性回归问题 .
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

四、具体步骤
• 解:令1952-2004年依次为:0、1、2、3、4、 5、6、7、8、9、10、11、12、13用矩阵N 表示。并把 1968年的成绩改成28.0 则Xi1=1 , Xi2=exp(-0.1*N) Y=XB+Ű 其中 Ű为是随机因素对 y 的影响。 Y=[29.3;28.8;28.5;28.4;29.4;27.6;27.7;27.7;27.8;27.4;27.8;27.
27.4 27.8 27.1年份和成绩之间的数学模型。 2. 预测2008年的冠军成绩。
二、分析—数据
• 10000米的成绩总体是在进步的 • 1968年的成绩明显偏离总体趋势 • 随着时间的推进,10000米成绩的变化幅度 也越来越小
分析—理论
数学建模作业
—1952年---2004年各界奥林匹克
运动会男子10000米赛跑
一、问题的提出
• 下表为自1952年---2004年各界奥林匹克运 动会男子10000米赛跑的冠军成绩(时间以 分计)
年份 1952 1956 1960 1964 1968 1972 1976 成绩 29.3 28.8 28.5 28.4 29.4 27.6 年份 1980 1984 1988 1992 1996 2000 成绩 27.7 27.8
• 随着科技的进步,营养的提高、训练手段 和训练设备更加完善,成绩总体在进步 • 1968年成绩明显有总体趋势不符,估计是 因为地理、气候、天气等外界对成绩的影 响 • 随着技术的提高,10000成绩越来越接近人 类的极限水平,而且运动员们的差距越来 越小,所以进步的空间越来越小
三、建立模型
• 我建立的模型是:非线性回归模型(可以 转化为一元线性回归模型) • 模型:x=exp(-0.1*N);N:年份 • y=b0+b1*x
1;27.3;27.1]
• 求解B:用最小二乘法估计
$ = A −1 X T Y β
A= X X
T
由matlab求得
因此回归模型为: y=26.4002+2.6395*exp(-0.1*N)+Ű
五、模型检验
• 预计2008年男子10000米奥运成绩为: 27.0511分
2008年男子10000米实际成绩为: 27.0214分
•谢谢观赏
相关文档
最新文档