统计学第三版

合集下载
相关主题
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

1统计学:统计学(statistics)是一门收集、整理、显示和分析统计数据的科学,其目的是探索数据内在的数量规律。其统计的数据不是指个别的单个数字,而是指同类的较数据,离开了数据统计方法那只统计学就失去了其存在的意义

2中心极限定理:设均值为μ、方差为δ²(有限)的任意一个总体中抽取样本量为n的样本,当n充分大时,样本均值的抽样分布近似服从均值为μ、方差为δ²/n的正态分布。

3区间估计:是在点估计的基础上,给出总体参数估计的一个范围,总体参数的区间估计是样本的统计量加减抽样误差得到的,区间估计根据样本统计量的抽样分布能对样本统计量与总体参数的接近程度给出一个概率度量。

4置信区间:在区间估计中,由样本统计量所构造的总体参数的估计区间,称为置信区间。95%的置信区间指用某种方法构造的所有区间中,有95%的区间包含总体参数的真值,5%的区间不包含总体参数的真值,该方法构造的区间称为置信水平为95%的置信区间。5设简单线性回归方程为:(1)采用OLS估

计:

回归系数经济意义:销售收入每增加1万元,销售成本会增加0.786万元。

(1)可决系数为:

回归标准误:

(2)检验统计量为:

所以是显著不为零

(3)预测:

95/100的预测区间为:

即(664.579 ,674.153)

6 解(1)样本容量:

(2)

(3)

(4),

(5)用F检验:,

整体对有显著影响,但不能确定单个对y的贡献。

1.理解原假设与备择假设的含义,并归纳常见的几种建立原假设与备择假设的原则.

答:原假设通常是研究者想收集证据予以反对的假设;而备择假设通常是研究者想收集证据予以支持的假设。建立两个假设的原则有:

(1)原假设和备择假设是一个完备事件组。(2)一般先确定备择假设。再确定原假设。(3)等号“=”总是放在原假设上。(4)假设的确定带有一定的主观色彩。(5)假设检验的目的主要是收集证据来拒绝原假设。

2.第一类错误和第二类错误分别是指什么?它们发生的概率大小之间存在怎样的关系?

答:第I类错误指,当原假设为真时,作出拒绝原假设所犯的错误,其概率为。第II类错误指当原假设为假时,作出接受原假设所犯的错误,其概率为。在其他条件不变时,增大,减小;增大,减小。

3.什么是显著性水平?它对于假设检验决策的意义是什么?

答:假设检验中犯第一类错误的概率被称为显著性水平。显著性水平通常是人们事先给出的一个值,用于检验结果的可靠性度量,但确定了显著性水平等于控制了犯第一错误的概率,但犯第二类错误的概率却是不确定的,因此作出“拒绝原假设”的结论,其可靠性是确定的,但作出“不拒绝原假设”的结论,其可靠性是难以控制的。

4.什么是p值?p值检验和统计量检验有什么不同?

答:p值是当原假设为真时,检验统计量小于或等于根据实际观测样本数据计算得到的检验统计量值的概率。P值常常作为观察到的数据与原假设不一致程度的度量。统计量检验采用事先确定显著性水平,来控制犯第一类错误的上限,p

值可以有效地补充提供地关于检验可靠性的有限信息。值检验的优点在于,

它提供了更多的信息,让人们可以选择一定的水平来评估结果是否具有统计上的显著性。

5.什么是统计上的显著性?

答:一项检验在统计上是显著的(拒绝原假设),是指这样的(样本)结果不是偶然得到的,或者说,不是靠机遇能够得到的。显著性的意义在于“非偶然的

1

1.相关分析与回归分析的区别与联系是什么?

答:相关与回归分析是研究变量之间不确定性统计关系的重要方法,相关分析主要是判断两个或两个以上变量之间是否存在相关关系,并分析变量间相关关系的形态和程度。回归分析主要是对存在相关关系的现象间数量变化的规律性作出测度。但它们在研究目的和对变量的处理上有明显区别。它们均是统计方法,不能揭示现象之间的本质关系。

3.什么是总体回归函数和样本回归函数?它们之间的区别是什么?

答:以简单线性回归模型为例,总体回归函数是总体因变量的条件期望表现为自

变量的函数:,或。总体回归函数是确定的和未知的,是回归分析所估计的对象。样本回归函数是根据样本数据所估

计出的因变量与自变量之间的函数关系:或。回归分

析的目的是用样本回归函数来估计总体回归函数。它们的区别在于,总体回归函数是未知但是确定的,而样本回归函数是随样本波动而变化;总体回归函数的参

数是确定的,而样本回归函数的系数是随机变量;总体回归函数中的

误差项不可观察的,而样本回归函数中的残差项是可以观察的。

4. 什么是随机误差项和残差?它们之间的区别是什么?

答:随机误差项表示自变量之外其他变量的对因变量产生的影响,是不可观察

的,通常要对其给出一定的假设。残差项指因变量实际观察值与样本回归函数

计算的估计值之间的偏差,是可以观测的。它们的区别在于,反映的含义是不同且可观察性也不同,它们的联系可有下式:

5.为什么在对参数进行最小二乘估计时,要对模型提出一些基本的假定?

答:最小二乘法只是寻找估计量的一种方法,其寻找到的估计量是否具有良好的性质则依赖模型的一些基本的假定。只有在一系列的经典假定下,最小二乘估计量才是BLUE。

15. .为什么在多元回归中要对可决系数进行修正?

答:在样本容量一定下,随着模型中自变量个数的增加,可决系数会随之增

加,模型的拟合程度上升,但自由度会损失,从而降低推断的精度,因此需要用自由度来修正可决系数,用修正的可决系数来判断增加自变量的合适性。

16.在多元线性回归中,对参数作了t检验后为什么还要作方差分析和F检验?答:t检验仅是对单个系数的显著性进行检验,由于自变量之间存在着较为复杂的关系,因此有必要对回归系数进行整体检验,方差分析和F检验就是对回归方程的整体统计显著性进行的检验方法。

相关文档
最新文档