主成分分析(主元分析,PCA)原理
主成分分析法原理
主成分分析法原理主成分分析法原理(PrincipleComponentAnalysis,简称PCA)是一种分析数据变量间关系强度的有效统计方法。
其基本思想是,通过正交变换将多个变量转换为一组线性无关的新变量,从而对数据进行分析。
PCA具有良好的统计性质,是近几十年来最热门的统计学方法之一。
PCA方法可以将数据集中的变量分解为一组新的、无关的变量,这组新变量称为主成分(Principal Components)。
在统计学中,主成分分析的主要目的是探索数据的隐含结构、分解数据的复杂性,从而减少变量的数量,减少计算量。
PCA方法对原始数据进行正交变换,将原始数据的一组维度投影到一组新的维度。
正交变换可以有效提取数据的能量分布特性,提出新的变量,使数据具有统一性、一致性和高效性。
在PCA方法中,数据可以分为两类:原始数据,以及变换后的数据。
原始数据是观察样本而获得的数据,而变换后的数据是通过PCA 变换得到的新变量。
PCA方法可以通过两种方式来确定变换后的数据:(1)使用方差最大化方法:此方法使用每个变量的方差来衡量变换后的数据的相关性,并建立方差最大的变量的集合;(2)使用协方差最小化方法:此方法使用各个变量之间的协方差来衡量其变换后的数据的相关性,并建立协方差最小的变量集合。
PCA方法非常有用,因为它可以提高算法的性能,有助于减少计算量,并提高算法的准确性。
与其他分析方法相比,PCA方法的优势在于它的算法实现简单,可以有效解决多变量间的相关性,有助于减少数据量,提高算法的准确性,并可以用于识别数据中的模式。
PCA方法在许多研究领域有着广泛的应用,如:机器学习、计算机视觉、推荐系统等。
PCA方法是一种非常有效的可视化方法,能有效提高数据分析的准确性,了解数据间的关系,获得更多信息。
PCA 方法还可以用于从大量数据中提取有用的特征,在降维和特征选择上有很强的能力。
总之,PCA方法是一种有效的统计学方法,它可以用于数据和信息的统计分析,从而帮助我们提高数据分析的准确度,实现有效的可视化,提取有用的特征,改善算法的性能,并减少计算量。
主成分分析(PCA)原理详解_转载
主成分分析(PCA)原理详解_转载⼀、PCA简介1. 相关背景在许多领域的研究与应⽤中,往往需要对反映事物的多个变量进⾏⼤量的观测,收集⼤量数据以便进⾏分析寻找规律。
多变量⼤样本⽆疑会为研究和应⽤提供了丰富的信息,但也在⼀定程度上增加了数据采集的⼯作量,更重要的是在多数情况下,许多变量之间可能存在相关性,从⽽增加了问题分析的复杂性,同时对分析带来不便。
如果分别对每个指标进⾏分析,分析往往是孤⽴的,⽽不是综合的。
盲⽬减少指标会损失很多信息,容易产⽣错误的结论。
因此需要找到⼀个合理的⽅法,在减少需要分析的指标同时,尽量减少原指标包含信息的损失,以达到对所收集数据进⾏全⾯分析的⽬的。
由于各变量间存在⼀定的相关关系,因此有可能⽤较少的综合指标分别综合存在于各变量中的各类信息。
主成分分析与因⼦分析就属于这类降维的⽅法。
2. 问题描述下表1是某些学⽣的语⽂、数学、物理、化学成绩统计:⾸先,假设这些科⽬成绩不相关,也就是说某⼀科⽬考多少分与其他科⽬没有关系。
那么⼀眼就能看出来,数学、物理、化学这三门课的成绩构成了这组数据的主成分(很显然,数学作为第⼀主成分,因为数学成绩拉的最开)。
为什么⼀眼能看出来?因为坐标轴选对了!下⾯再看⼀组学⽣的数学、物理、化学、语⽂、历史、英语成绩统计,见表2,还能不能⼀眼看出来:数据太多了,以⾄于看起来有些凌乱!也就是说,⽆法直接看出这组数据的主成分,因为在坐标系下这组数据分布的很散乱。
究其原因,是因为⽆法拨开遮住⾁眼的迷雾~如果把这些数据在相应的空间中表⽰出来,也许你就能换⼀个观察⾓度找出主成分。
如下图1所⽰:但是,对于更⾼维的数据,能想象其分布吗?就算能描述分布,如何精确地找到这些主成分的轴?如何衡量你提取的主成分到底占了整个数据的多少信息?所以,我们就要⽤到主成分分析的处理⽅法。
3. 数据降维为了说明什么是数据的主成分,先从数据降维说起。
数据降维是怎么回事⼉?假设三维空间中有⼀系列点,这些点分布在⼀个过原点的斜⾯上,如果你⽤⾃然坐标系x,y,z这三个轴来表⽰这组数据的话,需要使⽤三个维度,⽽事实上,这些点的分布仅仅是在⼀个⼆维的平⾯上,那么,问题出在哪⾥?如果你再仔细想想,能不能把x,y,z坐标系旋转⼀下,使数据所在平⾯与x,y平⾯重合?这就对了!如果把旋转后的坐标系记为x',y',z',那么这组数据的表⽰只⽤x'和y'两个维度表⽰即可!当然了,如果想恢复原来的表⽰⽅式,那就得把这两个坐标之间的变换矩阵存下来。
PCA-主成分分析的原理及解释
PCA-主成分分析的原理及解释主成分分析(principal component analysis ,PCA )PCA 利⽤正交变换将线性相关变量表⽰的观测数据转换为少数⼏个由线性⽆关变量表⽰的数据。
线性⽆关的变量称为主成分,其个数通常⼩于原始变量的个数,所以属于⽆监督学习中的降维⽅法。
⼀、PCA 的解释—最⼤⽅差理论由上图可以看到,x 1和x 2两个变量之间具有线性相关性。
已知其中⼀个变量x 1的取值时,对另⼀个变量x 2的预测不是完全随机的,反之亦然。
为了减少这种相关性,我们对坐标系进⾏旋转变换(正交变换),将数据投影到新坐标系的坐标轴上,那如何选择坐标系呢?我们将数据在每⼀轴上的坐标值的平⽅表⽰相应变量的⽅差,并且这个坐标轴上的⽅差是最⼤的(在所有可能的新坐标系中)。
找到第⼀坐标轴后,然后选择与第⼀坐标轴正交,且⽅差次之的⽅向作为第⼆坐标轴,如上图(b)。
主成分分析旨在选取正交变换中⽅差最⼤的变量,那为什么⽅差最⼤,变量之间的相关性越⼩?答:数据在某个⽅向上的轴的⽅差越⼤,那么说明数据分布得更为分散,相关性越⼩。
在信号处理领域,信号具有较⼤的⽅差,噪声具有较⼩的⽅差,信号与噪声之⽐称为信噪⽐。
⽽信噪⽐越⼤,意味着数据的质量越好。
回忆⼀下,线性代数的相关内容?正交矩阵:满⾜条件A T A =E 或者AA T =E 的n 阶⽅阵称为正交矩阵。
判定正交矩阵的充分必要条件为:A 的列(⾏)向量都是单位向量,且两两正交。
设A 为正交矩阵,则线性变换y =Ax 称为正交变换。
正交变换保证向量的内积和长度不变,具有保形性。
回忆⼀下,协⽅差和相关系数的知识?协⽅差和相关系数都可以⽤来描述两个分量之间相互关系的数字特征。
协⽅差Cov (X ,Y )=E [(X −EX )(Y −EY )]。
相关系数ρXY =Cov (X ,Y )√DX ⋅√DY。
相关系数(协⽅差)变⼤,X 与Y 的线性相关程度就变⼤。
推导:Processing math: 100%矩阵和向量求导的相关公式::。
主成分分析(主元分析,PCA)原理
PCA原理1因为经常做一些图像和信号处理的工作,要用到主元分析(Principal Components Analysis)作为工具。
写出来供自己和朋友参考。
PCA是一种统计技术,经常应用于人面部识别和图像压缩以及信号去噪等领域,是在高维数据中提取模式的一种常用技术。
要了解PCA首先要了解一些相关的数学知识,这里主要介绍协方差矩阵、特征值与特征矢量的概念。
1、协方差矩阵协方差总是在两维数据之间进行度量,如果我们具有超过两维的数据,将会有多于两个的协方差。
例如对于三维数据(x, y, z维),需要计算cov(x,y),cov(y,z)和cov(z,x)。
获得所有维数之间协方差的方法是计算协方差矩阵。
维数据协方差矩阵的定义为(1)这个公式告诉我们,如果我们有一个n维数据,那么协方差矩阵就是一个n行n 列的方矩阵,矩阵的每一个元素是两个不同维数据之间的协方差。
对于一个3维数据(x,y,z),协方差矩阵有3行3列,它的元素值为:(2)需要注意的是:沿着主对角线,可以看到元素值是同一维数据之间的协方差,这正好是该维数据的方差。
对于其它元素,因为cov(a,b)=cov(b,a),所以协方差矩阵是关于主对角线对称的。
2、特征值和特征矢量只要矩阵大小合适,就可以进行两矩阵相乘,特征矢量就是其中的一个特例。
考虑图2.1中两个矩阵和矢量乘法。
图2.1 一个非特征矢量和一个特征矢量的例子图2.2 一个缩放的特征矢量仍然是一个特征矢量在第一个例子中,结果矢量不是原来因子矢量与整数相乘,然而在第二个例子中,结果矢量是原来因子矢量的4倍,为什么会这样呢?该矢量是一个2维空间矢量,表示从原点(0,0)指向点(3,2)的箭矢。
方矩阵因子可以看作是转换矩阵,一个矢量左乘该转换矩阵,意味着原始矢量转换为一个新矢量。
特征矢量来自于转换特性。
设想一个转换矩阵,如果用其左乘一个矢量,映射矢量是它自身,这个矢量(以及它的所有尺度缩放)就是该转换矩阵的特征矢量。
主成分分析(PCA)数学原理详解
主成分分析(PCA)数学原理详解PCA的数学原理可以分为以下几个步骤:1.数据中心化PCA首先将原始数据进行中心化处理,即将每个特征的均值减去相应特征的平均值,这是因为PCA假设数据围绕着原点分布,中心化可以消除数据的平移影响。
2.协方差矩阵的计算PCA的关键是计算数据的协方差矩阵。
协方差矩阵描述了不同特征之间的相关性。
对于一个n维的数据集,协方差矩阵是一个n×n的矩阵,其中第(i,j)个元素表示第i个特征和第j个特征的协方差。
协方差矩阵的计算公式如下:$C = \frac{1}{n-1} \sum _{i=1}^{n}(X_i - \overline{X})(X_i - \overline{X})^T$其中,X是一个n×m的矩阵,表示n个样本的m个特征,$\overline{X}$ 表示特征均值向量协方差矩阵是一个对称矩阵,通过对协方差矩阵的特征值分解,可以得到特征值和特征向量。
3.特征值和特征向量的计算对协方差矩阵进行特征值分解,可以得到特征值和对应的特征向量。
特征值代表了数据在特征向量方向上的方差,而特征向量表示了数据的主成分方向。
设协方差矩阵为C,有如下特征值方程:$Cv = \lambda v$其中,v是特征向量,λ是特征值。
将特征值按从大到小的顺序排序,选择前k个最大的特征向量,即主成分,作为新的基向量。
这些特征向量构成了一个新的坐标系,用于表示原始数据的新坐标。
4.数据转换将原始数据投影到新的坐标系上,得到降维后的数据。
设原始数据集为X,新的基向量为V(由前k个特征向量组成),降维后的数据集为Y,可以通过如下公式计算:$Y=XV$其中,X是一个n×m的矩阵,表示n个样本的m个特征,V是一个m×k的矩阵,Y是一个n×k的矩阵。
通过PCA降维,可以获得降维后的数据集Y,它是一个n×k的矩阵。
总结:主成分分析(PCA)通过计算数据的协方差矩阵,得到协方差矩阵的特征值和特征向量。
PCA主成分分析原理及应用
主元分析(PCA)理论分析及应用什么是PCA?PCA是Principal component analysis的缩写,中文翻译为主元分析/主成分分析。
它是一种对数据进行分析的技术,最重要的应用是对原有数据进行简化。
正如它的名字:主元分析,这种方法可以有效的找出数据中最“主要”的元素和结构,去除噪音和冗余,将原有的复杂数据降维,揭示隐藏在复杂数据背后的简单结构。
它的优点是简单,而且无参数限制,可以方便的应用与各个场合。
因此应用极其广泛,从神经科学到计算机图形学都有它的用武之地。
被誉为应用线形代数最价值的结果之一。
在以下的章节中,不仅有对PCA的比较直观的解释,同时也配有较为深入的分析。
首先将从一个简单的例子开始说明PCA应用的场合以及想法的由来,进行一个比较直观的解释;然后加入数学的严格推导,引入线形代数,进行问题的求解。
随后将揭示PCA与SVD(Singular Value Decomposition)之间的联系以及如何将之应用于真实世界。
最后将分析PCA理论模型的假设条件以及针对这些条件可能进行的改进。
一个简单的模型在实验科学中我常遇到的情况是,使用大量的变量代表可能变化的因素,例如光谱、电压、速度等等。
但是由于实验环境和观测手段的限制,实验数据往往变得极其的复杂、混乱和冗余的。
如何对数据进行分析,取得隐藏在数据背后的变量关系,是一个很困难的问题。
在神经科学、气象学、海洋学等等学科实验中,假设的变量个数可能非常之多,但是真正的影响因素以及它们之间的关系可能又是非常之简单的。
下面的模型取自一个物理学中的实验。
它看上去比较简单,但足以说明问题。
如图表 1所示。
这是一个理想弹簧运动规律的测定实验。
假设球是连接在一个无质量无摩擦的弹簧之上,从平衡位置沿轴拉开一定的距离然后释放。
图表1对于一个具有先验知识的实验者来说,这个实验是非常容易的。
球的运动只是在x轴向上发生,只需要记录下轴向上的运动序列并加以分析即可。
pca分析
pca分析PCA(Principal Component Analysis,主成分分析)是一种常用的统计学方法,用于降低数据维度并提取最相关特征的技术。
在机器学习和数据挖掘领域,PCA被广泛应用于数据预处理、特征选择和可视化等方面。
本文将对PCA的原理和应用进行详细介绍。
PCA的核心思想是将高维数据转换为低维空间,同时最大程度地保留数据的信息。
通过将数据投影到最具信息量的方向,主成分分析能够减少数据之间的冗余和噪声,提取出最重要的特征。
首先,我们需要了解PCA中的一些基本概念。
数据集中的每个数据点可以看作是多维空间中的一个向量。
在进行PCA之前,需要对数据进行标准化处理,使得每个特征具有相同的尺度。
这是因为PCA是基于协方差矩阵的计算,尺度不同的特征会对结果产生不均衡的影响。
PCA的核心步骤包括计算特征的协方差矩阵、计算协方差矩阵的特征值和特征向量、选择主成分和投影数据。
首先,通过计算样本数据的协方差矩阵,可以获得数据特征之间的相关性。
然后,通过对协方差矩阵进行特征值分解,可以得到特征值和对应的特征向量。
特征值表征了数据在特征空间中的重要性,特征向量作为主成分,可以按照特征值的大小进行排序。
最后,选择前k个主成分并将数据投影到这些主成分上,完成数据降维的过程。
PCA的主要应用之一是数据预处理。
在处理大规模高维数据时,往往存在冗余信息和噪声干扰。
通过应用PCA,可以提取出最具信息量的特征,减少冗余信息和噪声对数据分析的影响。
这样可以提高后续的机器学习算法的准确性和效率。
特征选择是PCA的另一个重要应用。
在机器学习中,选择正确的特征对于构建有效的模型非常重要。
通过计算特征的方差或信息增益,可以评估特征的重要性。
PCA可以帮助我们找到最相关的特征,并进行进一步分析。
此外,PCA还可以用于数据可视化。
一般来说,高维数据很难直观地展示。
通过将数据投影到二维或三维空间,我们可以更清晰地观察数据之间的关系。
例如,在聚类分析中,采用PCA可以将数据集投影到指定维数的空间中,从而更容易发现数据中存在的分组结构。
PCA(主成分分析)的原理与应用
PCA(主成分分析)的原理与应用简介主成分分析(PCA)是一种常用的多变量数据降维技术,用于发现数据中的主要模式与关系。
通过PCA,可以将高维数据转换为低维表示,从而减少计算复杂度、去除冗余信息、提取关键特征等。
本文将介绍PCA的基本原理和常见的应用场景。
1. PCA的基本原理PCA的基本思想是通过线性变换将原始数据投影到新的坐标系中,新的坐标系由一组互相正交的基向量构成。
这些基向量被称为主成分,每个主成分都是原始数据的一个线性组合。
通过保留最重要的主成分,可以实现数据降维。
1.1 数据标准化在应用PCA之前,通常需要对原始数据进行标准化处理。
标准化可以使不同特征的数据具有相同的尺度,避免某些特征对PCA结果的影响过大。
常见的标准化方法有均值方差标准化和最大最小值标准化。
1.2 协方差矩阵与特征值分解PCA的核心是通过计算协方差矩阵来确定主成分。
协方差矩阵反映了不同维度之间的相关性。
通过对协方差矩阵进行特征值分解,可以得到特征值和特征向量。
特征值表示了数据在对应特征向量方向上的方差,特征向量则表示了变换后的坐标系中各维度的方向。
1.3 选择主成分在进行特征值分解后,主成分的选择是根据特征值的大小进行的。
通常保留较大的特征值对应的特征向量作为主成分,因为这些特征值表示了数据的主要变化模式。
1.4 重构数据通过选取主成分,可以将原始数据投影到新的坐标系中。
重构数据可以通过将原始数据乘以选取的主成分对应的特征向量来实现。
2. PCA的应用场景PCA有广泛的应用场景,以下列举一些常见的应用领域。
2.1 降维与特征选择在高维数据中,存在大量冗余和噪音信息。
通过使用PCA,可以将高维数据降低到较低的维度,并保留重要的特征,从而提高数据的表示效果和计算效率。
2.2 数据压缩与图像处理PCA在数据压缩和图像处理中也有广泛的应用。
通过PCA,可以用较少的数据表示信息量较大的图像,从而实现图像的压缩和存储。
同时,还可以对图像进行去噪、增强和特征提取等操作。
主成分分析的原理是
主成分分析的原理是
主成分分析(Principal Component Analysis, PCA)是一种常用的
数据降维和特征提取方法。
其原理基于找到一组新的特征向量,使得通过投影数据到这些特征向量上可以尽可能保留数据集的方差。
具体而言,PCA将原始的高维数据映射到一个低维的空间,
使得新空间下的数据能够最大程度地保留原始数据的信息。
这实际上是通过在新特征向量上选择投影方向,使得投影后的数据方差最大化。
这些新特征向量被称为主成分,按照方差的大小排序。
主成分分析的计算过程首先将原始数据去均值,然后计算协方差矩阵。
协方差矩阵可以表达不同特征之间的相关性。
接下来,通过对协方差矩阵进行特征分解,得到特征值和特征向量。
特征值表示对应特征向量的重要性,而特征向量则表示新的特征空间轴。
在选择主成分时,可以根据特征值的大小选择保留哪些主成分,以达到降维的目的。
通常,选择保留的主成分个数可以通过保留足够的累计方差来确定。
一般来说,前几个主成分可以解释数据中大部分的方差,因此保留这些主成分可以减少数据的维度同时保留较多的信息。
最后,可以利用投影矩阵将原始数据映射到新的特征空间,实现数据的降维。
通过主成分分析,可以更好地理解数据的结构
和特征之间的关系,并在数据处理和可视化等领域中发挥重要作用。
主成分分析法原理
主成分分析法原理主成分分析法(PrincipleComponentAnalysis,PCA)是一种被广泛应用的统计和机器学习分析方法,其中最重要的原理是帮助我们将多维数据转换为更少的维度,并帮助我们去除数据中的冗余信息。
主成分分析的思想源于线性代数,它涉及到在矩阵中确定一系列称为“主成分”的新坐标轴。
PCA将源数据转换为这些新坐标轴,使得数据点在这些坐标轴上可以更容易地分析和比较。
因此,可以把PCA简单地理解为一种通过转换坐标轴的方式,可以使得统计和机器学习的数据分析更容易。
主成分分析是一种发现和描述数据结构的工具,它主要是通过降低数据集的维度来实现的,而PCA也会根据属性间的相关性进行调整。
主成分分析通过提取数据中存在的模式来建模数据,而不是仅仅考虑数据中每个变量,以进行预测和分类。
直观地说,PCA可以通过把数据中的各个维度减少到最低级别 -只有一个维度,而不失去太多有用的信息 -做到这一点。
PCA通常根据各个变量之间的相关性进行解释:如果两个变量之间的关系很密切,那么就可以把这两个变量合并为一个变量,以减少总维度数。
另外,PCA还可以帮助我们提取数据中隐藏的模式和聚类。
例如,如果一组变量正在表现出相关性,那么PCA可以帮助我们更好地识别出数据中的模式,而不是按照原来的变量进行分类。
PCA也可以帮助我们构建更有效的机器学习模型,因为它可以减少维度,并且也可以减少计算量。
此外,由于PCA可以消除冗余的信息,因此它还可以帮助我们提升模型的泛化能力,从而使模型能够更好地在新的数据上表现。
总的来说,PCA是一种相当有用的数据分析工具,它可以帮助我们快速简单地提取数据中存在的模式,而不影响数据的准确性,因此这也使得它更容易被统计学家和机器学习研究者所接受。
以上就是本文关于主成分分析法的相关介绍,希望能为你提供一些参考。
主成分分析( principal components analysis,PCA )
主成分分析的主要作用
3.多维数据的一种图形表示方法。 我们知道当维数大于3时便不能画出几何图形,多元统 计研究的问题大都多于3个变量。要把研究的问题用图形 表示出来是不可能的。然而,经过主成分分析后,我们可 以选取前两个主成分或其中某两个主成分,根据主成分的 得分,画出n个样品在二维平面上的分布况,由图形可直 观地看出各样品在主分量中的地位,进而还可以对样本进 行分类处理,可以由图形发现远离大多数样本点的离群点。 4.由主成分分析法构造回归模型。即把各主成分作为 新自变量代替原来自变量x做回归分析。
主成分分析( PRINCIPAL COMPONENTS ANALYSIS,PCA )
主成分分析介绍 基本思想 基本原理 作用 计算 主成分个数选取原则 例题 SPSS操作
主成分分析介绍
在统计学中,主成分分析(principal components analysis, PCA)是一种简化数据集的技术。它是一个线 性变换。这个变换把数据变换到一个新的坐标系统中, 使得任何数据投影的第一大方差在第一个坐标(称为第 一主成分)上,第二大方差在第二个坐标(第二主成分)上, 依次类推。主成分分析经常用减少数据集的维数,同时 保持数据集的对方差贡献最大的特征。这是通过保留低 阶主成分,忽略高阶主成分做到的。这样低阶成分往往 能够保留住数据的最重要方面。但是,这也不是一定的, 要视具体应用而定。
x3
的
例题
1. 求样本均值和样本协方差矩阵
46.67 S 17.12 21.11 30.00 32.58 55.53 2. 求解协方差矩阵的特征方程 S I 0
46.67 17.12 30.00 17.12 30.00 21.11 32.பைடு நூலகம்8 0 32.58 55.53
主成分分析法
主成分分析法什么事主成分分析法:主成分分析(principal components analysis,PCA)又称:主分量分析,主成分回归分析法主成分分析也称主分量分析,旨在利用降维的思想,把多指标转化为少数几个综合指标。
在统计学中,主成分分析(principal components analysis,PCA)是一种简化数据集的技术.它是一个线性变换。
这个变换把数据变换到一个新的坐标系统中,使得任何数据投影的第一大方差在第一个坐标(称为第一主成分)上,第二大方差在第二个坐标(第二主成分)上,依次类推。
主成分分析经常用减少数据集的维数,同时保持数据集的对方差贡献最大的特征。
这是通过保留低阶主成分,忽略高阶主成分做到的。
这样低阶成分往往能够保留住数据的最重要方面。
但是,这也不是一定的,要视具体应用而定。
主成分分析的基本思想:在实证问题研究中,为了全面、系统地分析问题,我们必须考虑众多影响因素。
这些涉及的因素一般称为指标,在多元统计分析中也称为变量。
因为每个变量都在不同程度上反映了所研究问题的某些信息,并且指标之间彼此有一定的相关性,因而所得的统计数据反映的信息在一定程度上有重叠.在用统计方法研究多变量问题时,变量太多会增加计算量和增加分析问题的复杂性,人们希望在进行定量分析的过程中,涉及的变量较少,得到的信息量较多。
主成分分析正是适应这一要求产生的,是解决这类题的理想工具。
同样,在科普效果评估的过程中也存在着这样的问题。
科普效果是很难具体量化的。
在实际评估工作中,我们常常会选用几个有代表性的综合指标,采用打分的方法来进行评估,故综合指标的选取是个重点和难点。
如上所述,主成分分析法正是解决这一问题的理想工具.因为评估所涉及的众多变量之间既然有一定的相关性,就必然存在着起支配作用的因素。
根据这一点,通过对原始变量相关矩阵内部结构的关系研究,找出影响科普效果某一要素的几个综合指标,使综合指标为原来变量的线性拟合.这样,综合指标不仅保留了原始变量的主要信息,且彼此间不相关,又比原始变量具有某些更优越的性质,就使我们在研究复杂的科普效果评估问题时,容易抓住主要矛盾。
主成分分析法
主成分分析法主成分分析(Principal Component Analysis,简称PCA)是一种常用的降维方法,它通过线性变换将高维数据转换为低维数据,从而提取出数据的最主要特征。
本文将详细介绍主成分分析的原理、应用以及算法流程。
一、原理主成分分析是一种基于统计学的数据降维方法。
其基本思想是将原始数据通过线性变换,得到一组新的不相关变量,即主成分,用来代替原始变量。
这些主成分在不同维度上的方差依次递减,即第一主成分包含最多的原始变量信息,第二主成分包含不重叠的信息量,以此类推。
主成分分析的目标是最大化原始数据的方差,从而保留尽可能多的信息。
首先,通过计算协方差矩阵来评估各个变量之间的相关性,然后通过特征值分解找出协方差矩阵的特征向量,即主成分。
最后,根据特征值的大小来选择保留的主成分个数。
二、应用主成分分析广泛应用于数据预处理、特征提取和数据可视化等领域。
以下是主成分分析的几个典型应用:1. 数据降维:主成分分析可以将高维数据转换为低维数据,从而减少计算量和存储空间,并提高模型的计算效率。
2. 特征提取:主成分分析可以将原始数据中高度相关的特征转换为互不相关的主成分,保留了原始数据的主要信息。
这样可以提高模型的训练速度和泛化能力。
3. 图像压缩:主成分分析可以将图像的冗余信息去除,从而实现图像的压缩和存储。
通过保留图像中的主要特征,可以在减少存储空间的同时保持图像的质量。
4. 数据可视化:主成分分析可以将高维数据映射到二维空间,从而实现数据的可视化。
通过显示主成分的分布,可以更好地理解数据之间的关系,并发现数据中的模式和异常。
三、算法流程主成分分析的算法流程如下:1. 数据标准化:将原始数据进行标准化处理,使得每个变量具有相同的尺度,从而避免变量之间的差异对主成分的影响。
2. 计算协方差矩阵:根据标准化后的数据计算协方差矩阵,该矩阵表示各个变量之间的相关性。
3. 特征值分解:对协方差矩阵进行特征值分解,得到特征值和特征向量。
主成分分析法原理
主成分分析法原理主成分分析法(PrincipalComponentAnalysis,简称PCA)是统计学中一种在数据挖掘、生物信息学、商业分析以及投资管理等多个领域中都被采用的统计方法。
它能够降低数据的维度,保留原来数据的有效信息,并可以将高维度的数据转换成更少的维度,这样可以更加便于分析。
主成分分析的原理是,将原有的变量用新的表达和变换来表示,以此来减少变量的数量,同时保留原有变量中的有效信息。
主成分分析通过将原有变量组合成一组新变量(主成分),依据这组新变量我们可以更好地理解原始变量的相互关系和结构,用新的表达方式对原始的数据进行重新解析。
PCA的基本思想是:将一组变量(观测值)通过一系列变换,用一组新的变量(主成分)来描述。
PCA之所以能够取得良好的效果,在于它所使用的新变量(主成分)具有以下特点:(1)新变量彼此之间是正交的;(2)新变量描述原来变量中的总变异性最大化;(3)新变量能够呈现出从原来变量中更为概括和简单的表达。
这些特点使PCA有效地减少变量空间中的冗余特征,使得原有信息能够被有效地提取,从而对原始变量的结构和相互关系有更深入的理解和控制。
主成分分析的概念和算法可追溯至20世纪20年代,但是直到最近才被广泛采用。
PCA的运用可以分为两个主要步骤,即:(1)数据的预处理;(2)主成分分析。
预处理步骤主要用于将原始数据进行规范化,以使之具有相同的尺度,此外,还可以用来消除原始数据中的偏差,以避免进入PCA分析时由于偏离正态分布而出现误差。
而主成分分析步骤主要是针对预处理步骤后的数据,将原来的若干变量合并在一起,形成一系列新的变量,也就是主成分。
PCA的优势及其应用领域在于它能够有效地降维,同时又能够保留原始数据的信息量和本质。
它可以将原有变量组合成一组新变量,有效地进行数据重构,使得平行度相对较高,并将数据更好地还原到原始空间,从而更加容易进行数据分析。
PCA应用于图像处理、信息检索、机器学习、金融建模、记忆资源管理等多个领域,其优势显而易见,使得PCA的应用越来越广泛。
PCA主成分分析原理
解决计算复杂度高的 问题
可以通过随机PCA、增量PCA等 方法解决计算复杂度高的问题。
处理非线性问题
可以通过核方法等方法将非线 性问题转化为线性问题,然后 再进行PCA计算。
PCA的实现及其相关工具
1
实现方法
PCA的实现方法有很多,包括基于特征值
PCA的优缺点及其局限性
优点
• PCA可以降低高维数据的维度,提高算法效率 • PCA可以提高数据的稳定性和可解释性
缺点
• PCA的计算复杂度较高,对大规模数据的处 理效率较低
• PCA对异常值和噪声较为敏感,结果会受到影响
PCA在图像处理中的应用
图像压缩
PCA可以将图像降低到低维度表 示,实现图像的压缩和传输。
PCA在机器学习中的应用
机器学习
机器学习是一种广泛应用的技术,用于利用数据和算法构建预测模型、分类器和优化系统。
应用
PCA可以将数据降低到一个合适的维度,提高机器学习算法的效率和准确度。
范例
PCA在人脸识别、文本分类、图像分割、异常检测等众多机器学习任务中都有应用。
PCA中常见问题的解决方法
处理缺失值
特征向量的性质和含义
特征向量具有方向性和正交性, 它们描述了数据在新坐标系中的 排列和变化。通过特征向量,我 们可以理解数据中不同维度的贡 献和含义。
PCA分析中特征值的分类与处理方法
正定矩阵
当协方差矩阵是正定矩阵时, 所有的特征值都是正数。这时 我们可以直接选择最大的n个特 征值对应的特征向量作为投影 矩阵,完成降维操作。
3 移动化
PCA可以进行更加轻量级 的实现,以适应移动设备 等较为薄弱的硬件环境。
主成分分析(PCA)原理详解
主成分分析(PCA)原理详解⼀、PCA简介1. 相关背景在许多领域的研究与应⽤中,往往需要对反映事物的多个变量进⾏⼤量的观测,收集⼤量数据以便进⾏分析寻找规律。
多变量⼤样本⽆疑会为研究和应⽤提供了丰富的信息,但也在⼀定程度上增加了数据采集的⼯作量,更重要的是在多数情况下,许多变量之间可能存在相关性,从⽽增加了问题分析的复杂性,同时对分析带来不便。
如果分别对每个指标进⾏分析,分析往往是孤⽴的,⽽不是综合的。
盲⽬减少指标会损失很多信息,容易产⽣错误的结论。
因此需要找到⼀个合理的⽅法,在减少需要分析的指标同时,尽量减少原指标包含信息的损失,以达到对所收集数据进⾏全⾯分析的⽬的。
由于各变量间存在⼀定的相关关系,因此有可能⽤较少的综合指标分别综合存在于各变量中的各类信息。
主成分分析与因⼦分析就属于这类降维的⽅法。
2. 问题描述下表1是某些学⽣的语⽂、数学、物理、化学成绩统计:⾸先,假设这些科⽬成绩不相关,也就是说某⼀科⽬考多少分与其他科⽬没有关系。
那么⼀眼就能看出来,数学、物理、化学这三门课的成绩构成了这组数据的主成分(很显然,数学作为第⼀主成分,因为数学成绩拉的最开)。
为什么⼀眼能看出来?因为坐标轴选对了!下⾯再看⼀组学⽣的数学、物理、化学、语⽂、历史、英语成绩统计,见表2,还能不能⼀眼看出来:数据太多了,以⾄于看起来有些凌乱!也就是说,⽆法直接看出这组数据的主成分,因为在坐标系下这组数据分布的很散乱。
究其原因,是因为⽆法拨开遮住⾁眼的迷雾~如果把这些数据在相应的空间中表⽰出来,也许你就能换⼀个观察⾓度找出主成分。
如下图1所⽰:但是,对于更⾼维的数据,能想象其分布吗?就算能描述分布,如何精确地找到这些主成分的轴?如何衡量你提取的主成分到底占了整个数据的多少信息?所以,我们就要⽤到主成分分析的处理⽅法。
3. 数据降维为了说明什么是数据的主成分,先从数据降维说起。
数据降维是怎么回事⼉?假设三维空间中有⼀系列点,这些点分布在⼀个过原点的斜⾯上,如果你⽤⾃然坐标系x,y,z这三个轴来表⽰这组数据的话,需要使⽤三个维度,⽽事实上,这些点的分布仅仅是在⼀个⼆维的平⾯上,那么,问题出在哪⾥?如果你再仔细想想,能不能把x,y,z坐标系旋转⼀下,使数据所在平⾯与x,y平⾯重合?这就对了!如果把旋转后的坐标系记为x',y',z',那么这组数据的表⽰只⽤x'和y'两个维度表⽰即可!当然了,如果想恢复原来的表⽰⽅式,那就得把这两个坐标之间的变换矩阵存下来。
主成分分析法原理
主成分分析法原理主成分分析(Principalcomponentanalysis,简称PCA)是一种实用性强的数据分析方法,它可以从大量复杂的数据中提取出显著的主要成分,从而使得数据的分析变得简单易行。
PCA的基本原理是,从原始的数据中找到一组投影矩阵,使得投影后的数据表现出最大的方差,并尽可能降低投影后数据之间的关联性,从而获得最低的维数。
首先,在讨论PCA之前,我们先要弄清楚什么是降维。
降维是指在保持数据重要性的情况下,将数据从高维空间转换到低维空间的一种过程。
它可以有效降低数据的复杂性,从而使数据分析变得更加简单容易。
PCA就是一种使用降维的数据分析方法,它的工作原理是尽可能保留原始数据中最具有代表性的特征,同时尽可能减少数据之间的冗余。
PCA的过程可以归结为几个步骤。
首先,需要对原始数据进行中心化处理,即减去均值,使得数据的均值变为0,以便下一步计算协方差矩阵。
然后,需要计算数据矩阵的协方差矩阵,即每个变量与其他变量之间的相关性,从而得出每个变量之间的关系。
接下来,需要计算协方差矩阵的特征值和特征向量,只需要保留其中有代表性的前几个特征值,即保留最显著的主成分,同时丢弃具有较低方差的特征值。
最后,将原始数据投影到主成分的基底上,从而获得PCA的结果。
PCA的应用非常广泛,在实际的数据分析中,它可以有效缩小数据量,提取出最重要的特征,并基于降维后的特征进行预测分析。
例如,在预测市场行为中,可以对原始数据使用PCA,从而减少数据的维度,并提取出最显著的特征,从而提高预测的准确性。
另外,在人脸识别中,可以使用PCA,将原始的复杂的图像信息减少到一定数量的主要特征,从而提高识别的准确性。
总之,PCA不仅可以有效的降低数据的维度,提取出最重要的特征,还可以显著提高数据分析和预测的准确性,是实际工作中必不可少的一种数据处理方法。
机器学习--主成分分析(PCA)算法的原理及优缺点
机器学习--主成分分析(PCA)算法的原理及优缺点⼀、PCA算法的原理 PCA(principle component analysis),即主成分分析法,是⼀个⾮监督的机器学习算法,是⼀种⽤于探索⾼维数据结构的技术,主要⽤于对数据的降维,通过降维可以发现更便于⼈理解的特征,加快对样本有价值信息的处理速度,此外还可以应⽤于可视化(降到⼆维)和去噪。
1、PCA与LDA算法的基本思想 数据从原来的坐标系转换到新的坐标系,新坐标系的选择是由数据本⾝决定的。
第⼀个新坐标轴选择的是原始数据中⽅差最⼤的⽅向,第⼆个新坐标轴选择和第⼀个坐标轴正交且具有最⼤⽅差的⽅向。
该过程⼀直重复,重复次数为原始数据中特征的数⽬。
我们会发现,⼤部分⽅差都包含在最前⾯的⼏个新坐标轴中。
因此,我们可以忽略余下的坐标轴,即对数据进⾏降维处理。
2、数学推导过程 PCA本质上是将⽅差最⼤的⽅向作为主要特征,并且在各个正交⽅向上将数据“离相关”,也就是让它们在不同正交⽅向上没有相关性。
求解思路:⽤⽅差来定义样本的间距,⽅差越⼤表⽰样本分布越稀疏,⽅差越⼩表⽰样本分布越密集。
⽅差的公式如下: 在求解最⼤⽅差前,为了⽅便计算,可以先对样本进⾏demean(去均值)处理,即减去每个特征的均值,这种处理⽅式不会改变样本的相对分布(效果就像坐标轴进⾏了移动)。
去均值后,样本x每个特征维度上的均值都是0,⽅差的公式转换下图的公式: 在这⾥,代表已经经过映射后的某样本。
对于只有2个维度的样本,现在的⽬标就是:求⼀个轴的⽅向w=(w1,w2),使得映射到w⽅向后,⽅差最⼤。
⽬标函数表⽰如下: 为求解此问题,需要使⽤梯度上升算法,梯度的求解公式如下: 3、PCA算法流程: (1)去平均值,即每⼀位特征减去各⾃的平均值; (2)计算协⽅差矩阵; (3)计算协⽅差矩阵的特征值与特征向量; (4)对特征值从⼤到⼩排序; (5)保留最⼤的个特征向量; (6)将数据转换到个特征向量构建的新空间中。
主成分分析法原理
主成分分析法原理主成分分析法(PrincipalComponentAnalysis,PCA)是一种常用的数据处理技术,可以将一组多变量的原始数据转换成一组较少数量的新变量,称为主成分,从而简化数据分析。
这一技术源自统计学,研究发展至今已被应用于各种领域,如医学、社会学、金融学、物理科学和经济学等。
本文将就主成分分析法原理及其应用展开讨论。
一、主成分分析法原理主成分分析法是一种经验模型,它的设计目的是从一组变量中找出其中存在的潜在的结构,以最大限度的信息内容和最小的变量数量保存在一起,特别是对于那种变量数量多于样本数量的情况。
主成分分析法的基本过程是,先从多个变量中提取出一组新的解释变量,称为主成分;然后通过把原始变量转换成主成分来进行数据处理;最后,把主成分转换回原变量,完成数据的分析和处理。
主成分分析法的基本原理是通过找到一组新的变量,构成一组独立的“基”,并通过线性组合的方式,把原始变量转换成一组新的变量。
这些新变量有一定的排列性质,彼此之间是线性相关的,而且排列顺序也有一定的规律,显示出原始数据中存在的内在结构特征。
主成分分析法属于一类称为“特征处理”的数据处理技术,其主要优势在于能将原始数据中存在的内在结构和特征得以保留,同时又可以使用更少的变量来描述原始数据。
因此,主成分分析法可以有效地减少数据量,同时又将原始变量的信息保留得更完整。
二、主成分分析法的应用由于主成分分析法能够从大量的原始变量中提取出相对少量的有效变量,因此应用较为广泛,常被用于预测、统计分析以及图像处理等方面。
在预测中,主成分分析法常常被用于构建预测模型,它可以有效地减少变量数量,同时又保留原始变量中存在的重要特征,使得预测精度有了极大的提升。
在统计分析中,主成分分析法可以对多元数据进行深入的统计分析,通过构建一组新变量从而解决原始数据中变量之间存在的多重关联性问题。
在图像处理方面,主成分分析法也有较多应用,它可以把图像中的像素替换为一组主要成分,使得图像更容易储存、处理和传输。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
PCA原理1
因为经常做一些图像和信号处理的工作,要用到主元分析(Principal Components Analysis)作为工具。
写出来供自己和朋友参考。
PCA是一种统计技术,经常应用于人面部识别和图像压缩以及信号去噪等领域,是在高维数据中提取模式的一种常用技术。
要了解PCA首先要了解一些相关的数学知识,这里主要介绍协方差矩阵、特征值与特征矢量的概念。
1、协方差矩阵
协方差总是在两维数据之间进行度量,如果我们具有超过两维的数据,将会有多于两个的协方差。
例如对于三维数据(x, y, z维),需要计算cov(x,y),cov(y,z)和cov(z,x)。
获得所有维数之间协方差的方法是计算协方差矩阵。
维数据协方差矩阵的定义为
(1)
这个公式告诉我们,如果我们有一个n维数据,那么协方差矩阵就是一个n行n 列的方矩阵,矩阵的每一个元素是两个不同维数据之间的协方差。
对于一个3维数据(x,y,z),协方差矩阵有3行3列,它的元素值为:
(2)
需要注意的是:沿着主对角线,可以看到元素值是同一维数据之间的协方差,这正好是该维数据的方差。
对于其它元素,因为cov(a,b)=cov(b,a),所以协方差矩阵是关于主对角线对称的。
2、特征值和特征矢量
只要矩阵大小合适,就可以进行两矩阵相乘,特征矢量就是其中的一个特例。
考虑图2.1中两个矩阵和矢量乘法。
图2.1 一个非特征矢量和一个特征矢量的例子
图2.2 一个缩放的特征矢量仍然是一个特征矢量
在第一个例子中,结果矢量不是原来因子矢量与整数相乘,然而在第二个例子中,结果矢量是原来因子矢量的4倍,为什么会这样呢?该矢量是一个2维空间矢量,表示从原点(0,0)指向点(3,2)的箭矢。
方矩阵因子可以看作是转换矩阵,一个矢量左乘该转换矩阵,意味着原始矢量转换为一个新矢量。
特征矢量来自于转换特性。
设想一个转换矩阵,如果用其左乘一个矢量,映射矢量是它自身,这个矢量(以及它的所有尺度缩放)就是该转换矩阵的特征矢量。
特征矢量有什么特性呢?首先只有方阵才有特征矢量,而且并不是所有方阵都有特征矢量,如果一个nXn方阵有特征矢量,那么它有n个特征矢量。
特征矢量的另外一个性质是对特征矢量的缩放会得到缩放前同样地结果,如图2.2所示,这是因为你对矢量的缩放只是改变它的长度,不会改变它的方向。
最后,矩阵的所有特征矢量是正交的。
这是一个非常重要的性质,因为这意味着你可以在这些正交矢量上表示一组数据,而不仅是在x和y轴上。
在下面的PCA 小节内我们将作这个工作。
另外一个需要了解的是数学家寻找特征矢量,总喜欢寻找长度为1的那一个特征矢量,这是因为矢量的长度不影响它是否是特征矢量,因此,为了保证特征矢量是标准的矢量,我们通常将特征矢量的长度缩放为1,从而所有的特征矢量都有相同的长度。
怎样去找到这些神秘的特征矢量呢?不幸的是,只有对相当小维数的矩阵才有简单地方法,比如不超过3X3,对于较大维数的矩阵,需要复杂的迭代算法。
特征值是与特征矢量极其相关的,事实上,在图2.1中我们已经看到了一个特征值。
注意在两个例子中,原始矢量左乘方阵后与矢量缩放数一样。
在这个例子中,缩放数为4。
4就是对应该特征矢量的特征值。
不管在左乘方阵之前如何缩放特征矢量,我们总是得到该矢量的4倍(如图2.2)。
所以特征值和特征矢量总是成对出现,当你使用程序计算特征矢量时,你总是同时得到对应的特征值。
3、主成分分析(PCA)
最后我们将进行主成分分析的介绍,那么什么是主成分分析呢?它是一种在数据中辨别模式的方法,表达数据的相似与不同之处的方法。
因为高维数据的模式难以发现——图形表述不可用,PCA是一个有力的数据分析工具。
PCA的另外一个重要优势是,一旦你找到了数据的这些模式,你可以压缩它,也就是在不丢失很多信息的基础上,降低数据的维数。
在下一节将会看到,这种技术被用于图像压缩。
本节将一步一步地带你对一组数据进行PCA操作。
我将不具体描述该技术为什么适用,只是介绍怎样使用该技术。
§3.1 方法
第一步:获得数据
在我简单的例子中,将使用我自己制作的2维数据,使用2维数据的原因是我可以提供这些数据的图形,以便直观地观察PCA的操作步骤。
下面就是我使用的数据
x=[2.5, 0.5, 2.2, 1.9, 3.1, 2.3, 2, 1, 1.5, 1.1]T
y=[2.4, 0.7, 2.9, 2.2, 3.0, 2.7, 1.6, 1.1, 1.6, 0.9]T
第二步:减去均值
要使PCA正常工作,必须减去数据的均值。
减去的均值为每一维的平均,所有的x值都要减去,同样所有的y值都要减去,这样处理后的数据都具有0均值。
x=[0.69, -1.31, 0.39, 0.09, 1.29, 0.49, 0.19, -0.81, -0.31, -0.71]T
y=[0.49, -1.21, 0.99, 0.29, 1.09, 0.79, -0.31, -0.81, -0.31, -1.01]T;
第三步:计算协方差矩阵
因为数据是2维的,它的协方差矩阵就是2X2维的,这里直接给出结果:
因为非对角元素是正的,我们可以期望和变量一起增大。
第四步:计算协方差矩阵的特征矢量和特征值
因为协方差矩阵为方阵,我们可以计算它的特征矢量和特征值,它可以告诉我们数据的有用信息。
我们数据的特征值和特征矢量分别为
我们可以看到这些矢量都是单位矢量,也就是它们的长度为1,这对于PCA是非常重要的,幸运的是,大多数数学程序包,当你计算特征矢量时,总是会得到单位特征矢量。
第五步:选择成分组成模式矢量
现在可以进行数据压缩降低维数了。
如果你观察上一节中的特征矢量和特征值,会注意到那些特征值是十分不同的。
事实上,可以证明对应最大特征值的特征矢量就是数据的主成分。
在我们的例子中,对应大特征值的特征矢量就是那条穿过数据中间的矢量,它是数据维数之间最大的关联。
一般地,从协方差矩阵找到特征矢量以后,下一步就是按照特征值由大到小进行排列,这将给出成分的重要性级别。
现在,如果你喜欢,可以忽略那些重要性很小的成分,当然这会丢失一些信息,但是如果对应的特征值很小,你不会丢失很多信息。
如果你已经忽略了一些成分,那么最后的数据集将有更少的维数,精确地说,如果你的原始数据是n维的,你选择了前p个主要成分,那么你现在的数据将仅有p维。
现在要做的是你需要组成一个模式矢量,这只是几个矢量组成的矩阵的一个有意思的名字而已,它由你保持的所有特征矢量构成,每一个特征矢量是这个矩阵的一列。
对于我们的数据集,因为有两个特征矢量,因此我们有两个选择。
我们可以用两个特征矢量组成模式矢量:
我们也可以忽略其中较小特征值的一个特征矢量:
下一节我们将会看到它们的结果。
x=[-0.828, 1.778, -0.992, -2.742, -1.676, -0.913, 0.099, 1.145, 0.438,1.224]T
第六步:获得新数据
这是PCA最后一步,也是最容易的一步。
一旦你选择了须要保留的成分(特征矢量)并组成了模式矢量,我们简单地对其进行转置,并将其左乘原始数据的转置:
其中rowFeatureVector是由特征矢量作为列组成的矩阵的转置,因此它的行就是原来的特征矢量,而且对应最大特征值的特征矢量在该矩阵的最上一行。
rowdataAdjust是减去均值后的数据,即数据项目在每一列中,每一行就是一维。
FinalData是最后得到的数据,数据项目在它的列中,维数沿着行。
这将给我们什么结果呢?这将仅仅给出我们选择的数据。
我们的原始数据有两个轴(x和y),所以我们的原始数据按这两个轴分布。
我们可以按任何两个我们喜欢的轴表示我们的数据。
如果这些轴是正交的,这种表达将是最有效的,这就是特征矢量总是正交的重要性。
我们已经将我们的数据从原来的xy轴表达变换为现在的单个特征矢量表达。
如果我们已经忽略了一些特征矢量,则新数据将会用我们保留的矢量表达。
§3.2 恢复原来的数据
4、写的累了,就这样吧。