主成分分析算法解析
主成分分析简介及其应用场景
主成分分析简介及其应用场景主成分分析(Principal Component Analysis,PCA)是一种常用的数据降维技术,通过线性变换将原始数据转换为一组各维度之间线性无关的新变量,这些新变量被称为主成分。
主成分分析可以帮助我们发现数据中的模式、结构和关系,从而更好地理解数据并进行有效的数据分析和可视化。
本文将介绍主成分分析的基本原理、算法流程以及在实际应用中的场景和优势。
### 主成分分析的基本原理主成分分析的基本思想是将高维数据转换为低维数据,同时尽可能保留原始数据的信息。
在主成分分析中,我们希望找到一组新的坐标系,使得数据在新坐标系下的方差最大化。
换句话说,我们希望找到一组主成分,它们能够最好地解释数据的变异性。
具体来说,假设我们有一个包含n个样本和m个特征的数据集X,其中每个样本有m个特征值。
我们的目标是找到一个d维的子空间(d < m),使得数据在这个子空间中的方差最大。
这个子空间的基向量构成了主成分。
### 主成分分析的算法流程主成分分析的算法流程可以简单概括为以下几步:1. 数据标准化:对原始数据进行标准化处理,使得每个特征的均值为0,方差为1。
2. 计算协方差矩阵:计算标准化后的数据的协方差矩阵。
3. 特征值分解:对协方差矩阵进行特征值分解,得到特征值和特征向量。
4. 选择主成分:选择最大的d个特征值对应的特征向量作为主成分。
5. 数据转换:将原始数据投影到选定的主成分上,得到降维后的数据。
通过以上步骤,我们可以得到一个低维的表示,其中包含了原始数据中最重要的信息。
### 主成分分析的应用场景主成分分析在各个领域都有广泛的应用,以下是一些主成分分析常见的应用场景:1. 数据可视化:主成分分析可以帮助我们将高维数据可视化在二维或三维空间中,更直观地展示数据的结构和关系。
2. 特征提取:在机器学习和模式识别中,主成分分析常用于特征提取,帮助减少特征维度,提高模型的泛化能力。
环境数据分析中的主成分分析算法
环境数据分析中的主成分分析算法主成分分析(Principal Component Analysis,PCA)是一种常用的多变量分析方法。
在环境数据分析中,主成分分析经常被用来分析环境指标之间的关系,寻找环境状况的主要驱动因素,以及帮助环境管理人员制定科学的环境治理方案。
一、什么是主成分分析?主成分分析是一种数学方法,可以将原始数据集合中的大量变量降维到少量的主成分上,并保留原始数据间的相关性和方差。
主成分分析通过找到原始数据中的主要变化方向,把原始数据降维为新的一组不相关的变量,使得数据更容易理解和处理。
主成分分析通常被应用于数据分析中,用于发现数据中的模式和趋势,并帮助研究人员更好地理解数据。
主成分分析的基本思想是将一组相关变量降维为一组不相关变量,使得数据在新的坐标系下更容易解释。
主成分分析通常被用于多元统计分析、信号处理、图像处理、机器学习等领域中。
二、主成分分析在环境数据分析中的应用主成分分析在环境数据分析中的应用非常广泛,主要应用于以下方面:1. 环境质量评价主成分分析可以帮助环境管理人员找到环境污染的主要源头,分析环境污染产生的原因和趋势,以及制定环境治理和改善方案。
例如,可以利用主成分分析对降水中的环境污染物进行分析,寻找污染源、确认重点污染物,并建立相应的监测和报警机制,从而减少环境污染对人类健康和生态环境的影响。
2. 建立环境模型主成分分析可以帮助环境研究人员建立环境模型,模拟环境系统的动态演化过程,预测环境质量变化趋势,制定未来环境保护和治理的战略方案。
例如,可以利用主成分分析对河流水质进行建模,预测河流水质的变化趋势,并提出针对性的措施和建议,以保证河流生态系统的稳定和可持续发展。
3. 环境监测主成分分析可以帮助环境监测人员对环境数据进行分析和处理,提高环境监测的效率和准确率。
例如,可以利用主成分分析对空气质量监测数据进行处理和分析,找出污染物的来源和类型,并优化监测站点的布局和监测方案,从而提供更精准和可靠的环境监测数据,以保障公众的健康和生态系统的稳定。
PCA(主成分分析)降维算法详解和代码
PCA(主成分分析)降维算法详解和代码PCA的原理:1.中心化数据:对原始数据进行中心化处理,即将每个特征减去其均值,使得数据以原点为中心。
2.计算协方差矩阵:计算中心化后的数据的协方差矩阵。
协方差矩阵描述了不同特征之间的关系和相关性。
3.计算特征值和特征向量:对协方差矩阵进行特征值分解,得到特征值和对应的特征向量。
特征值代表每个特征的重要性,特征向量表示特征的方向。
4.选择主成分:根据特征值的大小,选择最大的k个特征值对应的特征向量作为主成分。
5.降维:将原始数据投影到所选主成分上,得到降维后的数据。
投影后的数据保留了最重要的特征,且维度减少。
PCA的代码实现:下面是一个基于Numpy库实现PCA算法的示例代码:```pythonimport numpy as npdef pca(X, k):#中心化数据X = X - np.mean(X, axis=0)#计算协方差矩阵cov = np.cov(X.T)#特征值分解eigvals, eigvecs = np.linalg.eig(cov)#选择主成分idx = np.argsort(eigvals)[::-1][:k]eigvecs = eigvecs[:, idx]#降维X_pca = np.dot(X, eigvecs)return X_pca#测试X = np.random.rand(100, 5) # 生成100个样本,每个样本有5个特征k=2#目标降维维度X_pca = pca(X, k)print(X_pca.shape) # 输出降维后的数据维度```在上述代码中,使用`numpy`库进行了主成分分析的各个步骤。
首先,通过计算均值,对原始数据进行中心化。
然后,使用`cov`函数计算协方差矩阵,并通过`numpy.linalg.eig`函数进行特征值分解。
接下来,通过`argsort`函数对特征值进行排序,选择前k个特征值对应的特征向量作为主成分。
主成分分析的基本原理
主成分分析的基本原理主成分分析(Principal Component Analysis,简称PCA)是一种常用的降维技术,用于在数据集中找到最具代表性的特征。
它通过线性变换将原始数据投影到一个新的坐标系中,使得新坐标系下的特征具有最大的方差。
本文将介绍主成分分析的基本原理及其应用。
一、基本原理主成分分析的目标是找到能够最大化数据方差的投影方向。
设有一个包含n个样本的m维数据集X,其中X={x1,x2,…,xn},每个样本包含m个特征。
首先对数据进行中心化处理,即将每个维度的特征减去该维度在整个数据集上的均值,得到新的数据集X'={x'1,x'2,…,x'n}。
通过求解数据集X'的协方差矩阵C,可得到该矩阵的特征向量和特征值。
特征向量表示了数据在各个主成分上的投影方向,特征值表示了数据在该方向上的方差。
为了实现降维,需要选择前k个最大特征值对应的特征向量作为新的投影方向。
这些特征向量构成了数据集在新坐标系上的主成分,并且它们是两两正交的。
将原始数据集X投影到这k个主成分上,即可得到降维后的数据集Y={y1,y2,…,yn}。
其中,每个样本yi={yi1,yi2,…,yik},表示样本在新坐标系上的投影结果。
二、应用场景主成分分析在数据分析和模式识别中有广泛的应用。
以下是几个常见的应用场景:1. 数据可视化主成分分析可以将高维数据降低到二维或三维空间,使得数据可以被可视化展示。
通过可视化,可以更好地理解数据之间的关系,发现隐藏在数据中的模式和规律。
2. 特征选择在机器学习和数据挖掘中,特征选择是一个重要的任务。
通过主成分分析,可以选择最具代表性的特征,减少特征的维度,并保留数据中的关键信息。
这有助于提高模型的性能和减少过拟合的风险。
3. 去除冗余当数据集中存在冗余特征时,主成分分析可以帮助我们发现这些特征,并将其去除。
剩下的主成分可以更好地表示数据集,减少数据的冗余信息,提高数据的效率和精确性。
第16章 主成分分析
第一主成分,即新坐标系的 y1轴,那么等价于将数据投影 在椭圆长轴上, 用这个主轴 表示数据,将二维空间的数 据压缩到一维空间中。
例
• 假设有两个变量x1和x2,三个样本点A、B、C,样本分布在由x1和 x2轴组成的坐标系中
• 对坐标系进行旋转变换,得到新的
坐标轴y1,表示新的变量y1
• 新坐标系的第一坐标轴、第二坐标轴等分别表示第一主成分、 第二主成分等
• 数据在每一轴上的坐标值的平方表示相应变量的方差 • 这个坐标系是在所有可能的新的坐标系中,坐标轴上的方差的和最大的
例
• 数据由线性相关的两个变量x1和x2表示
• 主成分分析对数据进行
正交变换,对原坐标系进行 旋转变换,并将数据在 新坐标系表示
素,所以 •即
• 因为 时,
最大
,能找到 使得
主成分的个数
• 而当
时,有
满足
• 所以,当
时,
达到最大值
• 定理16.2表明,当x的线性变换y在
的迹
取得最大值
,其协方差矩阵
• 这就是说,当取A的前q列取x的前q个主成分时,能够最大限度地 保留原有变量方差的信息。
主成分的个数
• 当舍弃A的后p列,即舍弃变量x的后p个主成分时,原有变量的方 差的信息损失最少。
• 假设 是 的最大特征值 对应的单位特征向量,显然 与 是最优化问题的解
• 所以, 构成第一主成分,其方差等于协方差矩阵的最大特征 值
主要性质
• 接着求x的第二主成分
,且
与
中使方差
。第二主成分的 是在 不相关的条件下,x的所有线性变换
达到最大的
• 求第二主成分需要求解约束最优化问题
主成分分析算法解析
也就是说,Y1的最大方差为
,其相应的单位化特征向量是
1
1
Y k 的最大方差为第k大特征根 k ,其相应的单位化特征向量是 k
主成分分析的数学推导
由上述推导,我们得到以下结论:设
X[X1,X2,...,Xn]T的协方差矩阵为Σ,
其特征根为 12n0
相应的单位化特征向量为1,2,...,n
则由此所确定的主成分是
返回
主成分分析的数学描述
主成分分析就是针对原始数据,要寻求那些主成分 并以它们为坐标轴构建一个新的坐标系,使得原始 数据在新坐标轴上的投影的方差最大。
主成分分析可用数学语言描述为:给定n维空间中的m个数据 (如图像信息、工业参数、基因指标等),寻求一个nxn维的 变换矩阵W,使得Y=[y1,y2,…,ym]=WTX,而且满足新坐标系 下各维之间数据的相关性最小,或者说一个去相关性的过程。
θ
X1
主成分分析在二维空间的几何意义
经过坐标变换可以看到,在新坐标系y1Oy2下m个散点 的坐标Y1和Y2几乎不相关。散点总是沿着y1和y2方向 分布,它们在y1轴上的方差达到最大,在y2轴上的方差 次之,所以在这两个方向上散点的离散程度很小。
在这里,我们把Y1称为第一主成分,Y2称为第二主成 分。
构造目标函数 1 (1 ,)1 T 1 (1 T1 1 )
并对目标函数 1 微分,有
即
1 1
2121 0
(I)1 0
两边分别左乘
T 1
,可得
1T 1
主成分分析的数学推导
(I)10是X的协方差矩阵 的特征方程,因为
是非负定的,所以特征根均大于0,假设12n0
由式 1T 1 可知Y1的方差为
pca算法的基本原理
pca算法的基本原理
PCA全称为Principal Component Analysis,翻译成中文就是主成分分析。
它是一种数据降维的方法,可以将高维度的数据转换为低维度的数据,同时保留大部分原始数据的特征。
PCA算法的基本原理如下:
1. 特征提取:对于给定的数据集,首先需要找到其中最重要的特征,即数据集中的主成分。
主成分是指与原始数据最为相关的特征向量,或者说是最能代表原始数据特征的线性组合。
这些特征向量就是数据中的主轴方向,通过它们能够最大程度地解释整个数据集的方差。
通常情况下,只需要选择前几个主成分,就能够保留大部分数据特征。
2. 降维处理:在得到数据集的主成分之后,可以使用这些主成分将原始数据降维到一个低维度的空间。
在这个低维度空间中,数据点之间的距离和分布与原始数据点之间的距离和分布相似。
降维后的数据集可以更容易处理,从而加快了数据分析的速度。
3. 矩阵运算:PCA算法的核心是矩阵运算。
一般来说,PCA算法的实现需要计算数据集的协方差矩阵,通过对协方差矩阵进行SVD分解,即奇异值分解,得到主成分和对应的特征向量。
这些特征向量决定了数据的最主要的方向,可以用来降低数据的维度。
4. 可视化:通过PCA算法得到的降维数据可以进行可视化,便于数据分析和展
示。
在可视化过程中,考虑到主成分中的权重差异,需要进行合适的权重调整才能得到更好的可视化效果。
总之,PCA算法是一种重要的数据降维算法,在数据分析中有着广泛的应用。
主成分分析
主成分分析主成分分析(Principal Component Analysis,简称PCA)是一种常用的降维技术,它可以从高维数据中提取出最重要的特征,并将其映射到一个低维空间中。
通过降维,可以简化数据分析过程,减少计算复杂度,去除冗余信息,同时保留了数据主要的结构和规律。
本文将详细介绍主成分分析的原理、算法和应用。
一、主成分分析的原理主成分分析的目标是找到一组新的变量,称为主成分,这些主成分是原始数据中更高次特征的线性组合。
其中,第一主成分是数据中最大方差对应的一个线性组合,第二主成分是与第一主成分不相关的捕捉第二大方差的线性组合,以此类推。
主成分的数量等于原始数据的特征数。
主成分分析的基本思想是通过线性变换将高维数据映射到低维空间上,使得降维后的数据能够尽可能地保留原始数据的信息。
在降维过程中,主成分分析还会对不同特征之间的相关性进行考虑,以达到尽量保留原有信息的目的。
二、主成分分析的算法主成分分析的算法可以分为以下几个步骤:1. 数据标准化:首先对原始数据进行预处理,将每个特征按照零均值和单位方差的方式进行标准化。
这样可以保证特征之间的量纲一致,降低不同特征对主成分的影响。
2. 计算协方差矩阵:通过计算标准化后的数据的协方差矩阵来度量不同特征之间的相关性。
协方差矩阵的对角线元素为各个特征的方差,非对角线元素为各个特征之间的协方差。
3. 特征值分解:对协方差矩阵进行特征值分解,可以得到特征值和对应的特征向量。
特征值表示某个主成分所解释的总方差,特征向量表示主成分的方向。
4. 选择主成分:根据特征值的大小排序,选择前k个特征向量对应的主成分作为降维后的新特征。
5. 映射原始数据:将原始数据通过特征向量的线性组合映射到低维空间上,得到降维后的数据。
三、主成分分析的应用主成分分析在许多领域都有广泛的应用,下面介绍其中的几个典型应用。
1. 数据压缩:主成分分析可以将高维数据映射到低维空间,从而实现数据的压缩。
主成分分析法
主成分分析法主成分分析(Principal Component Analysis,简称PCA)是一种常用的降维方法,它通过线性变换将高维数据转换为低维数据,从而提取出数据的最主要特征。
本文将详细介绍主成分分析的原理、应用以及算法流程。
一、原理主成分分析是一种基于统计学的数据降维方法。
其基本思想是将原始数据通过线性变换,得到一组新的不相关变量,即主成分,用来代替原始变量。
这些主成分在不同维度上的方差依次递减,即第一主成分包含最多的原始变量信息,第二主成分包含不重叠的信息量,以此类推。
主成分分析的目标是最大化原始数据的方差,从而保留尽可能多的信息。
首先,通过计算协方差矩阵来评估各个变量之间的相关性,然后通过特征值分解找出协方差矩阵的特征向量,即主成分。
最后,根据特征值的大小来选择保留的主成分个数。
二、应用主成分分析广泛应用于数据预处理、特征提取和数据可视化等领域。
以下是主成分分析的几个典型应用:1. 数据降维:主成分分析可以将高维数据转换为低维数据,从而减少计算量和存储空间,并提高模型的计算效率。
2. 特征提取:主成分分析可以将原始数据中高度相关的特征转换为互不相关的主成分,保留了原始数据的主要信息。
这样可以提高模型的训练速度和泛化能力。
3. 图像压缩:主成分分析可以将图像的冗余信息去除,从而实现图像的压缩和存储。
通过保留图像中的主要特征,可以在减少存储空间的同时保持图像的质量。
4. 数据可视化:主成分分析可以将高维数据映射到二维空间,从而实现数据的可视化。
通过显示主成分的分布,可以更好地理解数据之间的关系,并发现数据中的模式和异常。
三、算法流程主成分分析的算法流程如下:1. 数据标准化:将原始数据进行标准化处理,使得每个变量具有相同的尺度,从而避免变量之间的差异对主成分的影响。
2. 计算协方差矩阵:根据标准化后的数据计算协方差矩阵,该矩阵表示各个变量之间的相关性。
3. 特征值分解:对协方差矩阵进行特征值分解,得到特征值和特征向量。
主成分分析数据
主成分分析数据主成分分析(Principal Component Analysis,简称PCA)是一种常用的数据降维和特征提取方法,广泛应用于数据分析和机器学习领域。
本文将介绍PCA的原理、应用和优缺点。
一、原理PCA的核心思想是将高维数据转化为低维空间,同时尽可能保留数据的关键信息。
具体而言,PCA通过寻找一组正交基,使得数据在这组基上的投影方差最大化。
这组基即为主成分,可以通过特征值分解、奇异值分解等方法得到。
二、应用1. 数据降维:PCA可以将高维数据降维到低维空间,减少数据的复杂性和噪声干扰,提高数据分析和处理效率。
2. 特征提取:PCA可以提取数据的主要特征,去除冗余信息,辅助建模和预测。
3. 数据可视化:PCA可以将高维数据映射到二维或三维空间,在保持数据特征的同时,将数据可视化展示,便于理解和分析。
三、优缺点1. 优点:(1)降低数据维度,减少存储空间和计算复杂度。
(2)保留数据中的主要特征,提高模型的准确性和解释性。
(3)对数据分布没有要求,适用于各种类型的数据。
2. 缺点:(1)PCA是线性投影方法,对于非线性关系的数据表现不佳。
(2)降维后的特征不易解释,不如原始特征直观。
(3)PCA对异常值较为敏感,可能对数据的异常部分有较大的影响。
综上所述,PCA作为一种常用的数据降维和特征提取方法,在各种数据分析和机器学习任务中得到广泛应用。
它可以帮助我们处理高维数据,提高模型的准确性和解释性。
然而,PCA也有一些局限性,需要根据具体场景和问题选择合适的方法。
因此,在使用PCA时需要综合考虑数据类型、特征分布和模型需求等因素,合理应用该方法,以实现更好的效果。
希望通过本文的介绍,读者们对PCA有一定的了解,并能够在实际应用中正确使用和理解该方法。
主成分分析的算法
主成分分析的算法主成分分析(Principal Component Analysis,简称PCA)是一种常用的数据分析算法,用于处理多变量数据集。
它会将原来有多个关联变量的数据降维成几个不相关、但具有相关性的变量。
PCA经常用于概括一个数据集的拟合方式,也常被应用于降低计算,实现变量绘图和模式发现。
一、PCA的基本原理主成分分析(PCA)是一种数据变换和降维技术,它的目的是将原始数据变换成一组新的数据集,这组新的数据集的维度较低,同时站点比原始数据更好地捕捉更多数据的规律。
这组新的数据集就是PCA变换之后的结果,也就是主成分。
PCA最核心的是将原始数据从高维空间(多变量)映射到低维空间(一维到三维)。
具体来说,即将多个数据变量的线性组合,映射到更少的变量上,而且变换后的变量间成立线性关系,整个变换过程可以被称为降维。
实质上,变换后的变量组合可以有效的揭示原始数据的结构,也就是将原始数据进行变换,简化数据对其属性的表达,从而更好的分析和发现必要的信息。
二、PCA的步骤1. 数据标准化处理:首先,进行数据标准化处理,即将原始数据的每个变量标准化,使其均值为0和标准差为1。
这步操作其实是为了方便后续步骤的计算。
2. 计算协方差矩阵:计算数据协方差矩阵,即原始数据点之间的协方差。
3. 计算特征值和特征向量:计算协方差矩阵的特征值和特征向量。
特征值就是一个实数,用以衡量特征向量的大小,而特征向量是一个方向,负责表示原始数据的某种特征。
4. 根据特征值进行排序:根据计算出来特征值对特征向量进行排序,选择具有较大特征值的特征向量构成主成分。
5. 根据设定的阈值选取主成分:根据主成分的特征值,阈值设定,选取具有较大性能的主成分来组合构成新的变量坐标。
三、PCA的聚类应用聚类分析的目的是将一组数据划分为相似的组,依据数据特征和关系把观对用类概念来描述或表达。
主成分分析可以有效地减少聚类分析过程中使用数据维度,并且在推动聚类结果的准确性及减少数据维度这两方面起到双重作用,并且也可以在后续聚类分析工作过程中起到较小精度,更少时间复杂度的作用。
机器学习--主成分分析(PCA)算法的原理及优缺点
机器学习--主成分分析(PCA)算法的原理及优缺点⼀、PCA算法的原理 PCA(principle component analysis),即主成分分析法,是⼀个⾮监督的机器学习算法,是⼀种⽤于探索⾼维数据结构的技术,主要⽤于对数据的降维,通过降维可以发现更便于⼈理解的特征,加快对样本有价值信息的处理速度,此外还可以应⽤于可视化(降到⼆维)和去噪。
1、PCA与LDA算法的基本思想 数据从原来的坐标系转换到新的坐标系,新坐标系的选择是由数据本⾝决定的。
第⼀个新坐标轴选择的是原始数据中⽅差最⼤的⽅向,第⼆个新坐标轴选择和第⼀个坐标轴正交且具有最⼤⽅差的⽅向。
该过程⼀直重复,重复次数为原始数据中特征的数⽬。
我们会发现,⼤部分⽅差都包含在最前⾯的⼏个新坐标轴中。
因此,我们可以忽略余下的坐标轴,即对数据进⾏降维处理。
2、数学推导过程 PCA本质上是将⽅差最⼤的⽅向作为主要特征,并且在各个正交⽅向上将数据“离相关”,也就是让它们在不同正交⽅向上没有相关性。
求解思路:⽤⽅差来定义样本的间距,⽅差越⼤表⽰样本分布越稀疏,⽅差越⼩表⽰样本分布越密集。
⽅差的公式如下: 在求解最⼤⽅差前,为了⽅便计算,可以先对样本进⾏demean(去均值)处理,即减去每个特征的均值,这种处理⽅式不会改变样本的相对分布(效果就像坐标轴进⾏了移动)。
去均值后,样本x每个特征维度上的均值都是0,⽅差的公式转换下图的公式: 在这⾥,代表已经经过映射后的某样本。
对于只有2个维度的样本,现在的⽬标就是:求⼀个轴的⽅向w=(w1,w2),使得映射到w⽅向后,⽅差最⼤。
⽬标函数表⽰如下: 为求解此问题,需要使⽤梯度上升算法,梯度的求解公式如下: 3、PCA算法流程: (1)去平均值,即每⼀位特征减去各⾃的平均值; (2)计算协⽅差矩阵; (3)计算协⽅差矩阵的特征值与特征向量; (4)对特征值从⼤到⼩排序; (5)保留最⼤的个特征向量; (6)将数据转换到个特征向量构建的新空间中。
主成分分析和聚类分析
主成分分析和聚类分析1.主成分分析(PCA)主成分分析是一种无监督学习方法,用于刻画数据集中的主要模式。
其基本思想是将高维数据转化为低维空间中的一组新变量,这些新变量被称为主成分。
主成分是原始数据按照方差大小依次降序排列的线性组合,其中第一主成分方差最大,第二主成分方差次之,以此类推。
通过对数据集的主成分进行分析,我们可以发现数据中的主要结构和关联,实现数据降维和可视化。
-标准化数据:对原始数据进行标准化处理,使得每个特征的平均值为0,方差为1-计算协方差矩阵:计算标准化后的数据的协方差矩阵。
-计算特征值和特征向量:对协方差矩阵进行特征值分解,得到特征向量和特征值。
-选择主成分:根据特征值的大小,选择前几个特征向量作为主成分。
-数据投影:将原始数据投影到主成分上,得到降维后的数据。
-数据可视化:通过主成分分析,可以将高维数据降维到二维或三维空间中,便于进行可视化展示。
-数据预处理:主成分分析可以用于去除数据中的冗余信息和噪声,提取数据中的主要结构。
-特征提取:主成分分析可以用于提取具有代表性的特征,用于后续的数据建模和分析。
-降低数据维度,去除冗余信息。
-可以发现数据的主要结构和关联。
-不受异常值的影响。
-主成分是基于方差最大化的,可能忽略其他重要信息。
-主成分的解释性较差。
2.聚类分析聚类分析是一种无监督学习方法,用于将数据集中的样本按照相似性进行分类。
聚类分析的目标是将数据集中的样本划分为不同的组别,每个组别内部的样本相似度高,不同组别之间的样本相似度低。
聚类分析的步骤如下:- 选择合适的聚类算法:根据数据的性质和目标,选择合适的聚类算法,如K-means聚类、层次聚类等。
-确定聚类数量:对于一些聚类算法,需要事先确定聚类的数量。
-计算相似度/距离:根据选择的聚类算法,计算样本之间的相似度或距离。
-执行聚类算法:将样本按照相似性进行聚类。
-评估聚类结果:对聚类结果进行评估,可以使用内部评估指标或外部评估指标。
PCA主成分分析算法和图像压缩编码理论
PCA主成分分析算法和图像压缩编码理论主成分分析(Principal Component Analysis,简称PCA)是一种常用的数据降维和特征提取方法。
它通过线性变换将原始数据映射为新的坐标系,使得数据在新坐标系下具有最大的方差。
在图像处理中,PCA被广泛应用于图像压缩编码和特征提取等任务。
PCA算法的核心思想是寻找一组新的变量,使得数据在这些新变量上的投影具有最大的方差。
这些新的变量即为主成分。
在进行PCA过程中,首先对数据进行标准化处理,即对各个特征进行均值缩放,使得每个特征的均值为0。
然后计算数据的协方差矩阵,通过对协方差矩阵进行特征分解,得到特征值和相应的特征向量。
特征值表示了数据在相应特征向量上的方差大小,特征向量则构成了新坐标系的基向量。
最后,选择方差最大的前k个特征值对应的特征向量作为主成分,将数据映射到主成分组成的子空间中。
在图像压缩编码中,PCA的主要任务是通过降低图像维度来减少存储空间和传输带宽。
由于图像数据具有很强的相关性,所以存在一些冗余信息,可以通过PCA算法来提取和保留图像中的主要特征,并去除冗余信息,从而实现图像的压缩。
具体而言,图像中的像素可以看作是数据中的特征,对图像进行PCA处理就是将图片中的像素数据进行降维,并将其表示为一组用于恢复图像的系数。
图像压缩编码的过程包含两个主要步骤:编码和解码。
在编码过程中,使用PCA算法对图像进行压缩,并将压缩后的系数进行编码。
在解码过程中,将编码后的系数解码,并通过反向PCA转换恢复原始图像。
由于PCA算法保留了数据的主要特征,相对少量的主成分可以重构出高质量的原始图像,实现了有效的图像压缩。
然而,PCA算法并不适用于所有的图像压缩编码场景。
由于PCA算法是一种无损压缩算法,所以在恢复图像时并不会损失任何信息,但是在压缩率较高时,可能会导致图像细节的丢失。
此外,对于一些复杂场景的图像,PCA算法可能无法提取到最相关的特征,从而导致压缩后的图像质量不理想。
对主成分分析法运用中十个问题的解析
对主成分分析法运用中十个问题的解析一、本文概述主成分分析法(Principal Component Analysis, PCA)是一种广泛应用于数据降维和特征提取的统计方法。
它通过正交变换将原始数据转换为新的坐标系,使得新坐标系中的各坐标轴(主成分)上的数据互不相关,并且按照方差大小依次排列。
这样,原始数据的大部分信息就可以由少数几个主成分来表示,从而实现数据降维和特征提取的目的。
然而,在应用主成分分析法时,我们常常会遇到一些问题,这些问题可能会影响分析结果的有效性和可靠性。
本文旨在对主成分分析法运用中常见的十个问题进行解析,帮助读者更好地理解和应用这一方法。
通过本文的阐述,读者将能够掌握主成分分析法的核心原理,了解其在应用中可能遇到的问题,以及如何解决这些问题,从而提高数据分析的准确性和效率。
二、数据预处理问题主成分分析(PCA)是一种广泛使用的无监督学习方法,用于从多元数据集中提取关键信息。
然而,在使用PCA之前,对数据进行适当的预处理是至关重要的,因为它可以显著影响PCA的结果。
以下是关于PCA运用中常见的十个数据预处理问题及其解析:缺失值处理:数据集中经常存在缺失值,这些缺失值在进行PCA之前必须进行处理。
一种常见的方法是用均值、中位数或众数来填充缺失值,或者完全删除含有缺失值的行或列。
选择哪种方法取决于数据的性质和分析的目标。
数据标准化:PCA对数据的尺度非常敏感。
因此,通常需要对数据进行标准化处理,即减去均值并除以标准差,以使每个特征的均值为0,标准差为1。
这样,PCA将不再受到特征尺度的影响。
异常值处理:异常值可能会对PCA的结果产生显著影响。
因此,在进行PCA之前,需要对数据进行检查,并决定如何处理异常值。
一种常见的做法是使用IQR(四分位距)来识别并删除或处理异常值。
数据转换:在某些情况下,对数据进行适当的转换可以提高PCA的效果。
例如,对于偏态分布的数据,可以使用对数转换或Box-Cox转换来使其更接近正态分布。
基于非负矩阵分解的主成分分析算法研究
基于非负矩阵分解的主成分分析算法研究随着科技的快速发展和各种数据的快速增长,我们需要的不仅是处理数据的速度更快的硬件设备,更需要的是一些更优秀的算法来帮助我们提取有效的数据信息。
在这方面,主成分分析算法是一个非常重要且广泛应用的算法。
主成分分析算法简介主成分分析算法(Principal Component Analysis,PCA)是一种常用于数据降维的方法。
它将高维数据降至低维,同时保留该数据的最重要的信息。
具体来说,PCA算法将原有数据中的各个维度进行线性组合,最后得到新的一组数据维度,让这些新的维度上的数据方差最大化,从而保留数据的重要信息。
PCA算法的关键在于如何找到这些新的数据维度。
一个比较经典的做法是基于特征值分解的方法,但是在高维数据处理中,这种方法往往会导致计算量过大,难以应用在实际问题中。
因此,基于非负矩阵分解的主成分分析算法应运而生。
基于非负矩阵分解的主成分分析算法基于非负矩阵分解的主成分分析算法(Non-negative Matrix Factorization,NMF)是基于NMF的思想进行求解的。
NMF是一种矩阵分解的方法,将矩阵分解为非负矩阵的乘积形式,它可以从原有数据中提取出局部特征和潜在成分,因此在图像处理、音频处理和文本处理中得到了广泛应用。
具体来说,NMF将原有数据矩阵分解为一个非负矩阵W和一个非负矩阵H的乘积,这里的W矩阵代表了主成分分析算法中新的数据维度,而H矩阵代表了每个数据点在新维度上的映射。
通常,W和H矩阵的元素均为非负数,这种非负性使得我们可以通过优化W和H的值来达到最小化数据重构误差的目的。
NMF与PCA的比较NMF方法和PCA方法都是常用的降维方法,但是它们在一些方面还是有所不同的。
首先,PCA方法对特征值分解的依赖程度较高,而在高维数据中会出现计算量过大的问题。
而NMF方法则没有这一点限制,它的计算复杂度随着数据维度的增加而线性增长,更适合处理高维数据。
主成分分析方法
主成分分析方法主成分分析(Principal Component Analysis,PCA)是一种常用的数据降维技术,它可以将高维数据转化为低维数据,同时保留数据的主要特征。
主成分分析方法在数据挖掘、模式识别、图像处理等领域被广泛应用,本文将介绍主成分分析的基本原理、算法步骤和应用场景。
1. 基本原理。
主成分分析的基本原理是通过线性变换将原始的特征空间转换为新的特征空间,新的特征空间是由原始特征的线性组合构成的,这些线性组合被称为主成分。
主成分分析的目标是找到能够最大程度保留原始数据信息的主成分,从而实现数据的降维。
2. 算法步骤。
主成分分析的算法步骤如下:(1)标准化数据,对原始数据进行标准化处理,使得每个特征的均值为0,方差为1。
(2)计算协方差矩阵,根据标准化后的数据计算特征之间的协方差矩阵。
(3)计算特征值和特征向量,对协方差矩阵进行特征值分解,得到特征值和对应的特征向量。
(4)选择主成分,按照特征值的大小,选择最大的k个特征值对应的特征向量作为主成分。
(5)数据转换,利用选定的主成分进行数据转换,将原始数据映射到新的低维空间中。
3. 应用场景。
主成分分析方法在实际应用中具有广泛的场景,例如:(1)数据可视化,通过主成分分析可以将高维数据转化为二维或三维数据,便于数据的可视化展示和分析。
(2)特征提取,在图像处理和模式识别领域,主成分分析可以用于提取图像的主要特征,从而实现图像的压缩和识别。
(3)数据预处理,在机器学习和数据挖掘任务中,主成分分析可以用于数据的降维处理,减少特征的数量和复杂度,提高模型的训练效率和预测准确度。
总结。
主成分分析是一种重要的数据分析方法,它通过线性变换将高维数据映射到低维空间,从而实现数据的降维和特征提取。
在实际应用中,主成分分析具有广泛的应用场景,能够帮助人们更好地理解和分析数据。
希望本文的介绍能够帮助读者更好地理解主成分分析方法,并在实际工作中加以应用。
主成分分析的特征向量与特征值计算
主成分分析的特征向量与特征值计算主成分分析(Principal Component Analysis, PCA)是一种常用的数据降维和特征提取方法。
在很多领域,特征向量和特征值计算是PCA的核心步骤,它们的准确性和可靠性直接影响着PCA的结果和效果。
一、理论基础特征向量和特征值是线性代数中的重要概念。
在PCA中,我们需要找到主成分,即数据集中方差最大的方向。
特征向量是这个方向上的正交单位向量,而对应的特征值表示数据在该方向上的方差。
二、特征值计算特征值计算的关键是求解数据集的协方差矩阵。
假设有m个样本和n个特征,我们首先需要对数据进行标准化处理,即将每个特征的均值归零,方差归一。
然后计算协方差矩阵C=1/m * X^T * X,其中X是m行n列的矩阵,每一行代表一个样本。
接下来,我们需要求解协方差矩阵的特征值和对应的特征向量。
这可以通过求解特征值问题C * v = λ * v来实现,其中v是特征向量,λ是特征值。
通过对协方差矩阵进行特征值分解,我们可以得到一组特征值和对应的特征向量。
三、特征向量计算特征向量的计算可以通过特征值分解得到。
对于每一个特征值λ,我们可以求解方程(C - λI)v = 0,其中I是单位矩阵,v是特征向量。
这个方程表示了协方差矩阵与特征向量的关系。
由于(C - λI)是奇异矩阵,所以解v的空间是一个n-1维子空间。
在PCA中,我们通常会选择前k个最大的特征值和对应的特征向量,将它们作为主成分。
这样就可以将原始数据映射到一个低维的空间,同时保留了大部分的数据信息。
四、特征向量和特征值的意义特征向量对应于协方差矩阵的主成分方向。
它们是一个已标准化的向量,可以表示一个正交的投影方向。
特征值表示了数据在特征向量方向上的方差,也就是此方向上的重要程度。
通过计算特征向量和特征值,我们可以了解数据集中的主要变动方向和程度。
根据特征值的大小排序,我们可以选择最重要的特征向量,从而实现数据降维和特征提取。
主成分分析注意事项
主成分分析注意事项主成分分析(Principal Component Analysis,PCA)是一种广泛应用于数据降维和数据可视化的统计方法。
本文将介绍主成分分析的注意事项,包括数据准备、算法理解和结果解释等方面。
下面分别进行详细阐述。
一、数据准备1. 数据类型:主成分分析适用于连续变量的数据,不适用于分类变量或非线性关系变量的分析。
如果数据包含分类变量,需要将其转换为虚拟变量(dummy variable)。
2. 数据缺失:需要对数据进行缺失值处理,可以通过删除、插补或者转换等方法来处理缺失值。
缺失值的处理方式会对主成分分析的结果产生一定影响,因此需要仔细选择合适的方法。
二、算法理解1. 协方差矩阵:主成分分析通过计算协方差矩阵来评估变量之间的线性关系。
因此,在进行主成分分析之前,应先计算出各个变量之间的协方差矩阵。
2. 特征值和特征向量:主成分分析将原始变量转换为一组线性无关的新变量,这些新变量通过特征值和特征向量来描述。
在计算主成分之前,我们需要对原始变量进行标准化,以确保各个变量具有相同的尺度。
三、结果解释1. 方差解释率:主成分分析的一个重要指标是方差解释率,它衡量了每个主成分所解释的总方差比例。
方差解释率越高,说明相应的主成分能够更好地捕捉原始数据的变异程度。
因此,在进行主成分分析后,应该关注方差解释率较高的主成分。
2. 主成分负荷:主成分负荷(loadings)可以衡量原始变量和每个主成分之间的相关性。
负荷值越大,说明原始变量在主成分中的权重越大,对主成分的解释能力也更强。
因此,在解释主成分时,可以通过观察变量的负荷值来确定主成分所代表的特征。
3. 主成分得分:主成分得分表示每个样本在每个主成分上的投影值。
我们可以根据主成分得分来研究样本之间的差异以及情况变量和主成分之间的关系。
可以使用主成分得分对样本进行分类、聚类或者可视化分析。
总结:主成分分析是一种常用的降维和数据可视化的方法。
主成分分析—PCA
主成分分析—PCA⼀.定义 主成分分析(principal components analysis)是⼀种⽆监督的降维算法,⼀般在应⽤其他算法前使⽤,⼴泛应⽤于数据预处理中。
其在保证损失少量信息的前提下,把多个指标转化为⼏个综合指标的多元统计⽅法。
这样可达到简化数据结构,提⾼分信息效率的⽬的。
通常,把转化⽣成的综合指标称为主成分,其中每个成分都是原始变量的线性组合,且每个主成分之间互不相关,使得主成分⽐原始变量具有某些更优越的性能。
⼀般,经主成分分析分析得到的主成分与原始变量之间的关系有:(1)每个主成分都是各原始变量的线性组合(2)主成分的数⽬⼤⼤骚鱼原始变量的数⽬(3)主成分保留了原始变量的绝⼤多数信息(4)各主成分之间互不相关⼆.过程 其过程是对坐标系旋转的过程,各主成分表达式就是新坐标系与原坐标系的转换关系,在新坐标系中,各坐标轴的⽅向就是原始数据变差最⼤的⽅向。
(参见《多元统计分析》P114-117,新坐标轴Y1和Y2,⽤X1和X2的线性组合表⽰,⼏何上是将坐标轴按逆时针⽅向旋转⼀定的⾓度⽽得出) 详细版:数据从原来的坐标系转换到新的坐标系。
转换坐标系时,以⽅差最⼤的⽅向作为新坐标轴⽅向(数据的最⼤⽅差给出了数据的最重要的信息)。
第⼀个新坐标轴选择的是原始数据中⽅差最⼤的⽅法,第⼆个新坐标轴选择的是与第⼀个新坐标轴正交且⽅差次⼤的⽅向。
重复以上过程,重复次数为原始数据的特征维数。
在重复中,我们不断地得到新的坐标系。
Generally,⽅差集中于前⾯⼏个综合变量中,且综合变量在总⽅差中所占的⽐重依次递减,⽽后⾯新的坐标轴所包含的⽅差越来越⼩,甚⾄接近0。
实际应⽤中,⼀般只要挑选前⼏个⽅差较⼤的主成分即可。
那么,我们如何得到这些包含最⼤差异性的主成分⽅向呢?事实上,通过计算数据矩阵的协⽅差矩阵,然后得到协⽅差矩阵的特征值及特征向量,选择特征值最⼤(也即包含⽅差最⼤)的N个特征所对应的特征向量组成的矩阵,我们就可以将数据矩阵转换到新的空间当中,实现数据特征的降维(N维)。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
主成分分析在图像处理中的应用
目标跟踪
运用模板匹配定位从而实现目标跟踪的方法是目前的成像 跟踪系统通常采用的方法。 主成分分析(PCA)具有数据分离和信息压缩等有用的特 性,运用主成分分析的方法可以根据图像的整体特征,构造 目标的特征子空间(即由主成分生成的子空间),从而较好地 克服噪声干扰和图像畸变的影响,完成对目标的匹配定位和 跟踪。
用矩阵形式表示为:
Y=[Y1,Y2,...,Yn] W X
T T
主成分分析的数学推导
我们需要寻求一组新的变量Y1,Y2,...,Yd(d≤n),这组新的变量要 求能充分地反映原变量X1,X2,...,Xn的信息,而且相互独立。 对于Y1,Y2,...,Yd有:
D(Yi ) D(iT X ) iT D( X )i iT i
返回
谢谢!欢迎老师和各位同学 批评指正!
阵的特征分析把原始数据投影到包含了大部分数据信 息的线性子空间中达到数据降维的目的,它的优点在 于计算过程简单,数据信息丢失很少。
在现代科学领域,特别是在网络入侵检测、图像处理、
多元统计分析、生物医学等应用场合
主成分分析在图像处理中的应用
图像匹配 图像匹配是根据已知的图像模式,在另
一幅图像中寻找相应或相近模式的过程。
主成分分析的数学推导
由上述推导,我们得到以下结论:设
X [ X 1, X 2,..., Xn] 的协方差矩阵为Σ,
T
其特征根为 1 2 n 0
相应的单位化特征向量为 1, 2,..., n 则由此所确定的主成分是
Y 1 1T X T Y 2 2 X Yd T X d
主成分分析在图像处理中的应用
特征提取图像处理中一个非常重要的环节,如何提
取有效的判别特征是解决问题的关键。
基于主成分分析可以保持数据的全局性,使得降维后的数据 从整体上较好的重构和展现。对图像应用主成分分析可以对 目标图像的几个重要成分信息进行分析,在尽可能少的损失 原有信息的基础上,将图像的主要特征提取出来,为接下来 的图像分类和匹配提供良好的条件。
返回
主成分分析的数学描述
主成分分析就是针对原始数据,要寻求那些主成分
并以它们为坐标轴构建一个新的坐标系,使得原始 数据在新坐标轴上的投影的方差最大。
主成分分析可用数学语言描述为:给定n维空间中的m个数据 (如图像信息、工业参数、基因指标等),寻求一个nxn维的
变换矩阵W,使得Y=[y1,y2,…,ym]=WTX,而且满足新坐标系 下各维之间数据的相关性最小,或者说一个去相关性的过程。
返回
主成分分析的数学推导
在下列所有运算中均有i、k∈[1,n],j∈[1,m]。
假设有m个n维数据组成的矩阵
X nm x11 x12 x x T [ X 1, X 2,..., Xn] 21 22 xn1 xn 2 x1m x2 m xnm
其中,xi=[xi1,xi2,…,xim]。
X的均值矩阵和协方差矩阵分别记为
E( X )
D( X )
主成分分析的数学推导
另外,假设转换矩阵
11 W [1, 2,..., n] 12 1n
21 n1 22 n 2
主成分分析算法的研究
报告人:周卫林 2016.4.15
1背景
2提出
3原理
9程序演示
4几何意义
主成分分析算法
8应用 5数学描述
7计算步骤
6数学推导
主成分分析算法的背景
指标
在实际工程领域的研究中,为了全 面、系统地分析问题,我们必须考虑众多的影 响因素。 在多元统计分析中也称为变量。
主成分分析算法的背景
哈罗德·霍特林 (Harold Hotelling,1895— 1973):统计学界、经 济学界、数学界公认 大师
主成分分析算法的原理
以某些线性组合来表示原始数据,再从这些线性组 合中尽可能快地提取原始数据的信息。 当第一个线性组合不能提取更多的信息时,再考虑 用第二或更多的线性组合继续快速提取数据信 息……直到所提取的信息与原始数据包含的信息 相差不多或者满足用户精度要求。 这些线性组合依次被称为第一主成分(主分量)、 第二主成分(主分量)……
主成分分析算 法的产生原因
每个变量都在不同程度上反映了 所研究问题的某些信息,并且变 量之间彼此有一定的相关性,因 而使得统计后的数据反映的信息 在一定程度上存在重叠。
主成分分析算法的背景
主成分分析算 法的产生原因
在用统计方法研究多变量问题时,变量 太多会大大增加计算量和问题的复杂度, 会耗费很多硬件、网络资源,所以人们 希望在进行定量分析的过程中,通过较 少的变量得到较多的信息量。
cov(Yi , Yk ) cov( X , X ) cov( X , X )k k
T i T k T i T i
这样我们所要解决的问题就转化为,在新的变量 T ,使得 D ( Y ) Y1,Y2,...,Yd相互独立的条件下寻求 i i i i 达到最大。
返回
主成分分析算法的提出
主成分分析(Principal Component Analysis) 首先是由K.Pearson在1901年的生物学理论研究中 引入的; 之后H.Hotelling将此方法推广到心理学中随机向量 的情形,使主成分分析得到进一步发展; 1947年,Karhunen独立地用概率论的形式再次描 述了主成分分析算法; 其后,Loe’ve将该理论进一步扩充和完善。因此主 成分分析也有其它名称,又叫做KLT(Karhunen一 Loeve Transform)或者Hotelling变换。 返回
返回
主成分分析在二维空间的几何意义
主成分分析在二维空间的几何意义相当于坐标旋 X2 转。
X1
主成分分析在二维空间的几何意义
主成分分析在二维空间的几何意义相当于坐标旋 X2 1 cos sin X X1cos 2sin 转。 y2 Y Y1 X 1
y1
T W X Y 2 sin cos X 2 Y 2 X 1sin X2cos
主成分分析的计算步骤
5、取前d个特征值 d diag[1, 2 ,, d ] 和特征向量 Wd [1 ,2 ,,d ]
作为子空间的基底,那么主成分可以由中心平移矩 阵 X 在d个基底上投影得到,即
Y W X
T d
返回
主成分分析的应用
主成分分析是数据降维技术的典型算法,它通过对矩
主成分分析的数学推导
下面依次求取各主成分
构造目标函数
1 (1, ) 1T 1 (1T 1 1)
并对目标函数1 微分,有 1 2 1 21 0 1 即
( I )1 0
T 两边分别左乘 1 ,可得
1T 1
主成分分析的数学推导
返回
主成分分析的计算步骤
1、计算原始数据矩阵X矩阵的均值矩阵 X , 即对每维(行)数据计算平均值
xi
m
x j 1 ij
m
主成分分析的计算步骤
2、计算中心平移矩阵
X
即把每维数据减去由上式求出的平均值
xij x
ij
xi
主成分分析的计算步骤
3、计算数据的协方差矩阵 nn
[a, b] cov( xa , xb )
人脸识别是模式识别和图像处理等学科的一大研究热点, 在身份鉴别、信用卡识别、护照核对以及监控系统等方面有 着广泛的应用。
主成分分析在图像处理中的应用
人脸识别是将检测出的人脸与数据库中的已知人脸进行比较, 得出有关身份方面的信息。即解决“这是谁的脸?” 识别的关 键是人脸特征的选择和提取,只有选取适当的人脸表征方式, 以及匹配策略,才能得到较高的识别率。
其中,a,b∈[1,n]。
x
t 1
m
at
xbt
m 1
主成分分析的计算步骤
4、对协方差矩阵Σ进行特征分析,使 W W 这里 diag[1, 2 ,, n ] W=[1,2 ,,n ] 它们分别是协方差矩阵的特征值和对应的特征向量。 将特征值按照由大到小的顺序排列,对应的特征向 量也作相应排列。
θ
X1
主成分分析在二维空间的几何意义
经过坐标变换可以看到,在新坐标系y1Oy2下m个散点 的坐标Y1和Y2几乎不相关。散点总是沿着y1和y2方向 分布,它们在y1轴上的方差达到最大,在y2轴上的方差
次之,所以在这两个方向上散点的离散程度很小。
在这里,我们把Y1称为第一主成分,Y2称为第二主成 分。
2 n
nn
其中,wi=[wi1,wi2,…,win]T 。
主成分分析的数学推导
பைடு நூலகம்考虑如下的线性变换:
Y1 11 X 1 12 X 2 1n Xn 1T X T Y 2 21 X 1 22 X 2 2 n Xn 2 X Yn X 1 X 2 Xn T X n1 n2 nn n
( I )1 0 是X的协方差矩阵 的特征方程,因为
是非负定的,所以特征根均大于0,假设 1 2 n 0
由式 1T 1 可知Y1的方差为 也就是说,Y1的最大方差为 1,其相应的单位化特征向量是1
Yk 的最大方差为第k大特征根 k ,其相应的单位化特征向量是k