特征值问题的计算方法
矩阵特征值问题的数值方法.
矩阵特征值问题的数值方法矩阵特征值设A 是n 阶矩阵,x 是非零列向量. 如果有数λ 存在,满足那么,称x 是矩阵A 关于特征值λ的特征向量. 很显然一般地有主特征值的乘幂迭代法设n 阶矩阵A 的n 个特征值按模从大到小排序为:n 其对应的n 个线性无关的特征向量分别为:设是任意一个非零的n 维向量,则:假设,构造一个向量序列:则:或者:当时:如果是矩阵A 的关于特征值的一个特征向量,特征值个特征那么对于任意一个给定的,也是特征值的特征向量。
所以,是对主特征值对应的特征向量的近似。
如果则会变得很大或者如果,则会变得很大,或者如果,则会变得非常小,在实际计算中,为避免这种情况的出现需对做归一化处理况的出现,需对做归一化处理:由:左乘得:所以主特征值的近似值所以主特征值的近似值:残余误差向量定义为:当迭代次数充分大时,残余误差将充分小。
逆乘幂法:类似地,也可以求模最小特征值和对应的特征向量特征向量。
上述问题的主特征值问题就是矩阵A 的模最小特征值问题。
结果,逆乘幂法的迭代公式为:在实际应用中,无需计算逆矩阵,但需求解线性系统实对称矩阵的基本定理:对实对称矩阵A ,一定存在一个正交相似变换使得为对角矩阵且其对角矩阵P ,使得:为对角矩阵,且其对角的特征值元素为矩阵A 的特征值。
相似变换:相似变换保持矩阵特征值(但不是特征向量)不变不变。
(证明略)正交相似变换:中。
正交相似变换的例子—坐标旋转:叫旋转矩阵。
容易验证:。
适当选择旋转角,可消去xy 项—得到对角阵D 。
矩阵特征值问题的数值方法实对称矩阵的基本定理再看下面的例子:令:O 平面的坐标旋转变换适当同样地有:。
则是在x-O-z 平面的坐标旋转变换。
适当x z —D 。
选择旋转角可消去z 项得到对角阵实对称矩阵的Jacobi 方法:全部特征值和特征向量根据实对称矩阵的基本定理,求得矩阵A 的全部特征值的关键是找到正交相似变换矩阵P 使部特征值的关键,是找到正交相似变换矩阵P ,使得为对角阵。
特征值与特征向量的计算方法
特征值与特征向量的计算方法特征值与特征向量是矩阵理论中的重要概念,用于解决矩阵特征与变换特性的相关问题。
在本文中,将介绍特征值与特征向量的定义和计算方法,以及它们在实际问题中的应用。
一、特征值与特征向量的定义在矩阵理论中,对于一个n阶方阵A,如果存在一个非零向量x,使得Ax=kx(k为标量),那么k称为矩阵A的特征值,x称为对应于特征值k的特征向量。
特征向量可以理解为在矩阵变换下保持方向不变的向量,而特征值则表示特征向量在变换中的伸缩比例。
二、要计算特征值和特征向量,可以使用以下步骤:1. 首先,由于特征值和特征向量的定义基于方阵,所以需要确保矩阵A是方阵,即行数等于列数。
2. 接下来,根据特征值和特征向量的定义方程Ax=kx,将其改写为(A-kI)x=0(I为单位矩阵)。
3. 为了求解此方程组的非零解,需要求出(A-kI)的零空间(核)。
4. 将(A-kI)的零空间表示为Ax=0的齐次线性方程组,采用高斯消元法或其它线性方程组求解方法,求得方程的基础解系,即特征向量。
5. 特征向量已找到,接下来通过将每个特征向量代入原方程式Ax=kx中,计算出对应的特征值。
值得注意的是,特征值是一个多重属性,即一个特征值可能对应多个线性无关的特征向量。
此外,方阵A的特征值计算方法存在多种,如幂迭代法、QR迭代法等。
三、特征值与特征向量的应用特征值与特征向量在物理、工程、经济等领域具有广泛的应用。
1. 物理学中,特征值与特征向量可用于解析力学、量子力学等领域中的问题,如研究振动系统的固有频率、粒子的角动量等。
2. 工程学中,特征值与特征向量可用于电力系统的稳定性分析、机械系统的振动模态分析等。
3. 经济学中,特征值与特征向量可用于描述经济模型中的平衡点、稳定性等重要特征。
此外,特征值与特征向量在图像识别、数据降维、网络分析等领域也有重要的应用。
总结:特征值和特征向量在矩阵理论中有着重要的地位和应用价值。
通过计算特征值和特征向量,可以揭示矩阵在变换中的性质和特点,并应用于各个学科领域,为问题求解提供了有效的工具和方法。
子空间迭代法求特征值
子空间迭代法是一种用来求解特征值问题的数学方法,它利用系数矩阵的特定性质来对特征值问题进行迭代求解。
它是基于矩阵的幂迭代法,将特征值问题简化为求解矩阵A的特征向量问题。
设A是n × n的实对称矩阵,特征值问题可分解为求解下面的问题:当$Ax=\lambda x$时,X是特征向量,$\lambda $是特征值。
子空间迭代法是一种实用的特征值算法,它基于泰勒展开对A进行优化求解,其步骤如下:
1. 先将系数矩阵A进行正交简化,得到正交矩阵Q,即$Q^{-
1}AQ=D$;
2. 选择初始特征值$\lambda_0$和初始向量$x_0$;
3. 计算**残差矩阵**$R_k=D-\lambda_kI$,其中$\lambda_k$是步骤2中选择的初始特征值;
4. 计算残差矩阵Rk的特征值**$\lambda_{k+1}$**及特征向量$x_k$;
5. 如果$x_k$是A的特征向量,则$\lambda_k=\lambda_{k+1}$,计算结束;否则,重复步骤3~4,计算下一个残差矩阵,直至求得特征值并将其输出。
子空间迭代法有一定的收敛性,可以用来求解实对称矩阵的特征值。
该方法基本步骤简单,可以有效求解特征值问题。
同时,它还可以使用矩阵技术来控制计算精度,从而提高求解精度。
总结起来,子空间迭代法是一种很有效的用来求解实对称矩阵特征值问题的数学方法,它可以有效提高求解精度。
子空间迭代法的基本步骤简单,尤其对小型矩阵特别有效。
矩阵特征值的计算
矩阵特征值的计算一、特征值的定义和性质矩阵A的特征值是指满足下列条件的数λ:存在一个非零向量x,使得Ax=λx,即为矩阵A作用在向量x上的结果是该向量的数量倍,其中λ为特征值。
定义特征值之后,可以证明如下性质:1.相似矩阵具有相同的特征值;2.矩阵的特征值个数等于矩阵的阶数;3.特征值可以是实数也可以是复数;4.如果一个矩阵的特征向量独立,则该矩阵可对角化。
二、特征值的计算方法特征值的计算方法有多种,包括直接计算、特征向量迭代法等。
以下介绍两种常用的方法,分别是雅可比法和幂法。
1.雅可比法雅可比法是最基本和最直接的求解特征值和特征向量的方法。
首先,构造一个对称阵J,使其主对角线元素等于矩阵A的主对角线元素,非对角线元素等于矩阵A的非对角线元素的平方和的负数。
然后,对J进行迭代计算,直到满足迭代终止条件。
最终得到的J的对角线元素就是矩阵A 的特征值。
雅可比法的优点是计算量相对较小,算法比较简单,可以直接计算特征值和特征向量。
但是,雅可比法的收敛速度较慢,对于大规模矩阵的计算效率较低。
2.幂法幂法是一种迭代算法,用于计算矩阵的最大特征值和对应的特征向量。
首先,随机选择一个非零向量b作为初值。
然后,迭代计算序列b,A*b,A^2*b,...,直到序列趋向于收敛。
最终,特征值是序列收敛时的特征向量的模长,特征向量是序列收敛时的向量。
幂法的优点是可以计算矩阵的最大特征值和对应的特征向量。
此外,幂法对于大规模矩阵的计算效率较高。
然而,幂法只能计算最大特征值,对于其他特征值的计算不适用。
三、特征值的应用1.特征值分解特征值分解是将一个矩阵分解为特征值和特征向量构成的对角矩阵的乘积。
特征值分解是一种重要的矩阵分解方法,它在信号处理、图像压缩、最优化等领域有广泛应用。
通过特征值分解,可以对矩阵进行降维处理、数据压缩和特征提取等操作。
2.矩阵的谱半径矩阵的谱半径是指矩阵的所有特征值的模的最大值。
谱半径在控制系统、网络分析和量子力学等领域有广泛的应用。
如何求解特征值技巧
如何求解特征值技巧求解特征值是线性代数中一个非常重要的问题,它在很多领域有着广泛的应用,比如物理学、工程学和计算机科学等。
本文将介绍一些求解特征值的技巧和算法。
求解特征值的技巧主要有两种方法:直接计算和迭代法。
直接计算是指通过求解特征方程的根来得到特征值,而迭代法是通过迭代计算来逼近特征值。
一、直接计算法直接计算法是一种简单且直接的方法,但它只适用于特定的特征方程。
对于一个n维矩阵A,它的特征值满足以下方程:det(A-λI) = 0其中det表示行列式,I是单位矩阵。
特征方程的解即为矩阵A的特征值。
对于二维矩阵,我们可以直接求解特征方程;而对于高维矩阵,直接计算可能较为困难。
二、迭代法迭代法是一种通过逐步迭代计算来逼近矩阵特征值的方法。
常见的迭代法有幂法和反幂法。
1. 幂法幂法是一种通过逐步迭代计算来逼近矩阵特征值的方法。
它的基本思想是通过矩阵的特征向量来逼近特征值。
具体步骤如下:(1)随机选择一个非零向量x0作为初始向量;(2)计算新的向量x1 = A*x0;(3)将x1进行归一化处理,得到x1的单位向量;(4)计算特征值λ1 = (x1的转置矩阵*A*x1)/(x1的转置矩阵*x1);(5)如果λ1的变化趋于稳定,即达到所需精度,停止计算;否则,将x1作为新的初始向量,回到步骤(2)。
幂法通过迭代计算,逐步逼近特征值,但它只能得到矩阵A的最大特征值及其对应的特征向量。
2. 反幂法反幂法是在幂法的基础上进行改进的一种方法,它可以用来求解矩阵A的最小特征值及其对应的特征向量。
与幂法类似,反幂法也是通过迭代计算来逼近特征值。
具体步骤如下:(1)随机选择一个非零向量x0作为初始向量;(2)计算新的向量x1 = (A-λI)^(-1)*x0;(3)将x1进行归一化处理,得到x1的单位向量;(4)计算特征值λ1 = (x1的转置矩阵*A*x1)/(x1的转置矩阵*x1);(5)如果λ1的变化趋于稳定,即达到所需精度,停止计算;否则,将x1作为新的初始向量,回到步骤(2)。
特征向量和特征值问题的数学分析方法
特征向量和特征值问题的数学分析方法在数学领域中,特征向量和特征值是矩阵论中非常重要的概念。
它们在线性代数、数值计算和物理学等学科中都有广泛的应用。
本文将重点介绍特征向量和特征值问题的数学分析方法,帮助读者深入理解这一概念并掌握解决相关问题的技巧。
一、特征向量和特征值的定义在矩阵论中,给定一个n阶方阵A,如果存在非零向量x使得Ax = λx成立,其中λ是一个常数,则称向量x为矩阵A的特征向量,常数λ为对应的特征值。
特征向量表示了在矩阵作用下方向不变的向量,特征值则表示了此方向上的伸缩比例。
特征向量和特征值往往以矩阵的形式表示,特征向量矩阵X(包含了每一个特征向量)和特征值矩阵Λ(对角线元素为特征值,其余元素为零)满足AX = XΛ的关系。
由此可见,特征向量是通过矩阵A左乘特征向量矩阵获得的。
二、求解特征向量和特征值的方法1. 特征多项式法通过求解特征多项式可以得到矩阵的特征值。
特征多项式由方阵A 减去λI得到,其中I为单位矩阵。
求解特征多项式的根,即可得到特征值λ。
2. 特征向量分解法对于已知的特征值,我们可以通过代入方程Ax = λx来求解特征向量。
由于特征向量是在一系列相似矩阵中共享的,因此可以通过类似对角化的过程获取一组特征向量。
3. 幂法幂法是一种数值迭代的方法,用于求解最大的特征值和相应的特征向量。
它的基本思想是通过不断迭代一个向量,使其趋近于矩阵A的特征向量。
幂法迭代过程中,向量的模长不断增大,最终收敛到最大特征值所对应的特征向量。
4. QR方法QR方法是一种求解特征值和特征向量的迭代算法。
该方法通过将矩阵A分解成QR的形式,并迭代QR的乘积,得到逼近矩阵的特征值和特征向量。
QR方法相对于幂法更加稳定和快速,是较常用的数值方法之一。
三、特征向量和特征值问题的应用特征向量和特征值在许多学科中都有广泛应用。
在线性代数中,它们用于矩阵相似和矩阵的对角化。
在数值计算中,特征向量和特征值问题与矩阵的谱半径和谱条件数相关联,对于解决线性方程组和最优化问题具有重要意义。
特征方程的根与特征值的计算方法
特征方程的根与特征值的计算方法特征方程常常在矩阵计算和微分方程中出现。
在这两个重要的数学领域中,特征方程的使用是非常重要的。
对于矩阵问题,特征方程的解决有助于找到矩阵的特征值,而针对微分方程,它可以用来描述一个微分方程的稳定性。
在本篇文章中,我们将会介绍特征方程的根与特征值的计算方法。
一、特征方程的定义特征方程是指一个矩阵减去一个标量矩阵后的行列式,表示为det(A-λI)=0。
其中,A是一个n阶方阵,λ是一个标量,I是一个n 阶单位矩阵。
二、特征值与特征向量在特征方程中,一个标量λ称为矩阵A的特征值,而特征向量则是指矩阵A与它的特征值所对应的非零向量。
特征方程的根与特征值有很大的关联性,因为特征值就是特征方程的根。
三、特征方程的解法要求解特征方程,必须要先计算出它的根,也就是特征值。
一般来说,根据求解特征值的方式,可以将特征方程的计算方式分为以下两种:1. 直接求解根据特征方程的定义,即求出A-λI的行列式,并令其等于0。
这个过程中,λ相当于是一个未知的变量,因此该方程式是一个关于λ的一元多项式,而根据代数基本定理,不存在大于n阶的关于λ的一元多项式。
因此,该方程式的根的个数正好等于它的次数。
举个例子:对于一个2阶矩阵的特征方程det(A-λI)=0,可以列出一个2次的关于λ的一元多项式。
这个方程式的根有可能是实数,但也有可能是复数。
对于一个n阶矩阵来说,这个特征方程是一个n次的关于λ的一元多项式,它也有可能有实数根与复数根。
2. 利用迭代计算法求解以幂迭代法为例来说明。
Step 1:初始化随机生成一个n维向量x0,并将其归一化。
不妨先令i=0,然后执行以下的迭代计算法:Step 2:迭代求解i. 计算矩阵和向量的乘积。
y=Axiii. 求得y中的最大值yi和对应的下标iiii. 创建一个新的向量x,并计算x=1/yi*yiv. 计算向量x与扰动项之和的范数,并判断其是否已经收敛若范数小于一个给定的精度,则停止迭代计算法;反之,则转到Step 2并令i=i+1,继续循环迭代计算。
求解特征值的方法技巧
求解特征值的方法技巧求解特征值是线性代数中的一个重要问题,它在物理、工程、计算机科学等领域中都有广泛的应用。
在本文中,我们将讨论求解特征值的方法和技巧。
特征值的定义是在线性代数中非常基础的概念。
对于一个n×n的矩阵A,如果存在一个非零向量v使得Av=λv,其中λ是一个标量(实数或复数),则λ称为矩阵A的特征值,v称为对应于特征值λ的特征向量。
特征值和特征向量之间具有一一对应的关系。
1. 特征多项式法:特征多项式法是求解特征值的一种常用方法。
对于一个n×n的矩阵A,其特征多项式定义为:p(λ) = |A-λI| = det(A-λI)其中,I是n×n单位矩阵,det表示行列式。
特征多项式的根就是矩阵A的特征值。
通过计算特征多项式的根,我们可以求解矩阵A的所有特征值。
2. 幂法:幂法是求解矩阵特征值中的最大特征值的一种有效方法。
它的基本思想是通过反复迭代使一个向量v不断与矩阵A相乘,直到收敛到矩阵A的最大特征值对应的特征向量。
具体步骤如下:1) 选择一个任意非零向量v0;2) 计算v1 = Av0;3) 对v1进行归一化处理,得到v1' = v1 / ||v1||;4) 重复步骤2和3,直到v收敛到A的最大特征值对应的特征向量。
3. 反幂法:反幂法是求解特征值中的最小特征值的一种方法。
它与幂法的思想相似,只是在每一次迭代中,需要对向量进行归一化处理。
具体步骤如下:1) 选择一个任意非零向量v0;2) 计算v1 = (A-1)v0;3) 对v1进行归一化处理,得到v1' = v1 / ||v1||;4) 重复步骤2和3,直到v收敛到A的最小特征值对应的特征向量。
4. QR算法:QR算法是一种迭代算法,用于计算矩阵的所有特征值。
它的基本思想是通过反复进行QR分解将矩阵A转化为上三角矩阵,使得其特征值可以从对角线上读出。
具体步骤如下:1) 将矩阵A进行QR分解,得到A=QR,其中Q为正交矩阵,R为上三角矩阵;2) 将上一步得到的R矩阵再进行QR分解,得到新的矩阵A1=Q1R1;3) 重复步骤2,直到A收敛到上三角矩阵。
第章矩阵特征值的计算
第章矩阵特征值的计算矩阵特征值是矩阵理论中的一个重要概念,它在很多领域中都有广泛的应用,如物理、化学、工程等。
本文将从特征值的定义、计算方法和应用举例等方面进行阐述。
一、特征值的定义对于一个n阶方阵A,如果存在一个非零向量x,使得Ax=kx,其中k 是一个常数,那么k称为A的特征值,x称为A的对应于特征值k的特征向量。
从定义可以看出,矩阵A的特征值和特征向量是成对出现的,特征向量可以是一个实数或是一个向量,特征值可以是实数或是复数。
二、特征值的计算方法1.直接计算法此方法适合于较小的矩阵。
给定一个n阶矩阵A,首先构造特征方程det(A-λI)=0,其中I是n阶单位矩阵,λ是未知数,然后求解特征方程得到特征值,将特征值代入(A-λI)x=0求解对应的特征向量。
2.幂法幂法是一种迭代方法,适用于大型矩阵。
假设特征值的绝对值最大,那么从非零向量b开始迭代过程,令x0=b,求解x1=A*x0,然后再将x1作为初始值,求解x2=A*x1,以此类推,直到收敛为止。
最后,取最终得到的向量xn,其模即为特征值的近似值。
3.QR方法QR方法是一种迭代方法,可以用于寻找特征值和特征向量。
首先将矩阵A分解为QR,其中Q是正交矩阵,R是上三角矩阵,然后对R进行迭代,重复进行QR分解,直到收敛。
最后,得到的上三角矩阵的对角元素即为特征值的近似值,在QR分解的过程中,特征向量也可以得到。
三、特征值的应用举例1.物理学中的量子力学量子力学中的哈密顿算符可以表示为一个矩阵,物理量的测量值就是对应的特征值。
例如,电子的自旋可以有上自旋和下自旋两种状态,上自旋对应的特征值为1,下自旋对应的特征值为-12.工程中的振动问题在工程中,矩阵特征值可以用来求解振动问题。
例如,振动系统的自由度决定了特征向量的个数,而特征值则表示了振动的频率。
通过计算矩阵的特征值和特征向量,可以预测系统的振动频率和振型。
3.网络分析中的中心性度量在网络分析中,矩阵特征值可以用来计算节点的中心性度量。
矩阵特征值问题的数值计算
矩阵特征值问题的计算方法特征值问题:A V=λV¾直接计算:A的阶数较小,且特征值分离得较好 特征值:det(λI-A)=0,特征向量:(λI-A)V=0¾迭代法:幂法与反幂法¾变换法:雅可比方法与QR方法内容:一、 特征值的估计及其误差问题二、 幂法与反幂法三、 雅可比方法四、 QR方法一、 特征值的估计及其误差问题 (一)特征值的估计结论 1.1:n 阶矩阵()ij n n A a ×=的任何一个特征值必属于复平面上的n 个圆盘:1,||||,1,2,ni ii ij j j i D z z a a i n =≠⎧⎫⎪⎪=−≤=⎨⎬⎪⎪⎩⎭∑"(10.1) 的并集。
结论1.2:若(10.1)中的m个圆盘形成一个连通区域D,且D与其余的n-m个圆盘不相连,则D中恰有A的m个特征值。
(二)特征值的误差问题结论1.3:对于n 阶矩阵()ij n n A a ×=,若存在n 阶非奇异矩阵H ,使得11(,,)n H AH diag λλ−=Λ=", (10.2)则11min ||||||||||||||i p p p i nH H A λλ−≤≤−≤∆ (10.3)其中λ是A A +∆的一个特征值,而(1,,)i i n λ="是A 的特征值,1,2,p =∞。
结论1.4:若n 阶矩阵A 是实对称的,则1min ||||||i p i nA λλ≤≤−≤∆。
(10.4)注:(10.4)表明,当A 是实对称时,由矩阵的微小误差所引起的特征值摄动也是微小的。
但是对于非对称矩阵而言,特别是对条件数很大的矩阵,情况未必如此。
二、 幂法与反幂法(一) 幂法:求实矩阵按模最大的特征值与特征向量假设n 阶实矩阵A 具有n 个线性无关的特征向量,1,iV i n =",则对于任意的0nX R ∈,有 01ni ii X a V ==∑,从而有01111112((/))n nk k k i i i i ii i nk k i i i i A X a A V a V a V a V λλλλ======+∑∑∑.若A 的特征值分布如下:123||||||||n λλλλ>≥≥≥",则有01111()k kk A X a V λλ→∞⎯⎯⎯→为对应的特征向量须注意的是,若1||1λ<,则10kλ→,出现“下溢”,若1||1λ>,则1kλ→∞,出现“上溢”,为避免这些现象的发生,须对0kA X 进行规范化。
第5章__特征值问题计算方法
第五章 特征值问题计算方法设n n A R ⨯∈或n nA C⨯∈。
特征值问题是求C λ∈及非零向量nx C ∈,使得Ax x λ=A 的特征多项式()det()P I A λλ=-。
当5n ≥,λ不能用解析来表示。
因此数值方法为迭代法。
§1 幂法与反幂法 (I ) 方法设n n A R ⨯∈,有n 个线性无关的特征向量(即A 可以对角化)。
设A 的特征值1,,n λλ,相应的特征向量为12,,n x x x 。
并设12n λλλ>≥≥1λ称为A 的主特征值。
幂法是用来求主特征值和相应特征向量的方法。
基本思想 是任取非零向量(0)v,由矩阵A 构造迭代格式()(1)1,2,k k v Av k -==得 {}()k v(1)(0)A AV = (2)(1)2(0)v Av A v ==()(1)(0)k k k v Av A v -=== 由假定,A 有n 个线性无关的特征向量12,,n x x x 。
于是(0)(0)1,nn i i i vR vx α=∈=∑设 10α≠。
(1)(0)11n ni i i i i i i vAvAx x ααλ=====∑∑同理有()(1)1,1,2,nk k k i i i i vAvx k αλ-====∑对于这个迭代格式分情况讨论 1.主特征值为单根,即123n λλλλ>≥≥≥此时()21112211kkk k n n n v x x x λλλαααλλ⎡⎤⎛⎫⎛⎫⎢⎥=+++ ⎪ ⎪⎢⎥⎝⎭⎝⎭⎣⎦同理:11(1)121112211k k k k n n n vx x x λλλαααλλ++++⎡⎤⎛⎫⎛⎫⎢⎥=+++ ⎪ ⎪⎢⎥⎝⎭⎝⎭⎣⎦因为1(2,3,,)i i n λλ>=1lim 0,2,3,,ki k i n λλ→∞⎛⎫⇒== ⎪⎝⎭()111k kv x αλ⇒≈ (k 充分大!!)这说明,()111k k vx αλ=为特征值1λ所对应的特征向量的近似向量。
多项式方法求特征值问题
多项式方法求特征值问题4.3多项式方法求特征值问题4.3.1 F-L 方法求多项式系数我们知道,求n 阶方阵A 的特征值就是求代数方程0||)(=-=I A λλ? (4.3.1)的根。
称为A 的特征多项式。
上式展开为n n n n p p p ++++=--.....)(2211λλλλ? (4.3.2)其中np p p ,...,21为多项式的系数。
从理论上讲,求A 的特征值可分为两步:第一步直接展开行列式|I A λ-|求出多项式;第二步求代数方程0)(=x ?的根,即特征值。
对于低阶矩阵,这种方法是可行的。
但对于高阶矩阵,计算量则很大,这种方法是不适用的。
这里我们介绍用F-L(Faddeev-Leverrier )方法求特征方程(4.3.2)中多项式的系数。
由于代数方程求根问题在第2章中已经介绍,所以本节中解决特征值问题的关键是确定矩阵A 的特征多项式,所以称这种方法为多项式方法求特征值问题。
记矩阵A=nn ij a ?)(的对角线元素之和为 nn a a a trA +++=...2211 (4.3.3)利用递归的概念定义以下n 个矩阵:),....,2,1(n k B k =-=-=-=-==----),(................),(...............),(),(,11112231121I p B A B I p B A B I p B A B I p B A B A B n n n k k k n n k k trB n p trB kp trB p trB p trB p 113121332211===== (4.3.4)可以证明,(4.3.4)式中,,...,2,1,n k p k =即是所求A 的特征多项式的各系数。
用()式求矩阵的特征多项式系数的方法称为F-L 方法。
相应特征方程为:0).....()1(2211=-------nn n n n p p p λλλ (4.3.5)而且可证矩阵A 的逆矩阵可表示为)(1111I p B p A n n n ----=(4.3.6) 例1 求矩阵=324202423A的特征值与.解用F-L 方法求得 831800080008)(152111242824211)(63242024233322322112111==??=-===??=-===??==trB p I p B A B trB p I p B A B trB p A B所以A 的特征方程为0)8156()1(233=----λλλ此方程的根,即特征值为---=-=-=-==-214121418741214121)(11,1,82231321I p B p A λλλ从例1中的计算结果可知.33I p B =Faddeev 曾经证明: 对n 阶矩阵A,按(4.3.4)式计算出的总有 I p B n n = (4.3.7)4.3.2 特征向量求法当矩阵A 的特征向量确定以后,将这些特征值逐个代入齐次线性程组(I A λ-)x=0中,由于系数矩阵I A λ-的秩小于矩阵I A λ-的阶数n,因此虽然有n 个方程n 个未知数,但实际上是解有n 个未知数的相互独立的r 个方程(r<="" 当矩阵a="" 的所有特征值互不相同时,这样的问题中要解的齐次方程组中有n-1个独立方程,其中含有n=""> 在计算机中解这样的齐次线性程组,可用高斯-若当消去法,以便把一组n 个方程简化为等价的一组n-1个方程的方程组.然而,用高斯-若当消去法简化一个齐次线性程组时,方程之间不都是独立的,在消去过程中系数为零的情况较多.必需交换方程中未知数的次序,以避免主元素位置上为零的情况.因此,为了提高精度和避免零元素的可能性,我们总是用主元素措施把绝对值最大的系数放于主元素位置.例如,假设矩阵A 为---=142235224A 其特征方程为λλλ------142235224=0展开后为 0)5)(2)(1(=---λλλ故特征值分别为5,2,1321===λλλ下面求特征向量,将代入方程组0)(=-x I A λ中,得=++-=++-=-+004202250223321321321x x x x x x x x x(4.3.8)以-5为主元素,交换上式第一与第二个方程得=-+-=-+=++-004202230225321321321x x x x x x x x x (4.3.9) 用高斯-若当消去法消去-5所在列中的,并把主元素所在行调到最后,得=--=-+=-+0525205451600545160321321321x x x x x x x x x (4.3.10)再以16/5为主元素,消去它所在列中的,并把主元素所在的行调到最后,得=-+=-+=++041002100000321321321x x x x x x x x x (4.3.11)这就是用高斯若当消去法实现把一组三个方程简化为等价的一组两个独立方程的情形.因为这个等价的方程组包含两个独立的方程,而有三个未知数,所以只要假定其中一个值,则其它两个值就可以通过两个独立方程解出.比如,令13-=x ,则得到矩阵A 的对应于11=λ的一个特征向量为---14121对另外两个特征值的对应特征向量求法与上述对11=λ的推导过程相同.计算机中实现求解这样的齐次线性方程组的消去步骤是,用第3章讨论过的高斯-若当消去法的公式,方程组(4.3.9)的系数矩阵经过第一次消去后的矩阵B 为----=52545452516516B (4.3.12)以矩阵为方程组(4.3.10)的系数矩阵,其中省略了有0和1元素的第一列.在进行第二次消元之前,要应用完全主元素措施对前两行进行最大主元素选择,然后再进行必要的行或列交换.每完成一次消元过程,总省略只有0和1元素的第一列,并且计算机仅寻找矩阵的前n-k 行中的最大主元素,其中k 是消元过程应用的次数.对(4.3.12)式再进行一次消元过程,则得到列矩阵--=412101B (4.3.13)此矩阵是对应于方程组(4.3.11)的系数矩阵,不过省略了含0和1元素的前两列.一般来说,最后矩阵列的数目等于矩阵I A λ-的阶数和秩的差值.由于方程组(4.3.8)有三个未知数,两个独立方程,所以计算机必须任意给定一个未知数的值,以便可以从其他两个独立方程中解出另外两个未知数.为方便,在计算机决定特征向量时,要恰当地设定任意选取的未知数的值.例如,令13-=x ,由方程组知道,其他两个分量的值正好能从含的非零系数项得出.为此,从计算机所存储的最终矩阵中,令最上面的0元素为-1,并把它顺次调到最下面第三行的位置上,就得到所求的特征向量T)1,41,21(---.在工程问题中,从特征方程所求出的特征值,少数情形也有相同的.一般地,当一个特征方程有k 重根时,矩阵I A λ-的秩可能比其阶数少1,或2,或3,…,或k,当然对应于的线性无关的特征向量的个数也就是1,或2,或3,…,或k,下面通过一个特征值对应两个线性无关特征向量的例子进一步说明计算机求特征向量的方法.设矩阵A 为=324202423A 其特征方程为032422423=---λλλ展开后得 0)8()1(2=-+λλ所以特征值为 8,1321=-==λλλ为了决定1-=λ的特征向量,将1-=λ代入方程组(I A λ-)x=0,得0424212424321=x x x(4.3.14)应用一次高斯-若当消去法,得01002/100100321=x x x (4.3.15)写成矩阵形式,(4.3.15)式的系数矩阵为=1002/100B (4.3.16)因为方程组(4.3.15)的系数矩阵的秩为1,它比矩阵阶数少2,因此对应于1-=λ有两个线性无关的特征向量,必须给两个未知数任意规定值,才能确定这两个线性无关的特征向量,由()式可看出,一般总是选择0,132=-=x x 求一个特征向量;选择1,032-==x x 求另一个特征向量;这样有两个线性无关的特征向量 -012/1, ????-101计算机中求两个线性无关的特征向量的办法是,在(4.3.16)式的B 中,把第一列中第一个0元素用-1代替,第二列中第二个0元素也用-1代替,然后把第一、第二行顺次调到最下面一行的位置上,第三行自然就成了第一行,如此调换后矩阵的第一列和第二列就是所求的两个线性无关的特征向量。
第八讲 特征值问题求解方法
同济大学土木工程防灾国家重点实验室、桥梁工程系
小结
特征方程法—精确方法、求全部特征值、适用于低阶矩阵
相似变换法—精确方法、求全部特征值、适用于高阶矩阵
同济大学土木工程学院桥梁工程系
高等结构动力学
主讲教师:葛耀君 博士 教授 曹曙阳 博士 教授
同济大学 土木工程防灾国家重点实验室 桥梁工程系
同济大学土木工程学院桥梁工程系
第七章 特征值问题求解
第一节 特征方程法 第二节 相似变化法 第三节 矢量迭代法 第四节 Sturm 排序法
同济大学土木工程防灾国家重点实验室、桥梁工程系
经过多次旋 转正交使矩 阵对角化
1954年以前唯一的相似变换法 严格按照相似变换关系计算出矩阵[N ]的元素 通过相似变换使矩阵[A ] 为对角矩阵
(2) Givens 三对角化方法(Givens Tridiagonalization)
坐标旋转变 换,使矩阵 三对角化
通过相似变换使矩阵[A ] 为三对角元素矩阵
{v }=ω [D ]{v }
(1) 1 2 1 (0) 1
忽略频率影响后的一次近似值
{v }= [D]{v }
(1) 1 ( 0) 1
同济大学土木工程防灾国家重点实验室、桥梁工程系
3.1 一阶振型迭代 (续)
一次近似值标准化
{ v } {v }= ({ }) ref v
(1) 1 (1) 1 (1) 1
同济大学土木工程防灾国家重点实验室、桥梁工程系
2.2 相似变换法分类(续)
(5) LR变换法(LR Transformation Method) 通过相似变换使矩阵[A ] 为上三角元素矩阵 相似变换公式:[A ] = [L ][A][R ] 改进特点:不必求逆运算 (6) QR或QL变换法(QR or QL Transformation Method) 每次相似变换使矩阵[A ] 右下角4元素分离,即
第8章 特征值问题的计算方法
第8章 特征值问题的计算方法本章中讨论求n 阶实矩阵的特征值的数值方法。
8.1 基本概念与性质设A 是n 阶方阵,若数λ和非0向量x 满足:x Ax λ=则λ称为A 的特征值,x 称为A 的对应于λ的特征向量。
A 的特征值的全体()A λ称为A 的谱集。
n 次多项式方程()0det =−A I λ称为A 的特征方程,()A I −λdet 称为A 的特征多项式。
8.2 幂法矩阵的模最大的特征值称为主特征值。
幂法可用于求矩阵的主特征值及其相应的特征向量。
设n 阶方阵A 有有n 个线性无关的特征向量。
设j j j x Ax λ=,j=1..n,其中j λ是A 的特征值,设A 的主特征值1λ是实数且是单重,n λλλ≥≥>L 21.特征向量乘以非0常数仍然是特征向量,故可增加约束,只求范数为1的向量。
设v 0是任意一个非0向量,则v 0可惟一地表示成n 个特征向量的线性组合,设∑==ni i i x v 10α,假设01≠α,令01v A Av v k k k ==−,则111211111~x x x x v k n i i ki i k ni i k i i k αλλλααλλα⎟⎟⎠⎞⎜⎜⎝⎛⎟⎟⎠⎞⎜⎜⎝⎛+==∑∑==,∞→k , 当k>>1时,11−≈k k v v λ,11λ→−k k v v ,1x v v k k →。
为避免计算机出现上溢或下溢现象,在每步计算中将v k 规格化。
111−−≈=k k k v Av u λ,k k k m u v =,, k=1,2,…… 则 1x v k →, ()()()111111,,,−−−−−≈=k k k k k k v v v Av v u λ())1111,,−−−≈k k k k v v v u λ若取2kk u m =(k=0,1,2,…),则()11,−≈k k v u λ,简化了运算。
算法8.1功能:用幂法求矩阵主特征值。
求矩阵特征值的方法
求矩阵特征值的方法矩阵特征值是线性代数中一个重要的概念,它在许多实际问题中都有着重要的应用。
求解矩阵特征值的方法有多种,每种方法都有其适用的场景和特点。
在本文中,我们将介绍几种常见的求解矩阵特征值的方法,希望能够对读者有所帮助。
一、特征值与特征向量的定义。
在介绍求解矩阵特征值的方法之前,我们首先来回顾一下特征值与特征向量的定义。
对于一个n阶方阵A,如果存在一个数λ和一个非零向量v,使得Av=λv成立,则称λ为矩阵A的特征值,v为对应于特征值λ的特征向量。
二、特征值的求解方法。
1. 特征值的定义式。
特征值的定义式是最基本的求解特征值的方法,即通过求解方程|A-λI|=0来得到特征值λ。
其中,|A-λI|表示A-λI的行列式,I为单位矩阵。
这个方法的优点是简单直观,容易理解和应用,但对于高阶矩阵来说,计算起来可能比较繁琐。
2. 幂法。
幂法是一种迭代方法,用于求解矩阵的最大特征值和对应的特征向量。
该方法的思想是通过不断迭代矩阵A的幂次向量,最终收敛到矩阵A的最大特征值和对应的特征向量。
幂法的优点是只需要矩阵A的乘法运算,适用于大规模矩阵的特征值求解。
3. QR方法。
QR方法是一种迭代方法,用于求解矩阵的全部特征值。
该方法的思想是通过不断迭代矩阵A的相似变换,最终将矩阵A转化为上三角矩阵,从而得到矩阵A的全部特征值。
QR方法的优点是适用于求解任意矩阵的特征值,且收敛速度较快。
4. 特征值分解。
特征值分解是一种将矩阵分解为特征值和特征向量的方法,即A=QΛQ^-1,其中Λ为对角矩阵,对角线上的元素为矩阵A的特征值,Q为特征向量组成的矩阵。
特征值分解的优点是可以直接得到矩阵A的全部特征值和对应的特征向量,但对于非对称矩阵来说,计算过程可能比较复杂。
三、总结。
在本文中,我们介绍了几种常见的求解矩阵特征值的方法,包括特征值的定义式、幂法、QR方法和特征值分解。
每种方法都有其适用的场景和特点,读者可以根据具体的问题选择合适的方法来求解矩阵的特征值。
矩阵特征值问题的计算方法
det( I A) 0
称之为矩阵A的特征方程,所以特征值也称为特征根。 注2 特征向量不唯一,若x是特征向量,则对任意非零 实数k, kx也是特征向量。但特征值是唯一的。 注3 若为A的一个特征值,相应的特征向量为x,则1/ 为A-1的对应于特征向量x的特征值。
§5.3 幂迭代法和反幂迭代法
| i / 1 | < 1
Av
(k )
作迭代
显然, v Av
(k ) k 1 ( k 1 )
v ( k ) Av ( k 1) , k 1,2
Av
2 1 2 ( k 2 )
A v
k k 2
Ax
k 1 1 (k ) 1
1
(0)
λ λ λ [α x α ( ) x α ( ) x ] λ λ
1
数值分析
1 > 1 … n n 1 1
A的模最小的特征根
(0) 反幂法的迭代格式: v 0 作迭代 k 1,2, z A v , Az ( k ) v ( k 1) , m max( z ), 避免求逆 m ( k ) max( z ( k ) ), z z(k ) v , v(k ) (k ) , m
数值分析
一、 幂法--计算按模最大的特征值及其对应的特征向量
条件:A 有特征根 |1| > |2| … |n| 0, 对应n个线性无关的特征向量 x1 , x2 ,... , xn 思路:从 v ( 0 ) 0 出发,v ( 0) i xi ,
i 1 n
1 0.
xi v ( k ) i 对应的特征向量 。 max( xi )
特征值与特征向量的计算
特征值与特征向量的计算特征值和特征向量是线性代数中的重要概念,广泛应用于各个领域的数学和工程问题中。
它们的计算方法也是学习线性代数的基础知识之一。
本文将介绍特征值与特征向量的概念以及计算方法。
一、特征值与特征向量的定义在矩阵的运算中,特征值和特征向量是由方阵产生的重要结果。
对于一个方阵A,当存在一个非零向量v使得满足以下等式时:Av = λv其中,λ为标量,称为特征值,而v称为矩阵A对应于λ的特征向量。
特征值和特征向量的计算可以帮助我们理解矩阵的性质,比如矩阵的对角化、矩阵的相似性等。
二、特征值与特征向量的计算方法1. 通过特征方程求解要计算一个矩阵的特征值和特征向量,最常见的方法是通过特征方程求解。
对于一个n阶方阵A,其特征值求解的步骤如下:a) 计算矩阵A与单位矩阵的差值A-λI,其中λ为待求的特征值,I 为n阶单位矩阵。
b) 解特征方程|A-λI|=0,求得特征值λ。
c) 将求得的特征值代入方程A-λI=0,解出特征向量v。
2. 使用特征值分解方法特征值分解是另一种计算特征值和特征向量的方法,适用于对角化矩阵。
对于对角化矩阵A,其特征值分解的步骤如下:a) 求解A的特征值λ和对应的特征向量v。
b) 将特征向量v按列组成矩阵P。
c) 求解对角矩阵D,其中D的对角线元素为特征值。
d) 根据A=PDP^-1,将计算得到的矩阵P和D代入,求解出矩阵A。
三、特征值与特征向量的应用特征值与特征向量的计算方法在实际应用中具有广泛的应用,以下是几个常见的应用场景:1. 机器学习中的主成分分析(PCA)主成分分析是一种常用的降维技术,通过特征值与特征向量的计算可以实现数据降维和分析。
2. 物理学中的量子力学量子力学中,量子态可由特征向量表示,相应的能量则为特征值,通过求解特征值和特征向量,可以揭示微观粒子的性质。
3. 图像处理中的特征提取在图像处理的过程中,通过计算图像的特征值和特征向量,可以提取出图像的关键信息,用于图像识别、分类等任务。
3-2 第3章 特征值问题的计算方法4讲解
Ak [a ] G Ak 1Gk ; A0 A; k 1, 2, 3
(k ) ij T k
经典Jacobi方法的迭代算法
给定矩阵 A (aij ), aij a ji For k=1,2,3,… 选取最佳旋转平面( p, q) :a pq
n( n 1) 需比较 个元素 2 max aij
1 i j n
2
计算
aqq a pp 2a pq
;t
பைடு நூலகம்
sgn( )
1
;c
1 1 t
2
; s tc
if
i p, q 计算 aip caip saiq ; aiq saip caiq
2 2
a pp c 2a pp 2sca pq s 2aqq ; aqq s 2a pp 2sca pq c 2aqq a pq (c s )a pq sc(a pp aqq ) 0 直到 E ( A)
2 F
a ) ( a )
当E ( A) 0时, A 趋于一个对角阵
Givens变换记为 G( p, q, ) ,下面通过Givens变换
对矩阵 A 进行约化,使得 E ( A) 0
T G ( p, q, ) AG( p, q, )和矩阵 A 首先来研究一下矩阵
两者元素之间的关系
2 2
选取适当的 ,由Givens变换将矩阵的下三角元素
尽可能多的化为零:即非对角“范数”尽可能的小。
首先由 bpq (c s )a pq sc(a pp aqq ) 0 确定
2 2
如果 a pq
0,则取 c 1; s 0 aqq a pp s 否则,令 t tan ; c 2a pq
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
Gi ( A) = { z ∈ C : z − aii ≤ ∑ aij }; i = 1,L , n
j≠i
则 λ ( A) ⊂ G1 ( A) ∪ G2 ( A) ∪ L ∪ Gn ( A)
( 分解定理) Th8.1.4 谱分解定理)/*Spectral Decomposition*/ n× n n× n 对称矩阵 则存在正交 矩阵, 正交矩阵 设 A ∈ R 为对称矩阵,则存在正交矩阵Q ∈ R T 使得 Q AQ = Λ = diag ( λ1 ,L , λn ) 个特征值。 其中 λ1 ,L , λn 是 A 的n个特征值。 个特征值 定理) (极大极小定理 Th8.1.5 极大极小定理) 对称矩阵 矩阵, 设 A ∈ R n× n 为对称矩阵,且 A的特征值为 λ1 ≥ λ2 ≥ L ≥ λn
∀u0 , u0
∞
=1
设
yk = Auk −1 µk = yk ∞ yk uk =
For k=1,2,3,…
uk 和 µk均收敛,由算法知 收敛, 算法知 Auk −1 = µk uk
lim Auk −1 = lim µk lim uk
k →∞ k →∞ k →∞
Ax = λ1 x
uk
∞
µk → λ1
其中J (λi ) = diag( J1 (λi ), ,L , J k (λi )) ∈ C ni ×ni ;1 ≤ i ≤ r i
λi J j ( λi ) =
1
λi
且除了 J j (λi ) 的排列 O 次序外 J 唯一的 次序外, 是唯一的。 O 1 λi J 称作 A 的Jordan标准型 标准型
n× n
是可对角化的 存在如下分解: 是可对角化的,即 A 存在如下分解: 对角化
−1
A = X ΛX 其中 Λ = diag ( λ1 ,L , λn ) ; X = [ x1 ,L , x n ] ∈ C n× n
不妨假设
λ1 > λ2 ≥ L ≥ λn
对于 ∀ u0 ∈ C
n
u0 = α1 x1 + α 2 x2 + L + α n xn ;α i ∈ C
λi − µi ≤ ∆A 2 ; i = 1, 2,L , n
说明:对称矩阵的特征值总是良态的 矩阵的特征值总是良态 说明:对称矩阵的特征值总是良态的。
幂法与反幂法 §2 幂法与反幂法/*Power Method and Reversed Power Method*/ 幂法是计算一个矩阵的模最大的特征值和对应的特征 幂法是计算一个矩阵的模最大的特征值和对应的特征 是计算一个矩阵的模最大 向量的一种迭代方法(又称为乘幂法 迭代方法 乘幂法)。 向量的一种迭代方法(又称为乘幂法)。 幂法的 一、幂法的基本思想与算法 假设 A ∈ C
uT Au uT Au 则有λi = max min T = min max T n χ ∈ξ n− i +1 0 ≠ u∈χ u u χ ∈ξ in 0 ≠ u∈χ u u
其中 ξ
n k 表示
中所有k维子空间的全体 维子空间的全体。 R n中所有 维子空间的全体。
定理) ( 定理 Th8.1.6 Weyl定理) 对称矩阵 矩阵, 设 A, B ∈ R n× n为对称矩阵,其特征值分别为
j =1
j =1
说明: 充分大时, 说明:当k充分大时 充分大时
的一个近似特征向量 近似特征向量为 λ1 的一个近似特征向量为
uk =
A u0
k
λ
k 1
特征向量可以相差一个倍数 特征向量可以相差一个倍数
因为向量 uk
=
A u0
k
λ
k 1
中含有未知量 中含有未知量 λ1,实际不能计算
方向,故作如下处理: 但我们关心的仅是 uk 的方向,故作如下处理: 令 uk
k k 1
= X J y1 + X 2 J y2 + L + X P J y p
k 1 1 k 2 k p
k Ak u0 = X1J1k y1 + X 2 J 2 y2 + L + X P J k y p p
k = λ1k X1 y1 + X 2 J 2 y2 + L + X p J k y p p
T
µ3 = 4.92
u3 =
Step4
y3
y4 = Au3 = (1.5854 3.9268 4.8537 )
µ3
= (0.3659 0.8537 1)
T
T
µ4 = 4.8537
u4 = y4
µ4
= (0.3266 0.8090 1)
T
特征值及相应的特征向量精确值为 特征值及相应的特征向量精确值为: 特征向量精确值
分解) 分解 ( Th8.1.1 Jordan分解) n× n 设 A ∈ C ,有 r个互不相同的特征值λi (i = 1,L, r ) 个互不相同的特征值
,
重数分别为 则一定存在非奇异 非奇异矩阵 其重数分别为 ni (i = 1,L, r ) ,则一定存在非奇异矩阵
P ∈ C n×n 使得 P −1 AP = diag( J (λ1 ), J (λ2 ),L, J (λr )) = J
= λ ( X1 y1 + X 2 (
k 1
J2
λ1
) y2 + L + X p (
k
Jp
λ1
k
)k y p )
A u0
k
λ
k 1
= X1 y1 + X 2 (
−1 1 i
J2
λ1
) y2 + L + X p (
k
Jp
λ1
) yp
ρ (λ J ) = λi / λ1 < 1 ⇔ (λ J ) → 0
k −1 1 i
lim
A u0
k
k →∞
λ
k 1
= X1 y1 ( ≠ 0)
X1 y1 记 x1 = X1 y1 ∞
x1 是属于λ1 的一个特征向量
AX = XJ ⇒ AX1 = X1J1 = λ1 X1
A u0 λ A u0 = k = uk = λ1 Ak u0 µk µk −1 L µ1 µk ∞ X1 y1 uk → (k → ∞) lim uk = x1 X1 y1 ∞ k →∞
Def 3设 A, B ∈ C
n× n
, 若存在矩阵 P ,使得 B = P
−1
AP
相似的 则称 A 和 B 是相似的。 相似矩阵有相同的特征值 相似矩阵有相同的特征值 设 Ax = λ x
Ax = λ x ⇔ PAP Px = λ Px
−1
⇔ BPx = λ Px
本章QR算法的基本思想: 算法的基本思想 本章 算法的基本思想: 相似矩阵 要求: 寻求已知矩阵A的相似矩阵 B ,要求: 特征值和特征向量容易计算 矩阵 B 的特征值和特征向量容易计算
mi ≤ ni
Def 2设 A ∈ C ,对于矩阵 A 的特征值 λi ,如果 mi = ni ,则称该特征值 λi 为 A 的一个半单特征值。 的一个半单特征值。 半单特征值
的所有特征值都是半单 半单的 非亏损的 若 A的所有特征值都是半单的,则称 A是非亏损的。 非亏损的等价条件是 个线性无关的特征向量 A是非亏损的等价条件是 A有n个线性无关的特征向量
ቤተ መጻሕፍቲ ባይዱ
Ak u0 = ∑ α j Ak x j = ∑ α j λ jk x j
n
n
λj k = λ (α1 x1 + ∑ α j ( ) ) x j ) λ1 j=2 k n λj k A u0 = (α1 x1 + ∑ α j ( ) ) x j ) →α1x1(k →∞) k λ1 λ1 j=2
n k 1
λj k λ (α1 x1 + ∑ α j ( ) ) x j ) k λ1 A u0 j=2 = n µk λj k k λ1 (α1 x1 + ∑ α j ( ) ) x j ) λ1 j=2 ∞ x1 → (k →∞) x1 ∞
n k 1
=
A u0
k
µk
µk为 Ak u0 的模最大分量 其中
幂法迭代算法: 幂法迭代算法: 算法
if
uk − uk−1 ∞ < ε
µk
=1
输出 uk和 µk
幂法可以计算矩阵的模最大 幂法可以计算矩阵的模最大 可以计算矩阵的 的特征值和对应的特征向量
利用幂法 幂法求下列矩阵 例1:利用幂法求下列矩阵 A 的模
2 1 0 1 3 1 最大的特征值及相应的特征向量 特征向量. 最大的特征值及相应的特征向量 A = T 0 1 4 (取初始向量为 u0 = (1 1 1) ) 取初始向量为
⇒ AX1 y1 = λ1 X1 y1 ⇒ Ax1 = λ1 x1
Auk −1
k
k
k 1
Auk −1 = µk uk µk → λ1 ( k → ∞ )
λ1 ≥ λ2 ≥ L ≥ λn ; µ1 ≥ µ 2 ≥ L ≥ µ n
λi − µi ≤ A − B 2 ; i = 1, 2,L , n
则有
注意:实际问题中矩阵一般都是由计算或实验得到, 计算或 得到, 注意:实际问题中矩阵一般都是由计算 实验得到 本身必然存在误差 误差, 本身必然存在误差,不妨假设 B = A + ∆A
半单的特征值 λ1是半单的特征值 如下分块: 将 y 和 X 如下分块:
J1 = λ1 I n1
T T
令y
= X u0
−1
y = ( y , y2 , L , y p ) n1 n2 L np