幂法求矩阵的主特征值及主特征向量

合集下载

矩阵最大特征值求法

矩阵最大特征值求法

矩阵最大特征值求法矩阵最大特征值求法矩阵最大特征值是矩阵理论中的重要概念,它在很多领域都有广泛的应用,如物理、化学、工程等。

在实际应用中,我们需要求解矩阵的最大特征值和对应的特征向量,以便对矩阵进行分析和处理。

本文将介绍两种常用的矩阵最大特征值求法:幂法和反迭代法。

一、幂法幂法是求解矩阵最大特征值和对应特征向量的一种常用方法。

其基本思想是:对于一个矩阵A,我们可以随机选择一个向量x0,然后通过不断迭代,使得向量x0趋近于矩阵A的最大特征值所对应的特征向量。

具体步骤如下:1. 随机选择一个向量x0,使其满足||x0||=1。

2. 对向量x0进行迭代,得到向量x1,即x1=Ax0。

3. 对向量x1进行归一化,得到向量x2,即x2=x1/||x1||。

4. 重复步骤2和步骤3,直到向量x收敛于矩阵A的最大特征值所对应的特征向量。

在实际应用中,为了提高计算效率,我们可以对向量x进行正交化处理,即每次迭代后,将向量x与前面所有的向量进行正交化,以避免向量的线性相关性对计算结果的影响。

二、反迭代法反迭代法是一种基于幂法的改进算法,它可以求解矩阵的任意一个特征值和对应的特征向量。

其基本思想是:对于一个矩阵A和一个已知的特征值λ,我们可以通过反迭代法,求解出矩阵A中与特征值λ最接近的特征值和对应的特征向量。

具体步骤如下:1. 随机选择一个向量x0,使其满足||x0||=1。

2. 对向量x0进行迭代,得到向量x1,即x1=(A-λI)-1x0,其中I为单位矩阵。

3. 对向量x1进行归一化,得到向量x2,即x2=x1/||x1||。

4. 重复步骤2和步骤3,直到向量x收敛于矩阵A中与特征值λ最接近的特征向量。

在实际应用中,我们可以通过多次迭代,求解出矩阵A中多个特征值和对应的特征向量,以便对矩阵进行更全面的分析和处理。

总结矩阵最大特征值求法是矩阵理论中的重要内容,幂法和反迭代法是常用的求解方法。

在实际应用中,我们需要根据具体情况选择合适的方法,并注意算法的收敛性和计算效率。

数值方法课程设计幂法反幂法计算矩阵特征值和特征向量-附Matlab程序

数值方法课程设计幂法反幂法计算矩阵特征值和特征向量-附Matlab程序

矩阵的特征值与特征向量的计算摘要物理,力学,工程技术中的很多问题在数学上都归结于求矩阵特征值的问题,例如振动问题(桥梁的振动,机械的振动,电磁振动等)、物理学中某些临界值的确定问题以及理论物理中的一些问题。

矩阵特征值的计算在矩阵计算中是一个很重要的部分,本文使用幂法和反幂法分别求矩阵的按模最大,按模最小特征向量及对应的特征值。

幂法是一种计算矩阵主特征值的一种迭代法,它最大的优点是方法简单,对于稀疏矩阵比较合适,但有时收敛速度很慢。

其基本思想是任取一个非零的初始向量。

由所求矩阵构造一向量序列。

再通过所构造的向量序列求出特征值和特征向量。

反幂法用来计算矩阵按模最小特征向量及其特征值,及计算对应于一个给定近似特征值的特征向量。

本文中主要使用反幂法计算一个矩阵的按模最小特征向量及其对应的特征值。

计算矩阵按模最小特征向量的基本思想是将其转化为求逆矩阵的按模最大特征向量。

然后通过这个按模最大的特征向量反推出原矩阵的按模最小特征向量。

关键词:矩阵;特征值;特征向量;冥法;反冥法THE CALCULATIONS OF EIGENVALUE AND EIGENVECTOR OF MATRIXABSTRACTPhysics, mechanics, engineering technology in a lot of problems in mathematics are attributed to matrix eigenvalue problem, such as vibration (vibration of the bridge, mechanical vibration, electromagnetic vibration, etc.) in physics, some critical values determine problems and theoretical physics in some of the problems. Matrix eigenvalue calculation is a very important part in matrix computation. In this paper, we use the power method and inverse power method to calculate the maximum of the matrix, according to the minimum characteristic vector and the corresponding characteristic value.Power method is an iterative method to calculate the eigenvalues of a matrix. It has the advantage that the method is simple and suitable for sparse matrices, but sometimes the convergence rate is very slow. The basic idea is to take a non - zero initial vector. Construct a vector sequence from the matrix of the matrix. Then the eigenvalues and eigenvectors are obtained by using the constructed vector sequence.The inverse power method is used to calculate the minimum feature vectors and their eigenvalues of the matrix, and to calculate the eigenvalues of the matrix. In this paper, we use the inverse power method to calculate the minimum eigenvalue of a matrix and its corresponding eigenvalues. The basic idea of calculating the minimum characteristic vector of a matrix is to transform it to the maximum characteristic vector of the modulus of the inverse matrix. Then, according to the model, the minimum feature vector of the original matrix is introduced.Key words: Matrix;Eigenvalue;Eigenvector;Iteration methods;目录1 引言 (1)2 相关定理。

数学建模 用幂法 和法 根法求特征值特征向量

数学建模 用幂法 和法 根法求特征值特征向量

数学建模作业计算机学院信计1102班姜圣涛(1)幂法求矩阵最大特征值及特征向量:程序为:#include<iostream>#include<math.h>using namespace std;#define n 3 //三阶矩阵#define N 20#define err 0.0001//幂法求特征值特征向量void main(){cout<<"**********幂法求矩阵最大特征值及特征向量***********"<<endl; int i,j,k;double A[n][n],X[n],u,y[n],max;cout<<"请输入矩阵:\n";for(i=0;i<n;i++)for(j=0;j<n;j++)cin>>A[i][j]; //输入矩阵cout<<"请输入初始向量:\n";for(i=0;i<n;i++)cin>>X[i]; //输入初始向量k=1;u=0;while(1){max=X[0];for(i=0;i<n;i++){if(max<X[i]) max=X[i]; //选择最大值 }for(i=0;i<n;i++)y[i]=X[i]/max;for(i=0;i<n;i++){X[i]=0;for(j=0;j<n;j++)X[i]+=A[i][j]*y[j]; //矩阵相乘}if(fabs(max-u)<err){cout<<"A的特征值是 :"<<endl;cout<<max<<endl;cout<<"A的特征向量为:"<<endl;for(i=0;i<n;i++)cout<<X[i]/(X[0]+X[1]+X[2])<<" ";cout<<endl;break;}else{if(k<N) {k=k+1;u=max;}else {cout<<"运行错误\n";break;}}}}程序结果为:(2)和法求矩阵最大特征值及特征向量程序为:#include<stdio.h>#include<iostream>#include<math.h>using namespace std;#define n 3 //三阶矩阵#define N 20void main(){int i,j,k;double A[n][n],w[n],M[n],u[n],W[n][n],max;cout<<"********和法求矩阵的特征根及特征向量*******"<<endl; cout<<"请输入矩阵:\n";for(i=0;i<n;i++)for(j=0;j<n;j++)cin>>A[i][j]; //输入矩阵//计算每一列的元素和M[0]=0;M[1]=0;M[2]=0;for(i=0;i<n;i++)for(j=0;j<n;j++){M[i]+=A[j][i];}//将每一列向量归一化for(i=0;i<n;i++)for(j=0;j<n;j++){W[j][i]=A[j][i]/M[i];}//输出按列归一化之后的矩阵Wcout<<"按列归一化后的矩阵为:"<<endl;for(i=0;i<n;i++)for(j=0;j<n;j++){cout<<W[i][j]<<" ";if(j==2)cout<<endl;}//求特征向量w[0]=0;w[1]=0;w[2]=0;for(i=0;i<n;i++)for(j=0;j<n;j++){w[i]+=W[i][j];}cout<<"特征向量为:"<<endl;for(i=0;i<n;i++){u[i]=w[i]/(w[0]+w[1]+w[2]); cout<<u[i]<<" "<<endl;}//求最大特征值max=0;for(i=0;i<n;i++){w[i] = 0;for(j=0;j<n;j++){w[i] += A[i][j]*u[j];}}for(i = 0;i < n;i++){max += w[i]/u[i];}cout<<"最大特征根为:"<<endl;cout<<max/n<<endl;}运行结果为:(3)根法求矩阵最大特征值及特征向量:程序为:#include<stdio.h>#include<iostream>#include<math.h>using namespace std;#define n 3 //三阶矩阵#define N 20void main(){int i,j;double A[n][n],w[n],M[n],u[n],W[n][n],max;cout<<"********根法求矩阵的特征根及特征向量*******"<<endl; cout<<"请输入矩阵:\n";for(i=0;i<n;i++)for(j=0;j<n;j++)cin>>A[i][j]; //输入矩阵//计算每一列的元素和M[0]=0;M[1]=0;M[2]=0;for(i=0;i<n;i++)for(j=0;j<n;j++){M[i]+=A[j][i];}//将每一列向量归一化for(i=0;i<n;i++)for(j=0;j<n;j++){W[j][i]=A[j][i]/M[i];}//输出按列归一化之后的矩阵Wcout<<"按列归一化后的矩阵为:"<<endl;for(i=0;i<n;i++)for(j=0;j<n;j++){cout<<W[i][j]<<" ";if(j==2)cout<<endl;}//求特征向量//w[0]=A[0][0];w[1]=A[0][1];w[2]=A[0][2]; w[0]=1;w[1]=1;w[2]=1;for(i=0;i<n;i++) {for(j=0;j<n;j++){w[i]=w[i]*W[i][j];}w[i]=pow(w[i], 1.0/3);}cout<<"特征向量为:"<<endl;for(i=0;i<n;i++){u[i]=w[i]/(w[0]+w[1]+w[2]); cout<<u[i]<<" "<<endl;}//求最大特征值max=0;for(i=0;i<n;i++){w[i] = 0;for(j=0;j<n;j++){w[i] += A[i][j]*u[j];}}for(i = 0;i < n;i++){max += w[i]/u[i];}cout<<"最大特征值为:"<<endl; cout<<max/n;}运行结果为:。

幂法(指数迭代法)

幂法(指数迭代法)

幂法(指数迭代法) 幂法是通过迭代来计算矩阵的主特征值(按模最⼤的特征值)与其对应特征向量的⽅法,适合于⽤于⼤型稀疏矩阵。

基本定义 设A=(a ij)∈R n×n,其特征值为λi,对应特征向量x i(i=1,...,n),即Ax i=λi x i(i=1,...,n),且{x1,...,x n}线性⽆关。

任取⼀个⾮零向量v0∈R n,且v0≠0,构造⼀个关于矩阵A的乘幂的向量序列:v k=Av k−1=A2v k−2=A3v k−3=...=A k v0 称v k为迭代向量。

设特征值λi的前r个为绝对值最⼤的特征值(ppt中分为λ1强占优和⾮强占优,感觉没必要),即有:|λ1|=|λ2|=...=|λr|>|λr+1|≥...≥|λn| 由于{x1,...,x n} 线性⽆关,所以构成R n的⼀个基,于是v0能被表达为:v0=n∑i=1αi x i(且设α1...αr⾮全零) 由Ax i=λi x i:v k=Av k−1=...=A k v0=n∑i=1A kαi x i=n∑i=1λk iαi x i=λk1(r∑i=1αi x i+εk) 其中:εk=n∑i=r+1(λiλ1)kαix i 因为λ1最⼤,所以有|λiλ1|<1 (i=r+1,...,n),从⽽有:limk→∞(λiλ1)k=0 (i=r+1,...,n) 所以有:limk→∞εk=0limk→∞v k=limk→∞λk1(r∑i=1αi x i+εk)=limk→∞λk1(r∑i=1αi x i) 因为在上式中(r∑i=1αi x i)是固定项,可以看出,迭代到后期,v k+1和v k的各个元素有固定⽐值λ1,即:limk→∞(v k+1)i(v k)i=λ1 这样,收敛到主特征值后,还可另外计算它对应的⼀个特征向量(其实就是构成v0的前r项之和,⽽且只能算⼀个):lim k→∞v kλk1=r∑i=1αi x i 其中收敛速度由⽐值|λr+1λ1|决定,越⼩收敛越快。

矩阵计算与分析幂迭代法和逆幂迭代法

矩阵计算与分析幂迭代法和逆幂迭代法

矩阵计算与分析幂迭代法和逆幂迭代法矩阵计算是数学中的一个重要分支,它涉及到对矩阵进行各种运算和分析。

其中,幂迭代法和逆幂迭代法是解决矩阵特征值和特征向量的常用方法。

本文将详细介绍这两种方法的原理、步骤及其在实际问题中的应用,并对它们进行比较与分析。

一、幂迭代法幂迭代法是一种通过不断迭代矩阵的幂次来逼近矩阵的最大特征值和对应的特征向量的方法。

其基本思想是利用矩阵的特征向量的方向不变性,将任意一个非零向量经过多次矩阵乘法后逼近于特征向量。

具体步骤如下:1.选取一个初始向量x0,通常为一个随机向量。

2. 计算xn+1 = Axn,其中A为给定矩阵。

3. 归一化xn+1,即xn+1 = xn+1/,xn+1,其中,xn+1,表示向量的模。

4. 如果迭代次数n足够大,那么xn将逼近A的最大特征值对应的特征向量。

幂迭代法的收敛性与初始向量的选择有很大关系,通常情况下,初始向量选取得越接近最大特征值所对应的特征向量,迭代次数越少,精度越高。

幂迭代法主要用于计算矩阵的最大特征值和对应的特征向量。

在实际问题中,矩阵的最大特征值和特征向量常常具有重要的物理意义,比如在结构力学中,最大特征值代表了结构的自然频率,对应的特征向量则代表了结构的振型。

因此,幂迭代法在结构优化、振动分析等领域有广泛的应用。

逆幂迭代法是幂迭代法的一个改进方法,它主要用于计算矩阵的最小特征值和对应的特征向量。

逆幂迭代法的基本思想是通过不断迭代矩阵的逆幂次来逼近矩阵的最小特征值和对应的特征向量。

具体步骤如下:1.选取一个初始向量x0,通常为一个随机向量。

2. 计算xn+1 = A^-1xn,其中A为给定矩阵,A^-1为A的逆矩阵。

3. 归一化xn+1,即xn+1 = xn+1/,xn+1,其中,xn+1,表示向量的模。

4. 如果迭代次数n足够大,那么xn将逼近A的最小特征值对应的特征向量。

逆幂迭代法的收敛性与初始向量的选择有很大关系,与幂迭代法相同,初始向量选取得越接近最小特征值所对应的特征向量,迭代次数越少,精度越高。

矩阵特征值与特征向量的求法

矩阵特征值与特征向量的求法

矩阵特征值与特征向量的求法一、矩阵特征值与特征向量的定义矩阵特征值(eigenvalue)是指一个矩阵在某个非零向量上的线性变换结果等于该向量的常数倍,这个常数就是该矩阵的特征值。

而对应于每个特征值,都有一个非零向量与之对应,这个向量就是该矩阵的特征向量(eigenvector)。

二、求解矩阵特征值与特征向量的方法1. 特征多项式法通过求解矩阵A减去λI(其中λ为待求解的特征值,I为单位矩阵)的行列式det(A-λI)=0来求解其特征值。

然后将每个特征值代入到(A-λI)x=0中,即可求得对应的特征向量x。

2. 幂法幂法是一种迭代方法,通过不断地将A作用于一个初始向量x上,并将结果归一化,最终得到收敛到最大(或最小)特征值所对应的特征向量。

具体步骤如下:(1) 选取任意一个非零初始向量x;(2) 将Ax除以x中最大元素得到新的向量y=A*x/max(x);(3) 将y归一化得到新的向量x=y/||y||;(4) 重复步骤2-3,直到收敛。

3. QR分解法QR分解是将矩阵A分解为Q和R两个矩阵的乘积,其中Q是正交矩阵(即Q^T*Q=I),R是上三角矩阵。

通过不断地对A进行QR分解,并将得到的Q和R相乘,最终得到一个上三角矩阵T。

T的对角线元素就是A的特征值,而对应于每个特征值,都可以通过反推出来QR分解中的Q所对应的特征向量。

4. Jacobi方法Jacobi方法也是一种迭代方法,通过不断地施加相似变换将A转化为对角矩阵D。

具体步骤如下:(1) 选取任意一个非零初始矩阵B=A;(2) 找到B中绝对值最大的非对角元素b(i,j),记其位置为(i,j);(3) 构造Givens旋转矩阵G(i,j,k),使其作用于B上可以消去b(i,j),即B=G^T*B*G;(4) 重复步骤2-3,直到所有非对角元素均趋近于0。

三、总结以上介绍了求解矩阵特征值与特征向量的四种方法:特征多项式法、幂法、QR分解法和Jacobi方法。

幂法求矩阵特征值

幂法求矩阵特征值

一. 问题描述用幂法与反幂法求解矩阵特征值求n 阶方阵A 的特征值和特征向量,是实际计算中常常碰到的问题,如:机械、结构或电磁振动中的固有值问题等。

对于n 阶矩阵A ,若存在数λ和n 维向量x 满足 Ax=λx (1) 则称λ为矩阵A 的特征值,x 为相应的特征向量。

由线性代数知识可知,特征值是代数方程 |λI-A|=λn+a 1λ1-n +…+a 1-n λ+a n =0 (2)的根。

从表面上看,矩阵特征值与特征向量的求解问题似乎很简单,只需求解方程(2)的根,就能得到特征值λ,再解齐次方程组(λI-A )x=0 (3) 的解,就可得到相应的特征向量。

上述方法对于n 很小时是可以的。

但当n 稍大时,计算工作量将以惊人的速度增大,并且由于计算带有误差,方程(2)未必是精确的特征方程,自然就不必说求解方程(2)与(3)的困难了。

幂法与反幂法是一种计算矩阵主特征值及对应特征向量的迭代方法, 特别是用于大型稀疏矩阵。

这里用幂法与反幂法求解带状稀疏矩阵A[501][501]的特征值。

二. 算法设计1. 幂法(1)取初始向量u )0((例如取u)0(=(1,1,…1)T),置精度要求ε,置k=1.(2)计算v)(k =Au)1(-k , m k =max(v)(k ), u)(k = v)(k / m k(3)若| m k -m 1-k |<ε,则停止计算(m k 作为绝对值最大特征值1λ,u )(k 作为相应的特征向量)否则置k=k+1,转(2) 2. 反幂法 (1)取初始向量u)0((例如取u)0(=(1,1,…1)T),置精度要求ε,置k=1.(2)对A 作LU 分解,即A=LU (3)解线性方程组 Ly )(k =u)1(-k ,Uv)(k =y)(k(4)计算mk =max(v)(k), u)(k= v)(k/ mk(5)若|mk -m1-k|<ε,则停止计算(1/m k作为绝对值最小特征值nλ,u)(k作为相应的特征向量);否则置k=k+1,转(3).三.程序框图1.主程序2.子程序(1). 幂法迭代程序框图(2). 反幂法迭代程序框图四. 结果显示计算结果如下:矩阵A 的按模最大特征值为:-1.070011361487e+001 矩阵A 的按模最小特征值为:-5.557910794230e-003 矩阵A 最大的特征值为:9.724634101479e+000 矩阵A 最小的特征值为:-1.070011361487e+001与各k μ(1,2,...,39)k =最接近的ik λ(用[]V k 表示)的值如下:v[ 1]=-1.018293403315e+001 u[ 1]=-1.018949492196e+001 v[ 2]=-9.585707425068e+000 u[ 2]=-9.678876229054e+000 v[ 3]=-9.172672423928e+000 u[ 3]=-9.168257536145e+000v[ 4]=-8.652284007898e+000 u[ 4]=-8.657638843237e+000 v[ 5]=-8.0934********e+000 u[ 5]=-8.147020150328e+000 v[ 6]=-7.659405407692e+000 u[ 6]=-7.636401457419e+000 v[ 7]=-7.119684648691e+000 u[ 7]=-7.125782764510e+000 v[ 8]=-6.611764339397e+000 u[ 8]=-6.615164071601e+000 v[ 9]=-6.0661********e+000 u[ 9]=-6.104545378693e+000 v[10]=-5.585101052628e+000 u[10]=-5.593926685784e+000 v[11]=-5.114083529812e+000 u[11]=-5.0833********e+000 v[12]=-4.578872176865e+000 u[12]=-4.572689299966e+000 v[13]=-4.096470926260e+000 u[13]=-4.062070607058e+000 v[14]=-3.554211215751e+000 u[14]=-3.551451914149e+000 v[15]=-3.0410********e+000 u[15]=-3.040833221240e+000 v[16]=-2.533970311130e+000 u[16]=-2.530214528331e+000 v[17]=-2.003230769563e+000 u[17]=-2.019595835422e+000 v[18]=-1.503557611227e+000 u[18]=-1.508977142514e+000 v[19]=-9.935586060075e-001 u[19]=-9.983584496049e-001 v[20]=-4.870426738850e-001 u[20]=-4.877397566962e-001 v[21]=2.231736249575e-002 u[21]=2.287893621262e-002 v[22]=5.324174742069e-001 u[22]=5.334976291214e-001 v[23]=1.052898962693e+000 u[23]=1.044116322030e+000 v[24]=1.589445881881e+000 u[24]=1.554735014939e+000 v[25]=2.060330460274e+000 u[25]=2.065353707848e+000 v[26]=2.558075597073e+000 u[26]=2.575972400756e+000 v[27]=3.080240509307e+000 u[27]=3.086591093665e+000 v[28]=3.613620867692e+000 u[28]=3.597209786574e+000 v[29]=4.0913********e+000 u[29]=4.107828479483e+000 v[30]=4.603035378279e+000 u[30]=4.618447172392e+000 v[31]=5.132924283898e+000 u[31]=5.129065865300e+000 v[32]=5.594906348083e+000 u[32]=5.639684558209e+000 v[33]=6.080933857027e+000 u[33]=6.150303251118e+000 v[34]=6.680354092112e+000 u[34]=6.660921944027e+000 v[35]=7.293877448127e+000 u[35]=7.171540636935e+000 v[36]=7.717111714236e+000 u[36]=7.682159329844e+000 v[37]=8.225220014050e+000 u[37]=8.192778022753e+000 v[38]=8.648666065193e+000 u[38]=8.703396715662e+000 v[39]=9.254200344575e+000 u[39]=9.214015408571e+000五.程序#include<stdio.h>#include<math.h>#define N 501void main(){double Q[5][501];double mifa(double A[5][501]);double fanmifa(double A[5][501]);double lm,lmax,lmin,ls,delta,u[39],v[39];int i,j,k;double A[5][501];A[0][0]=A[0][1]=A[1][0]=A[3][500]=A[4][499]=A[4][500]=0.0;//输入*501矩阵for(i=2;i<N;i++)A[0][i]=-0.064;for(i=1;i<N;i++)A[1][i]=0.16;for(i=0;i<N;i++)A[2][i]=(1.64-0.024*(i+1))*sin(0.2*(i+1))-0.64*exp(0.1/(i+1));for(i=0;i<500;i++)A[3][i]=0.16;for(i=0;i<499;i++)A[4][i]=-0.064;for(i=0;i<5;i++)//保存Afor(j=0;j<501;j++)Q[i][j]=A[i][j];lm=mifa(A);//按模最大特征值,函数mifa()不会改变矩阵A的值,不需还原for(i=0;i<N;i++) //平移A{A[2][i]=A[2][i]-lm;}lmax=mifa(A);//平移后A的按模最大特征值lmax=lmax+lm;//最大特征值或最小特征值if(lmax<lm){lmin=lmax;lmax=lm;}elselmin=lm;for(i=0;i<N;i++)//还原Afor(j=0;j<5;j++)A[j][i]=Q[j][i];ls=fanmifa(A);//按模最小特征值for(i=0;i<N;i++)//还原Afor(j=0;j<5;j++)A[j][i]=Q[j][i];for(k=0;k<39;k++)//计算u1-u39u[k]=lmin+(k+1)*((lmax-lmin)/40);for(k=0;k<39;k++){for(j=0;j<N;j++)A[2][j]=A[2][j]-u[k];v[k]=fanmifa(A)+u[k];for(i=0;i<N;i++)//还原Afor(j=0;j<5;j++)A[j][i]=Q[j][i];}printf("矩阵的按模最大特征值为:%.12e",lm);printf("\n");printf("矩阵的按模最小特征值为:%.12e",ls);printf("\n");printf("矩阵最大的特征值为:%.12e",lmax);printf("\n");printf("矩阵最小的特征值为:%.12e",lmin);printf("\n");for(k=0;k<39;k++){printf("v[%2d]=%.12e ",k+1,v[k]);printf("u[%2d]=%.12e",k+1,u[k]);printf("\n");}}double sgn(double a)//符号函数{if(a>0)return 1;else if(a=0)return 0;else return -1;}int max2(int a,int b){return a>b?a:b;}int max3(int a,int b,int c)return max2(a,b)>c?max2(a,b):c;}int min(int a,int b){return a<b?a:b;}void LU(double A[5][501],double u[501],double B[501])//LU分解法{double X[501];int i,j,k,t,l;double m=0,n=0;for(k=1;k<=N;k++)//求L,U{for(j=k;j<=min(N,k+2);j++)//U{m=0;for(t=max3(1,k-2,j-2);t<=k-1;t++){m+=A[k-t+2][t-1]*A[t-j+2][j-1];}A[k-j+2][j-1]=A[k-j+2][j-1]-m;}for(i=k+1;i<=min(N,k+2);i++)//Lif(k<N){n=0;for(l=max3(1,i-2,k-2);l<=k-1;l++){n+=A[i-l+2][l-1]*A[l-k+2][k-1];}A[i-k+2][k-1]=(A[i-k+2][k-1]-n)/A[2][k-1];}}for(i=2;i<=N;i++)//回代过程{m=0;for(t=max2(1,i-2);t<=i-1;t++)m+=A[i-t+2][t-1]*B[t-1];B[i-1]=B[i-1]-m;}X[N-1]=B[N-1]/A[2][N-1];//回代过程for(i=N-1;i>=1;i--){n=0;for(t=i+1;t<=min(N,i+2);t++)n+=A[i-t+2][t-1]*X[t-1];X[i-1]=(B[i-1]-n)/A[2][i-1];}for(i=1;i<=N;i++)//输出方程结果{u[i-1]=X[i-1];}}double mifa(double A[5][501])//幂法{int i,j,l=0;double u[501],t[501];double y[501];double h,b,c;c=0;for(i=0;i<N;i++)//幂法初始向量u[i]=1;while(1){for(i=0;i<N;i++)t[i]=0;h=u[0];for(i=0;i<N;i++)//无穷范数{if(fabs(h)<fabs(u[i])){h=u[i];l=i;}}for(i=0;i<N;i++)y[i]=u[i]/fabs(h);for(i=2;i<499;i++){for(j=i-2;j<=i+2;j++){t[i]=t[i]+A[i-j+2][j]*y[j];}u[i]=t[i];u[0]=A[2][0]*y[0]+A[1][1]*y[1]+A[0][2]*y[2];u[1]=A[3][0]*y[0]+A[2][1]*y[1]+A[1][2]*y[2]+A[0][3]*y[3];u[499]=A[4][497]*y[497]+A[3][498]*y[498]+A[2][499]*y[499]+A[1][N-1]*y[N-1];u[N-1]=A[4][498]*y[498]+A[3][499]*y[499]+A[2][N-1]*y[N-1];b=sgn(h)*u[l];if((fabs(b-c)/fabs(b))<=1e-12){//printf("幂法成功!");//printf("\n");break;}c=b;}return b;}double fanmifa(double A[5][501])//反幂法{double u[501],y[501];double P[5][501],Y[501];//LU分解前用于保存A和y的值double m=0,n=0,b=0,c=0;int i,j;for(i=0;i<N;i++)//反幂法初始向量u[0]=1;while(1){b=0;n=0;for(i=0;i<N;i++)n=n+u[i]*u[i];n=sqrt(n);for(i=0;i<N;i++)y[i]=u[i]/n;for(i=0;i<N;i++)//保存A和y{Y[i]=y[i];for(j=0;j<5;j++){P[j][i]=A[j][i];}}LU(A,u,y);//LU分解法,会改变A,y,u的值(目的只需求出u)for(i=0;i<N;i++)//还原A和yy[i]=Y[i];for(j=0;j<5;j++){A[j][i]=P[j][i];}}for(i=0;i<N;i++)b=b+y[i]*u[i];if((fabs(b-c)/fabs(b))<=1e-12){//printf("反幂法成功!");//printf("\n");break;}c=b;}return 1/b;}。

矩阵特征问题的计算方法

矩阵特征问题的计算方法

矩阵特征问题的计算方法首先,我们来定义特征值和特征向量。

对于一个n阶方阵A,如果存在一个非零向量X,使得下式成立:AX=λX其中,λ是一个实数常数,称为特征值;X是一个非零向量,称为特征向量。

也可以将上面的等式写成(A-λI)X=0,其中I是n阶单位矩阵。

接下来,我们介绍一些常用的计算特征值和特征向量的方法。

一、特征方程法特征方程法是最常用的求解特征值和特征向量的方法。

对于n阶方阵A,我们可以将特征方程写成:A-λI,=0其中,A-λI,表示A-λI的行列式。

解特征方程即可得到n个特征值λ1,λ2,...,λn。

对于每个特征值λi,我们可以代入(A-λiI)X=0,求解出对应的特征向量Xi。

二、幂法幂法是一种迭代计算特征值和特征向量的方法。

它的基本思想是,假设一个向量X0,然后通过迭代的方式不断计算Xk+1=AXk,直到收敛为止。

此时,Xk就是所求的特征向量,而特征值可以通过计算向量Xk与Xk+1的比值得到。

三、雅可比迭代法雅可比迭代法是一种用于计算对称矩阵特征值和特征向量的方法。

它的基本思想是,通过矩阵的相似变换将对称矩阵转化为对角矩阵。

雅可比迭代法的具体步骤如下:1.初始化一个对称矩阵A,令Q为单位矩阵。

2.找到A的非对角元素中绝对值最大的元素(a,b)。

3.计算旋转矩阵R,使得AR=RD,其中D为对角矩阵,D的对角线元素与A的特征值相等。

4.更新矩阵A=R^TAR,更新矩阵Q=Q×R,重复步骤2和3,直到达到收敛条件。

四、QR分解法QR分解法是一种计算特征值和特征向量的常用方法。

它的基本思想是,将矩阵A分解为QR,其中Q是正交矩阵,R是上三角矩阵。

然后,通过对R进行迭代得到对角矩阵D,D的对角线元素与A的特征值相等。

具体步骤如下:1.初始化一个矩阵A。

2.对A进行QR分解,得到矩阵Q和R。

3.计算新矩阵A=RQ,重复步骤2和3,直到达到收敛条件。

特征值和特征向量在实际应用中具有重要的意义。

幂法,反幂法求解矩阵最大最小特征值及其对应的特征向量(DOC)

幂法,反幂法求解矩阵最大最小特征值及其对应的特征向量(DOC)

数值计算解矩阵的按模最大最小特征值及对应的特征向量一.幂法1. 幂法简介:当矩阵A 满足一定条件时,在工程中可用幂法计算其主特征值(按模最大)及其特征向量。

矩阵A 需要满足的条件为: (1) 的特征值为A i n λλλλ,0||...||||21≥≥≥>(2) 存在n 个线性无关的特征向量,设为n x x x ,...,,21 1.1计算过程:i ni i i u xx αα,1)0()0(∑==,有对任意向量不全为0,则有1111112211211111111011)()(...u u a u a u λu λαu αA x A Ax x k n n k n k k ni ik i i ni i i k )(k (k))(k αλλλλλα++++=+=+++≈⎥⎦⎤⎢⎣⎡+++======∑∑ 可见,当||12λλ越小时,收敛越快;且当k 充分大时,有1)1111)11111λαλαλ=⇒⎪⎩⎪⎨⎧==+++(k )(k k(k k )(k x x u x u x ,对应的特征向量即是)(k x 1+。

2 算法实现.,, 3,,1 , ).5()5(,,,,||).4();max(,).3()(max(;0,1).2(,).1()()()(停机否则输出失败信息转置若转否则输出若计算最大迭代次数,误差限,初始向量输入矩阵βλβεβλβλε←+←<<-←←=←←k k N k y x Ay x x abs x y k N x A k k k3 matlab 程序代码function [t,y]=lpowerA,x0,eps,N) % t 为所求特征值,y是对应特征向量k=1;z=0; % z 相当于λy=x0./max(abs(x0)); % 规范化初始向量x=A*y; % 迭代格式b=max(x); % b 相当于βif abs(z-b)<eps % 判断第一次迭代后是否满足要求t=max(x);return;endwhile abs(z-b)>eps && k<Nk=k+1;z=b;y=x./max(abs(x));x=A*y;b=max(x);end[m,index]=max(abs(x)); % 这两步保证取出来的按模最大特征值t=x(index); % 是原值,而非其绝对值。

幂法求解矩阵主特征值的加速方法毕业论文

幂法求解矩阵主特征值的加速方法毕业论文

幂法求解矩阵主特征值的加速方法傅鹏河南理工大学数学与信息科学学院信息与计算科学专业2009级1班摘要:本论文主要研究的是幂法求解矩阵的主特征值和特征向量。

物理、力学和工程技术中有许多需要我们求矩阵的按模最大的特征值(及称为主特征值)和特征向量。

幂法是计算一个矩阵的模最大特征值和对应的特征向量的一种迭代方法。

它最大的优点是方法简单,适合于大型稀疏矩阵的主特征值,但是收敛速度非常慢。

所以我们要用加速的方法来加速收敛,加速方法包括原点平移加速、Rayleigh 商加速和Aitken 加速算法。

关键词:幂法;原点平移加速;Rayleigh 商加速;Aitken 加速算法§1 引言我们来介绍矩阵特征值和特征向量的计算方法,大家知道求一个矩阵的特征值的问题实质上是求一个多项式的根的问题,而数学上已经证明5阶以上的多项式的根一般不能用有限次运算求得。

因此,矩阵特征值的计算方法本质上都是迭代,而对于大型的稀疏矩阵就需要用幂法求解最简单。

但是由于收敛速度非常的慢所以我们需要用加速的方法加快收敛速度而本次论文也是针对加速问题来通过对几种方法的研究讨论。

并且通过算法的实现来说明那种加速算法收敛得快,哪个计算量比较节省。

其实本文主要讨论的问题是一个应用中常见的一类数值计算问题。

§2 加速算法的背景2.1幂法幂法是计算一个矩阵的模最大特征值和对应的特征向量的一种迭代方法。

它适用于大型稀疏矩阵。

为了说明其基本思想我们先假设n nA C⨯∈是可对角化的,即A 有如下分解1A X X -=Λ其中()[]112,,,,,n n n diag X x x C λλ⨯Λ==∈非奇异,再假定12.n λλλ>≥≥现任取一向量0.n u C ∈由于X 的列向量构成nC 的一组基,故0u 可表示为01122,n n u x x x ααα=+++这里.i C α∈这样,我们有02111121nkk j jj nk j j jj kn j kj j j A u A x x x x ααλλλααλ=====⎛⎫⎛⎫ ⎪=+ ⎪ ⎪⎝⎭⎝⎭∑∑∑由此可知 0111lim.k kk A u x αλ→∞=这表明,当10α≠而且k 充分大时,向量01k k k A u u λ=这是A 的一个很好的近似特征向量。

求矩阵特征值的方法

求矩阵特征值的方法

求矩阵特征值的方法介绍在线性代数中,矩阵特征值是一个重要的概念。

特征值可以帮助我们了解矩阵的性质和特点。

求解矩阵特征值的方法有很多种,每种方法都有其适用的场景和优缺点。

本文将介绍几种常用的方法,包括幂法、QR方法、雅可比方法和特征值问题的迭代解法。

幂法幂法是一种用于估计矩阵最大特征值和对应特征向量的迭代算法。

该方法的基本思想是通过不断迭代矩阵与向量的乘积,使得向量逐渐趋近于特征向量。

具体步骤如下:1.随机选择一个向量b作为初始向量。

2.计算矩阵A与向量b的乘积,得到向量c。

3.对向量c进行归一化处理,得到向量b。

4.重复步骤2和步骤3,直到向量b的变化趋于稳定。

5.向量b的模即为矩阵A的最大特征值的估计值,向量b即为对应的特征向量的估计值。

幂法的收敛速度取决于矩阵A的特征值分布。

如果矩阵A的最大特征值与其他特征值之间的差距较大,那么幂法往往能够快速收敛。

QR方法QR方法是一种迭代算法,用于计算实对称矩阵的特征值。

该方法的基本思想是通过不断迭代矩阵的QR分解,使得矩阵逐渐趋近于上三角矩阵,从而得到特征值的估计值。

具体步骤如下:1.对矩阵A进行QR分解,得到正交矩阵Q和上三角矩阵R。

2.计算矩阵R与矩阵Q的乘积,得到新的矩阵A。

3.重复步骤1和步骤2,直到矩阵A的变化趋于稳定。

4.矩阵A的对角线元素即为矩阵A的特征值的估计值。

QR方法的收敛速度较快,并且对于任意实对称矩阵都适用。

但是,QR方法只能计算实对称矩阵的特征值,对于一般的矩阵则不适用。

雅可比方法雅可比方法是一种用于计算实对称矩阵的特征值和特征向量的迭代算法。

该方法的基本思想是通过不断迭代交换矩阵的非对角线元素,使得矩阵逐渐趋近于对角矩阵,从而得到特征值和特征向量的估计值。

具体步骤如下:1.初始化一个单位矩阵J,将其作为迭代的初始矩阵。

2.在矩阵J中找到非对角线元素的绝对值最大的位置,记为(i, j)。

3.构造一个旋转矩阵P,使得P^T * J * P的(i, j)位置元素为0。

幂法和反幂法求矩阵特征值课程知识讲解

幂法和反幂法求矩阵特征值课程知识讲解

v (k ) =Au (k 1) ,m =max(v (k ) ), u (k ) = v (k ) / m
k
k
(3)若|
m= k
m k 1 |<
,则停止计算(m k 作为绝对值最大特征值 1 ,u (k) 作为
相应的特征向量)否则置 k=k+1,转(2)
2、反幂法算法
(1)取初始向量 u (0) (例如取 u (0) =(1,1,…1) T ),置精度要求 ,置 k=1.

2.选择合适问题求解的数值计算方法;

3.设计程序并进行计算;
4.对结果进行解释说明;
对于幂法和反幂法求解矩阵特征值和特征向量的问题将从问题分析,算 法设计和流程图,理论依据,程序及结果进行阐述该问题。
一.问题的分析:
求 n 阶方阵 A 的特征值和特征向量,是实际计算中常常碰到的问题,如:

机械、结构或电磁振动中的固有值问题等。对于 n 阶矩阵 A,若存在数 和
按式(1)计算出 m 和 u (k ) 满足 k
lim
k
m
k
=
1
,
lim u (k ) = x1
k
max( x1 )
(二)反幂法算法的理论依据及推导
反幂法是用来计算绝对值最小的特征值忽然相应的特征向量的方法。是对 幂法的修改,可以给出更快的收敛性。 1、反幂法的迭代格式与收敛性质
设 A 是非奇异矩阵,则零不是特征值,并设特征值为 | 1 |≥| 2 |≥…≥| n1|>| n |
则按 A 1 的特征值绝对值的大小排序,有
| 1 |>| 1 |≥…≥| 1 |
n
n 1
1

用幂法求解矩阵特征值和特征向量

用幂法求解矩阵特征值和特征向量

x= -0.3930 -0.9774 0.2921 1.0000 第五题 A=[-1 2 1; 2 -4 1; 1 1 -6 ]; v0=[1 1 1]'; tol=1e-4; [lda,x]=mifa(A,v0,tol) lda = -6.4209
第4页
数值分析实验指导
x= -0.0463 -0.3746 000
( 1, 0, 1, 0, 0, 1 )T 105
1 21.30525 6 1.62139 x1 0.8724,0.5401,0.9973,0.5644,0.4972,1.0 T
第1页
数值分析实验指导
2 1 1 2 1 (3) A= 1 2 1 1 2 1 1 2 T 0 104 取 =( 1, 1, 1, 1, 1 ) 参考结果: 3.7321 3 4 2 1 1 3 1 5 (4) A= 3 1 6 2 4 5 2 1 T 2 取 0 =( 1, 1, 1, 1 ) , 10 。
第3页
数值分析实验指导
x= 0.5000 -0.8660 1.0000 -0.8660 0.5000 第四题 A=[2 1 3 4; 1 -3 1 5; 3 1 6 -2; 4 5 -2 -1 ]; v0=[1 1 1 1]'; tol=1e-2; [lda,x]=mifa(A,v0,tol) lda = -8.0136
下面再考虑主特征值 1 的的计算,用 (vk )i 表示 vk 的第 i 个分量,则
( x ) ( k 1 )i (vk 1 )i 1 1 1 i , (vk )i 1 ( x1 )i ( k )i

幂法,反幂法求解矩阵最大最小特征值及其对应的特征向量

幂法,反幂法求解矩阵最大最小特征值及其对应的特征向量

幂法,反幂法求解矩阵最大最小特征值及其对应的特征向量数值计算解矩阵的按模最大最小特征值及对应的特征向量一.幂法1. 幂法简介:当矩阵A满足一定条件时,在工程中可用幂法计算其主特征值(按模最大) 及其特征向量。

矩阵A需要满足的条件为:|,|,|,|,...,|,|,0,,为A的特征值(1) 12nix,x,...,x(2) 存在n个线性无关的特征向量,设为 12n1.1计算过程:n(0)(0)对任意向量x,有x,,u,,不全为0,则有 ,iii,1i(k,1)(k)k,1(0),,,xAx...Axnn11k,k,,,Aαuαλu,,iiiii11i,i,,,,, k,1k,1k,1n2,,,,,λu()au?()au11122nn,,,,11,,k,1,,,u111,2||可见,当越小时,收敛越快;且当k充分大时,有,111(k,)k,1(k,),,,xu,x,111(k,1),,,,x1,对应的特征向量即是。

)(k)(kkx,xu,,,111,2 算法实现,(1).输入矩阵A,初始向量x,误差限,最大迭代次数N(k)x(k),(2).k,1,,0;y,(k)max(abs(x),(3).计算x,Ay,,max(x);,,,,(4).若|,|,,输出,y,否则,转(5)(5).若 k,N, 置k,k,1,,,,,转3 ,否则输出失败信息,停机.3 matlab程序代码function [t,y]=lpowerA,x0,eps,N) % t 为所求特征值,y是对应特征向量k=1;, z=0; % z 相当于y=x0./max(abs(x0)); % 规范化初始向量x=A*y; % 迭代格式b=max(x); % b 相当于 ,if abs(z-b)<eps % 判断第一次迭代后是否满足要求t=max(x);return;endwhile abs(z-b)>eps && k<Nk=k+1;z=b;y=x./max(abs(x));x=A*y;b=max(x);end[m,index]=max(abs(x)); % 这两步保证取出来的按模最大特征值t=x(index); % 是原值,而非其绝对值。

matlab幂法求特征值和特征向量方法实现和函数表示

matlab幂法求特征值和特征向量方法实现和函数表示

matlab幂法求特征值和特征向量方法实现和函数表示1. 引言在数值分析中,求解特征值和特征向量是一项重要而且经常出现的任务。

特征值和特征向量在矩阵和线性代数中有着广泛的应用,涉及到许多领域,如机器学习、信号处理、结构动力学等。

在matlab中,幂法是一种常用的求解特征值和特征向量的方法,同时也有对应的函数可以实现这一过程。

2. 幂法的原理幂法是一种迭代方法,它利用矩阵的特征值和特征向量的性质,通过不断地迭代计算,逼近矩阵的主特征值和对应的特征向量。

具体来说,假设A是一个n阶矩阵,它的特征值λ1>λ2≥...≥λn,并且对应着线性无关的特征向量v1,v2,...,vn。

如果选择一个任意的非零初始向量x0,并进行以下迭代计算:```x(k+1) = Ax(k) / ||Ax(k)||```其中,||.||表示向量的模长。

不断迭代计算后,x(k)将收敛到矩阵A的主特征向量v1上,并且相应的特征值即为A的主特征值λ1。

3. matlab实现幂法求解特征值和特征向量在matlab中,幂法的实现也非常简单。

可以使用自带的eig函数,该函数可以直接求解矩阵的特征值和特征向量。

使用方法如下:```[V,D] = eig(A)```其中,A为待求解的矩阵,V为特征向量矩阵,D为特征值矩阵。

利用eig函数,即可一步到位地求解矩阵的特征值和特征向量,非常简单方便。

4. 函数表示幂法求解特征值和特征向量的过程可以表示为一个matlab函数。

通过封装相关的迭代算法和收敛判据,可以方便地实现幂法的函数表示。

可以定义一个名为powerMethod的函数:```matlabfunction [lambda, v] = powerMethod(A, x0, maxIter, tol)% 初始化k = 1;x = x0;% 迭代计算while k <= maxItery = A * x;lambda = norm(y, inf);x = y / lambda;% 检查收敛性if norm(A * x - lambda * x) < tolbreak;endk = k + 1;endv = x;end```利用这个函数,就可以自己实现幂法求解特征值和特征向量的过程。

矩阵特征值求法

矩阵特征值求法

矩阵特征值求法在数学中,矩阵特征值是矩阵的一个非常重要的性质。

它可以用来描述矩阵的很多性质,比如矩阵的对角化、矩阵的相似变换等。

矩阵特征值的求法有很多种,其中比较常见的有幂法、Jacobi方法、QR方法等。

本文将介绍这些方法的基本原理和具体实现过程。

一、幂法幂法是一种求解矩阵特征值和特征向量的迭代方法。

其基本思想是:从一个随机的初始向量开始,不断地将矩阵乘上这个向量,并将结果归一化,得到一个新的向量。

这个过程会不断重复,直到向量收敛到某个特征向量为止。

此时,对应的特征值就是矩阵的最大特征值。

具体实现过程如下:1. 初始化一个随机向量 $x_0$,并进行归一化,得到$x_1=frac{x_0}{left|x_0right|}$。

2. 对于 $k=1,2,3,cdots$,重复以下步骤:(1)计算 $y_k=Ax_{k}$。

(2)计算$lambda_k=frac{left|y_kright|}{left|x_kright|}$。

(3)归一化向量 $x_{k+1}=frac{y_k}{left|y_kright|}$。

3. 当 $left|lambda_{k+1}-lambda_kright|<epsilon$,其中$epsilon$ 是一个足够小的数,表示收敛精度时,停止迭代。

此时,向量 $x_{k+1}$ 就是对应的特征向量,特征值为 $lambda_{k+1}$。

幂法的优点是简单易懂,容易实现。

但是,由于它只能得到矩阵的最大特征值和对应的特征向量,因此需要对矩阵进行对角化或者其他方法来得到所有的特征值和特征向量。

二、Jacobi方法Jacobi方法是一种求解实对称矩阵特征值和特征向量的方法。

其基本思想是:通过一系列旋转变换,将实对称矩阵变换为对角矩阵,从而得到特征值和特征向量。

具体实现过程如下:1. 初始化一个实对称矩阵 $A$。

2. 选择一个非对角线元素 $a_{i,j}$,并计算旋转角度$theta$,使得 $a_{i,j}$ 变为 $0$。

矩阵求解本证值方法

矩阵求解本证值方法

矩阵求解本证值方法
矩阵的特征值和特征向量是线性代数中重要的概念,它们在很
多领域都有广泛的应用。

矩阵求解特征值和特征向量的方法有多种,其中比较常用的方法包括幂法、反幂法、QR方法、雅可比方法等。

下面我将从不同的角度对这些方法进行介绍。

首先,幂法是一种求解矩阵最大特征值和对应特征向量的迭代
方法。

它的基本思想是通过不断地对矩阵进行乘法运算,使得一个
向量不断地接近矩阵的最大特征向量。

幂法的收敛速度取决于矩阵
的特征值分布,通常情况下可以通过多次迭代得到一个较为接近的
最大特征值和对应的特征向量。

其次,反幂法是用来求解矩阵最小特征值和对应特征向量的方法。

它是在幂法的基础上进行改进得到的,通过对矩阵的逆进行迭
代来求解最小特征值和对应的特征向量。

另外,QR方法是一种通过矩阵相似变换将原矩阵转化为上(或下)三角矩阵,从而求解矩阵的特征值和特征向量的方法。

QR方法
的优点是收敛速度较快,适用于一般的矩阵求解问题。

此外,雅可比方法是一种通过多次相似变换将原矩阵对角化的方法,从而求解矩阵的特征值和特征向量。

雅可比方法的优点是简单易实现,适用于对称矩阵的特征值求解。

总的来说,矩阵求解特征值和特征向量的方法有多种,每种方法都有其适用的场景和特点。

在实际应用中,需要根据具体的情况选择合适的方法来求解矩阵的特征值和特征向量。

希望以上介绍能够对你有所帮助。

9-矩阵特征值与特征向量的计算-幂法

9-矩阵特征值与特征向量的计算-幂法
(1 ) A 与 A
1
x x A
1
( x ), A 则
1
x
1

x
的特征值互为倒数
, 特征向量不变
,
求 A 的按模最小的特征值
n
1
求A
1
的按模最大的特征值
n
.
( 2 ) 计算 x
(k 1)
A
1
y
(k )
解方程组
Ax
(k 1)
y
(k )
16
算法4.3(反幂法)
G1 = {z:|z – 1| 0.6};G2 = {z:|z – 3| 0.8}; G3 = {z:|z + 1| 1.8};G4 = {z:|z + 4| 0.6}。
G4
G1
G2
G3
注:定理称A的n个特征值全落在n个盖氏圆上,但 未说明每个圆盘内都有一个特征值。
2
§1 幂法和反幂法
1.1 幂法 用于求矩阵的按模最大的特征值与相应的特征向量的 近似值。
特征值与特征向量的计算
• 3.1.1 盖氏圆
求 Ax x
• 定义3.1-1 设A = [aij]nn,称由不等式 • 所确定的复区域为A的第i个盖氏圆,记为Gi: •
n
n
G i { z : z a ii

j1 j i
a ij }
z a ii

j1 j i
a ij
B 是 A 的相似变换 同的秩 . .
则称 A 与 B 相似,或 结论:相似矩阵具有相
, 迹 , 行列式和特征值
21
) 1 ) 1

R(x
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
相关文档
最新文档