幂法反幂法求解矩阵大小特征值及其对应的特征向量

合集下载

矩阵最大特征值求法

矩阵最大特征值求法

矩阵最大特征值求法矩阵最大特征值求法矩阵最大特征值是矩阵理论中的重要概念,它在很多领域都有广泛的应用,如物理、化学、工程等。

在实际应用中,我们需要求解矩阵的最大特征值和对应的特征向量,以便对矩阵进行分析和处理。

本文将介绍两种常用的矩阵最大特征值求法:幂法和反迭代法。

一、幂法幂法是求解矩阵最大特征值和对应特征向量的一种常用方法。

其基本思想是:对于一个矩阵A,我们可以随机选择一个向量x0,然后通过不断迭代,使得向量x0趋近于矩阵A的最大特征值所对应的特征向量。

具体步骤如下:1. 随机选择一个向量x0,使其满足||x0||=1。

2. 对向量x0进行迭代,得到向量x1,即x1=Ax0。

3. 对向量x1进行归一化,得到向量x2,即x2=x1/||x1||。

4. 重复步骤2和步骤3,直到向量x收敛于矩阵A的最大特征值所对应的特征向量。

在实际应用中,为了提高计算效率,我们可以对向量x进行正交化处理,即每次迭代后,将向量x与前面所有的向量进行正交化,以避免向量的线性相关性对计算结果的影响。

二、反迭代法反迭代法是一种基于幂法的改进算法,它可以求解矩阵的任意一个特征值和对应的特征向量。

其基本思想是:对于一个矩阵A和一个已知的特征值λ,我们可以通过反迭代法,求解出矩阵A中与特征值λ最接近的特征值和对应的特征向量。

具体步骤如下:1. 随机选择一个向量x0,使其满足||x0||=1。

2. 对向量x0进行迭代,得到向量x1,即x1=(A-λI)-1x0,其中I为单位矩阵。

3. 对向量x1进行归一化,得到向量x2,即x2=x1/||x1||。

4. 重复步骤2和步骤3,直到向量x收敛于矩阵A中与特征值λ最接近的特征向量。

在实际应用中,我们可以通过多次迭代,求解出矩阵A中多个特征值和对应的特征向量,以便对矩阵进行更全面的分析和处理。

总结矩阵最大特征值求法是矩阵理论中的重要内容,幂法和反迭代法是常用的求解方法。

在实际应用中,我们需要根据具体情况选择合适的方法,并注意算法的收敛性和计算效率。

数值分析幂法和反幂法

数值分析幂法和反幂法

数值分析幂法和反幂法数值分析中的幂法和反幂法是求解矩阵最大特征值和最小特征值的常用方法。

这两种方法在许多数值计算问题中都有着广泛的应用,包括图像压缩、数据降维、谱聚类等。

幂法(Power Method)是一种迭代算法,通过不断迭代矩阵与一个向量的乘积,来逼近原矩阵的最大特征值和对应的特征向量。

其基本思想是,对于一个矩阵A和一维向量x,可以通过不断迭代计算Ax,Ax,Ax...,来使得向量x逼近最大特征值对应的特征向量。

具体的迭代过程如下:1.初始化一个向量x0(可以是单位向量或任意非零向量)2.令x1=Ax0,对向量进行归一化(即除以向量的范数)得到x13.重复步骤2,即令x2=Ax1,x3=Ax2...,直到收敛(即相邻迭代向量的差的范数小于一些阈值)为止4. 最终得到的向量xn就是A的最大特征值对应的特征向量在实际求解时,我们可以将迭代过程中的向量进行归一化,以防止数值溢出或下溢。

此外,为了提高迭代速度,我们可以选择使得xn与xn-1的内积大于0的方向作为迭代方向,这样可以使得特征值的模快速收敛到最大特征值。

幂法的收敛性是保证的,但收敛速度可能较慢,尤其是当最大特征值与其他特征值非常接近时。

此时可能需要使用一些改进的方法来加速收敛,例如Rayleigh商或位移策略。

相反,反幂法(Inverse Power Method)是求解矩阵的最小特征值和对应的特征向量的方法。

它的基本思想和幂法类似,但在每次迭代中,需要计算A和依其逆矩阵A-1的乘积。

迭代过程如下:1.初始化一个向量x0(可以是单位向量或任意非零向量)2.令x1=A-1x0,对向量进行归一化(即除以向量的范数)得到x13.重复步骤2,即令x2=A-1x1,x3=A-1x2...4. 最终得到的向量xn就是A的最小特征值对应的特征向量反幂法和幂法的区别在于迭代过程中乘以了A的逆矩阵,从而可以利用矩阵的特殊结构或性质来提高迭代速度。

同时,在实际求解时,可能需要将矩阵进行一些变换,以确保A-1存在或数值稳定性。

数值方法课程设计幂法反幂法计算矩阵特征值和特征向量-附Matlab程序

数值方法课程设计幂法反幂法计算矩阵特征值和特征向量-附Matlab程序

矩阵的特征值与特征向量的计算摘要物理,力学,工程技术中的很多问题在数学上都归结于求矩阵特征值的问题,例如振动问题(桥梁的振动,机械的振动,电磁振动等)、物理学中某些临界值的确定问题以及理论物理中的一些问题。

矩阵特征值的计算在矩阵计算中是一个很重要的部分,本文使用幂法和反幂法分别求矩阵的按模最大,按模最小特征向量及对应的特征值。

幂法是一种计算矩阵主特征值的一种迭代法,它最大的优点是方法简单,对于稀疏矩阵比较合适,但有时收敛速度很慢。

其基本思想是任取一个非零的初始向量。

由所求矩阵构造一向量序列。

再通过所构造的向量序列求出特征值和特征向量。

反幂法用来计算矩阵按模最小特征向量及其特征值,及计算对应于一个给定近似特征值的特征向量。

本文中主要使用反幂法计算一个矩阵的按模最小特征向量及其对应的特征值。

计算矩阵按模最小特征向量的基本思想是将其转化为求逆矩阵的按模最大特征向量。

然后通过这个按模最大的特征向量反推出原矩阵的按模最小特征向量。

关键词:矩阵;特征值;特征向量;冥法;反冥法THE CALCULATIONS OF EIGENVALUE AND EIGENVECTOR OF MATRIXABSTRACTPhysics, mechanics, engineering technology in a lot of problems in mathematics are attributed to matrix eigenvalue problem, such as vibration (vibration of the bridge, mechanical vibration, electromagnetic vibration, etc.) in physics, some critical values determine problems and theoretical physics in some of the problems. Matrix eigenvalue calculation is a very important part in matrix computation. In this paper, we use the power method and inverse power method to calculate the maximum of the matrix, according to the minimum characteristic vector and the corresponding characteristic value.Power method is an iterative method to calculate the eigenvalues of a matrix. It has the advantage that the method is simple and suitable for sparse matrices, but sometimes the convergence rate is very slow. The basic idea is to take a non - zero initial vector. Construct a vector sequence from the matrix of the matrix. Then the eigenvalues and eigenvectors are obtained by using the constructed vector sequence.The inverse power method is used to calculate the minimum feature vectors and their eigenvalues of the matrix, and to calculate the eigenvalues of the matrix. In this paper, we use the inverse power method to calculate the minimum eigenvalue of a matrix and its corresponding eigenvalues. The basic idea of calculating the minimum characteristic vector of a matrix is to transform it to the maximum characteristic vector of the modulus of the inverse matrix. Then, according to the model, the minimum feature vector of the original matrix is introduced.Key words: Matrix;Eigenvalue;Eigenvector;Iteration methods;目录1 引言 (1)2 相关定理。

矩阵计算与分析幂迭代法和逆幂迭代法

矩阵计算与分析幂迭代法和逆幂迭代法

矩阵计算与分析幂迭代法和逆幂迭代法矩阵计算是数学中的一个重要分支,它涉及到对矩阵进行各种运算和分析。

其中,幂迭代法和逆幂迭代法是解决矩阵特征值和特征向量的常用方法。

本文将详细介绍这两种方法的原理、步骤及其在实际问题中的应用,并对它们进行比较与分析。

一、幂迭代法幂迭代法是一种通过不断迭代矩阵的幂次来逼近矩阵的最大特征值和对应的特征向量的方法。

其基本思想是利用矩阵的特征向量的方向不变性,将任意一个非零向量经过多次矩阵乘法后逼近于特征向量。

具体步骤如下:1.选取一个初始向量x0,通常为一个随机向量。

2. 计算xn+1 = Axn,其中A为给定矩阵。

3. 归一化xn+1,即xn+1 = xn+1/,xn+1,其中,xn+1,表示向量的模。

4. 如果迭代次数n足够大,那么xn将逼近A的最大特征值对应的特征向量。

幂迭代法的收敛性与初始向量的选择有很大关系,通常情况下,初始向量选取得越接近最大特征值所对应的特征向量,迭代次数越少,精度越高。

幂迭代法主要用于计算矩阵的最大特征值和对应的特征向量。

在实际问题中,矩阵的最大特征值和特征向量常常具有重要的物理意义,比如在结构力学中,最大特征值代表了结构的自然频率,对应的特征向量则代表了结构的振型。

因此,幂迭代法在结构优化、振动分析等领域有广泛的应用。

逆幂迭代法是幂迭代法的一个改进方法,它主要用于计算矩阵的最小特征值和对应的特征向量。

逆幂迭代法的基本思想是通过不断迭代矩阵的逆幂次来逼近矩阵的最小特征值和对应的特征向量。

具体步骤如下:1.选取一个初始向量x0,通常为一个随机向量。

2. 计算xn+1 = A^-1xn,其中A为给定矩阵,A^-1为A的逆矩阵。

3. 归一化xn+1,即xn+1 = xn+1/,xn+1,其中,xn+1,表示向量的模。

4. 如果迭代次数n足够大,那么xn将逼近A的最小特征值对应的特征向量。

逆幂迭代法的收敛性与初始向量的选择有很大关系,与幂迭代法相同,初始向量选取得越接近最小特征值所对应的特征向量,迭代次数越少,精度越高。

七、矩阵特征值的乘幂方法和反乘幂方法

七、矩阵特征值的乘幂方法和反乘幂方法

1、用幂法计算矩阵A的主特征值和对应的特征向量。

function [k,lambda,Vk,Wc]=mifa(A,V0,jd,max1)lambda=0;k=1;Wc=1;jd=jd*0.1;state=1;V=V0;while((k<=max1)&(state==1))Vk=A*V;[m j]=max(abs(Vk));mk=m*sign(Vk(j));tzw=abs(lambda-mk);Vk=(1/mk)*Vk;txw=norm(V-Vk);Wc=max(txw,tzw);V=Vk;lambda=mk;state=0;if(Wc>jd)state=1;endk=k+1;endif(Wc<=jd)disp('迭代次数k,主特征值的近似值lambda,主特征向量的近似向量Vk,相邻两次迭代的误差Wc如下:')elsedisp('迭代次数k已经达到最大迭代次数max1,主特征值的迭代值lambda,主特征向量的迭代向量Vk,相邻两次迭代的误差Wc如下:')endVk=V;k=k-1;Wc;>> A=[1 -1;2 4];>> V0=[1,1]';>> [k,lambda,Vk,Wc]=mifa(A,V0,0.00001,100)迭代次数k,主特征值的近似值lambda,主特征向量的近似向量Vk,相邻两次迭代的误差Wc如下:k =33lambda =3.0000Vk =-0.50001.0000Wc =8.6919e-007>> [V,D]=eig(A)V =-0.7071 0.44720.7071 -0.8944D =2 00 3>> Dzd=max(diag(D))Dzd =3>> wuD=abs(Dzd-lambda)wuD =1.7384e-006>> wuV=V(:,2)./VkwuV =-0.8944-0.8944>> A=[1 2 3;2 1 3;3 3 6];>> V0=[1 1 1]';>> [k,lambda,Vk,Wc]=mifa(A,V0,0.00001,100)迭代次数k,主特征值的近似值lambda,主特征向量的近似向量Vk,相邻两次迭代的误差Wc如下:k =3lambda =9Vk =0.50000.50001.0000Wc =>> [V,D]=eig(A)V =0.7071 0.5774 0.4082-0.7071 0.5774 0.40820 -0.5774 0.8165D =-1.0000 0 00 -0.0000 00 0 9.0000>> Dzd=max(diag(D))Dzd =9>> wuD=abs(Dzd-lambda)wuD =>> wuV=V(:,2)./VkwuV =1.15471.1547-0.5774>> A=[1 2 2;1 -1 1;4 -12 1];>> V0=[1 1 1]';>> [k,lambda,Vk,Wc]=mifa(A,V0,0.00001,100)迭代次数k已经达到最大迭代次数max1,主特征值的迭代值lambda,主特征向量的迭代向量Vk,相邻两次迭代的误差Wc如下:k =100lambda =-0.0909Vk =1.00001.00001.0000Wc =1.9582>> [V,D]=eig(A)V =0.9045 -0.7255 -0.72550.3015 -0.2176 - 0.0725i -0.2176 + 0.0725i-0.3015 0.5804 - 0.2902i 0.5804 + 0.2902iD =1.0000 0 00 -0.0000 + 1.0000i 00 0 -0.0000 - 1.0000i>> Dzd=max(diag(D))Dzd =1.0000>> wuD=abs(Dzd-lambda)wuD =1.0909>> wuV=V(:,2)./VkwuV =-0.7255-0.2176 - 0.0725i0.5804 - 0.2902i(4)>> A=[-4 14 0;-5 13 0;-1 0 2];>> V0=[1 1 1]';>> [k,lambda,Vk,Wc]=mifa(A,V0,0.00001,100)迭代次数k,主特征值的近似值lambda,主特征向量的近似向量Vk,相邻两次迭代的误差Wc如下:k =22lambda =6.0000Vk =1.00000.7143-0.2500Wc =8.1744e-007>> [V,D]=eig(A)V =0 0.7974 0.66670 0.5696 0.33331.0000 -0.1994 -0.6667D =2.0000 0 00 6.0000 00 0 3.0000>> Dzd=max(diag(D))Dzd =6.0000>> wuD=abs(Dzd-lambda)wuD =8.1744e-007>> wuV=V(:,2)./VkwuV =0.79740.79740.79742、用原点位移反幂法计算矩阵A的特征值和对应的特征向量。

特征值和特征向量计算的数值方法

特征值和特征向量计算的数值方法

特征值和特征向量计算的数值方法在数学和计算机科学领域中,特征值和特征向量是非常重要的概念。

特征值和特征向量的计算有许多不同的数值方法,本文将介绍其中一些常见的数值方法,并分析它们的优劣和适用范围。

一、特征值和特征向量的定义在矩阵理论中,给定一个n×n的矩阵A,如果存在一个非零向量v和一个标量λ,使得Av=λv,那么称v为矩阵A的特征向量,λ为矩阵A的特征值。

特征值和特征向量的计算可以帮助我们理解矩阵的性质以及解决一些实际问题。

二、幂法幂法是计算特征值和特征向量的常用数值方法之一。

幂法的基本思想是通过多次迭代,逐渐逼近矩阵的特征值和特征向量。

具体操作如下:1. 初始化一个非零向量b0;2. 进行迭代计算:bi+1 = A * bi / ||A * bi||;3. 取出近似特征向量的最后一列:v = bn;4. 进行迭代计算特征值:λ = (Av)T * v / (vT * v)。

幂法的主要优点是简单易懂,且只需要进行矩阵向量乘法和内积计算。

然而,幂法仅能求取具有最大特征值的特征向量,而且对于存在多个特征值相等的情况并不适用。

三、反幂法反幂法是幂法的一种改进方法,用于求取矩阵A的最小特征值和对应的特征向量。

反幂法的基本步骤如下:1. 初始化一个非零向量b0;2. 进行迭代计算:bi+1 = (A - μI)^-1 * bi / ||(A - μI)^-1 * bi||;3. 取出近似特征向量的最后一列:v = bn;4. 进行迭代计算特征值:λ = (Av)T * v / (vT * v)。

反幂法的改进之处在于引入了矩阵的逆运算,通过使用矩阵A减去一个合适的常数μ乘以单位矩阵来实现。

反幂法适用于矩阵A的特征值接近于μ的情况。

四、QR方法QR方法也是一种常用的特征值计算方法,它适用于求解所有特征值以及对应的特征向量。

QR方法的基本思想是将一个矩阵分解为正交矩阵Q和上三角矩阵R的乘积,然后迭代地将矩阵A转化为更接近上三角形的形式。

幂法反幂法求解矩阵最大最小特征值及其对应的特征向量

幂法反幂法求解矩阵最大最小特征值及其对应的特征向量

幂法反幂法求解矩阵最大最小特征值及其对应的特征向量幂法和反幂法是求解矩阵最大最小特征值及其对应特征向量的常用方法。

在本文中,我们将详细介绍这两种方法的原理和具体实现。

一、幂法(Power Method)幂法是一种迭代算法,用于求解矩阵的最大特征值及其对应的特征向量。

其基本思想是通过多次迭代得到矩阵的一个特征值和特征向量的近似值,并使其逼近真实值。

幂法的原理如下:1.初始化一个非零向量b0作为初始特征向量;2.计算b0的归一化向量b0/,b0,得到新的向量b1;3.计算矩阵A和向量b1的乘积Ab1,得到新的向量b2;4.对b2进行归一化,得到新的向量b3;5.重复步骤3和步骤4,直到b的变化趋于稳定;6.计算矩阵A和向量b的乘积Ab,得到新的向量b;7.特征值的近似值λ=,Ab,/,b。

具体实现如下:1.初始化一个非零向量b0;2.迭代n次进行如下操作:a. 计算bn=A*bn-1;b. 将bn进行归一化,得到bn=bn/,bn;3. 计算特征值的近似值lambda=,A*bn,/,bn;4. 特征向量的近似值vbn=bn。

幂法的优点是计算简单、迭代次数少,但对于含有多个特征值接近的矩阵,可能会收敛到次大特征值。

二、反幂法(Inverse Power Method)反幂法是幂法的拓展,用于求解矩阵的最小特征值及其对应的特征向量。

其基本思想是通过多次迭代得到矩阵的一个特征值和特征向量的近似值,并使其逼近真实值。

反幂法的原理如下:1.初始化一个非零向量b0作为初始特征向量;2.计算b0的归一化向量b0/,b0,得到新的向量b1;3.计算矩阵A的逆矩阵Ai和向量b1的乘积Ai*b1,得到新的向量b2;4.对b2进行归一化,得到新的向量b3;5.重复步骤3和步骤4,直到b的变化趋于稳定;6.计算矩阵A的逆矩阵Ai和向量b的乘积Ai*b,得到新的向量b;7.特征值的近似值λ=,Ai*b,/,b。

具体实现如下:1.初始化一个非零向量b0;2.迭代n次进行如下操作:a. 计算bn=inv(A)*bn-1;b. 将bn进行归一化,得到bn=bn/,bn;3. 计算特征值的近似值lambda=,inv(A)*bn,/,bn;4. 特征向量的近似值vbn=bn。

matlab用规范化乘幂法求以下矩阵的按模最大特征值及其特征向量

matlab用规范化乘幂法求以下矩阵的按模最大特征值及其特征向量

竭诚为您提供优质文档/双击可除matlab用规范化乘幂法求以下矩阵的按模最大特征值及其特征向量篇一:幂法,反幂法求解矩阵最大最小特征值及其对应的特征向量数值计算解矩阵的按模最大最小特征值及对应的特征向量一.幂法1.幂法简介:当矩阵a满足一定条件时,在工程中可用幂法计算其主特征值(按模最大)及其特征向量。

矩阵a需要满足的条件为:(1)|1||2|...|n|0,i为a的特征值xn(2)存在n个线性无关的特征向量,设为x1,x2,...,1.1计算过程:n对任意向量x,有x(0)(0)iui,i不全为0,则有i1x(k1)ax(k)...ak1x(0)aαiuiαiλik1uik1i1i1nnnk12k1λ1u1()a2u2()anun11k111u1k112|越小时,收敛越快;且当k充分大时,有可见,当|1 (k1)k111u1x(k1)x(k1)(k)x1(k),对应的特征向量即是。

kxx11u12算法实现(1).输入矩阵a,初始向量x,误差限,最大迭代次数n(2).k1,0;y(k)x(k)max(abs(x(k))(3).计算xay,max(x);(4).若||,输出,y,否则,转(5)(5).若kn,置kk1,,转3,否则输出失败信息,停机.3matlab程序代码function[t,y]=lpowera,x0,eps,n)%t为所求特征值,y 是对应特征向量k=1;z=0;%z相当于y=x0./max(abs(x0));%规范化初始向量x=a*y;%迭代格式b=max(x);%b相当于ifabs(z-b) t=max(x);return;endwhileabs(z-b)>epsz=b;y=x./max(abs(x));x=a*y;b=max(x);end[m,index]=max(a(matlab用规范化乘幂法求以下矩阵的按模最大特征值及其特征向量)bs(x));%这两步保证取出来的按模最大特征值t=x(index);%是原值,而非其绝对值。

计算方法之计算矩阵的特征值和特征量

计算方法之计算矩阵的特征值和特征量

计算方法之计算矩阵的特征值和特征量计算矩阵的特征值和特征向量是线性代数中的一个重要问题,它在科学研究和工程应用中有着广泛的应用。

本文将介绍计算矩阵特征值和特征向量的方法,包括特征方程法、幂法、反幂法和QR方法。

一、特征值和特征向量的定义给定一个n阶方阵A,如果存在一个非零向量x和一个标量λ,满足以下方程:Ax=λx其中,x被称为A的特征向量,λ被称为A的特征值。

二、特征方程法特征方程法是计算矩阵特征值和特征向量的一种常用方法,其基本思想是通过求解矩阵的特征方程来求得特征值。

对于一个n阶方阵A,其特征方程为:A-λI,=0其中,I是n阶单位矩阵,A-λI,表示A-λI的行列式。

解特征方程可以得到n个特征值λ₁,λ₂,...,λₙ。

然后,将这些特征值带入原方程组(A-λI)x=0,求解线性方程组得到n个特征向量x₁,x₂,...,xₙ。

三、幂法幂法是一种通过迭代来计算矩阵最大特征值和对应的特征向量的方法。

首先,随机选择一个非零向量b₀,并进行归一化,得到单位向量x₀=b₀/,b₀。

然后,通过迭代的方式,计算xₙ₊₁=Axₙ,其中xₙ为第k次迭代得到的向量。

在迭代过程中,向量xₙ的模长会逐渐趋近于最大特征值对应的特征向量。

当迭代收敛后,xₙ就是矩阵A的最大特征值对应的特征向量。

四、反幂法反幂法是一种通过迭代来计算矩阵最小特征值和对应的特征向量的方法。

首先,随机选择一个非零向量b₀,并进行归一化,得到单位向量x₀=b₀/,b₀。

然后,通过迭代的方式,计算xₙ₊₁=(A-σI)⁻¹xₙ,其中σ为待求的特征值。

在迭代过程中,向量xₙ的模长会逐渐趋近于特征值σ对应的特征向量。

当迭代收敛后,xₙ就是矩阵A的特征值为σ的特征向量。

五、QR方法QR方法是一种通过迭代来计算矩阵特征值和特征向量的方法。

首先,将矩阵A进行QR分解,得到矩阵A=QR,其中Q是正交矩阵,R是上三角矩阵。

然后,计算矩阵B=RQ,重复以上步骤,直到矩阵B收敛。

幂法,反幂法求解矩阵最大最小特征值及其对应的特征向量(DOC)

幂法,反幂法求解矩阵最大最小特征值及其对应的特征向量(DOC)

数值计算解矩阵的按模最大最小特征值及对应的特征向量一.幂法1. 幂法简介:当矩阵A 满足一定条件时,在工程中可用幂法计算其主特征值(按模最大)及其特征向量。

矩阵A 需要满足的条件为: (1) 的特征值为A i n λλλλ,0||...||||21≥≥≥>(2) 存在n 个线性无关的特征向量,设为n x x x ,...,,21 1.1计算过程:i ni i i u xx αα,1)0()0(∑==,有对任意向量不全为0,则有1111112211211111111011)()(...u u a u a u λu λαu αA x A Ax x k n n k n k k ni ik i i ni i i k )(k (k))(k αλλλλλα++++=+=+++≈⎥⎦⎤⎢⎣⎡+++======∑∑ 可见,当||12λλ越小时,收敛越快;且当k 充分大时,有1)1111)11111λαλαλ=⇒⎪⎩⎪⎨⎧==+++(k )(k k(k k )(k x x u x u x ,对应的特征向量即是)(k x 1+。

2 算法实现.,, 3,,1 , ).5()5(,,,,||).4();max(,).3()(max(;0,1).2(,).1()()()(停机否则输出失败信息转置若转否则输出若计算最大迭代次数,误差限,初始向量输入矩阵βλβεβλβλε←+←<<-←←=←←k k N k y x Ay x x abs x y k N x A k k k3 matlab 程序代码function [t,y]=lpowerA,x0,eps,N) % t 为所求特征值,y是对应特征向量k=1;z=0; % z 相当于λy=x0./max(abs(x0)); % 规范化初始向量x=A*y; % 迭代格式b=max(x); % b 相当于βif abs(z-b)<eps % 判断第一次迭代后是否满足要求t=max(x);return;endwhile abs(z-b)>eps && k<Nk=k+1;z=b;y=x./max(abs(x));x=A*y;b=max(x);end[m,index]=max(abs(x)); % 这两步保证取出来的按模最大特征值t=x(index); % 是原值,而非其绝对值。

数值分析幂法和反幂法

数值分析幂法和反幂法

数值分析幂法和反幂法数值分析中,幂法(Power method)和反幂法(Inverse Power method)是求解矩阵的特征值和特征向量的两种常用方法。

它们都是通过迭代过程逼近特征值和特征向量。

1.幂法:幂法是求解矩阵的最大特征值和对应的特征向量的一种迭代方法。

幂法的原理是通过迭代过程,将一个任意选择的初始向量不断与矩阵相乘,使其逼近对应最大特征值的特征向量。

幂法的迭代公式为:$x^{(k+1)} = \frac{Ax^{(k)}}{\,Ax^{(k)}\,}$幂法的迭代过程是不断对向量进行归一化,使其逐渐逼近最大特征值对应的特征向量。

当迭代次数足够多时,可以得到非常接近最大特征值的估计。

2.反幂法:反幂法是幂法的一种变形,用于求解矩阵的最小特征值和对应的特征向量。

反幂法的原理是通过迭代过程,将一个任意选择的初始向量不断与矩阵的逆相乘,使其逼近对应最小特征值的特征向量。

反幂法的迭代公式为:$x^{(k+1)} = \frac{A^{-1}x^{(k)}}{\,A^{-1}x^{(k)}\,}$反幂法的迭代过程同样是不断对向量进行归一化,使其逐渐逼近最小特征值对应的特征向量。

当迭代次数足够多时,可以得到非常接近最小特征值的估计。

3.收敛性分析:幂法和反幂法的收敛性分析与矩阵的特征值分布有关。

对于幂法而言,如果矩阵$A$的最大特征值是唯一的,并且其他特征值的绝对值小于最大特征值的绝对值,那么幂法是收敛的,而且收敛速度是指数级的。

对于反幂法而言,如果矩阵$A$的最小特征值是唯一的,并且其他特征值的绝对值大于最小特征值的绝对值,那么反幂法是收敛的,而且同样是指数级的收敛速度。

4.实际应用:幂法和反幂法在实际中广泛应用于各个领域,例如物理、工程、计算机科学等。

比如在结构力学中,幂法可以用来求解结构的自振频率和相应的振型;在电力系统中,反幂法可以用来求解电力系统决定性特征值,例如功率稳定性的最小特征值。

数值分析第三章小结

数值分析第三章小结

第三章矩阵特征值与特征向量的计算--------学习小结一、本章学习体会本章我们学习了矩阵特征值与特征向量的计算方法即幂法、反幂法、Jacobi方法和QR方法。

下边介绍一下四种方法各自的特点和适用范围。

幂法:主要用于计算矩阵按模最大的特征值及其相应的特征向量;反幂法:主要用于计算矩阵按模最小的特征值及其相应的特征向量;Jacobi法:用于求实对称矩阵的全部特征值和特征向量的方法;QR法:则适用于计算一般实矩阵的全部特征值,尤其适用于计算中小型实矩阵的全部特征值。

归结起来,这四种方法有一个共同的特点,即都是用了迭代的方法来求矩阵的特征值和特征向量。

还有利用用MATLAB自带的解法求解特征值和特征向量,其自带函数Eig即得到结果是虚数也可以算出,并且结果自动正交化。

二、本章知识梳理在工程技术中,计算矩阵的特征值和特征向量主要使用数值解法。

本章将阐述幂法、反幂法、Jacobi 方法、和QR 方法,并且只限于讨论实矩阵的情况。

3.1 幂法和反幂法(1)幂法幂法主要用于计算矩阵的按模为最大的特征值和相应的特征向量,其思想是迭代。

设n ⨯n 实矩阵A 具有n 个线性无关的特征向量,,...,,321n x x x x 其相应的特征值n λλλ...21,,满足如下不等式 n λλλλ≥≥≥> (321)其中i i i x Ax λ= )。

(n i ,...2,1=现在要求出1λ和相应的特征向量。

任取一n 维非零向量0u ,从0u 出发,按照如下的递推公式 1-=k k Au u ),,(...21=k 因n 维向量组n x x x ,...,21线性无关,故对于向量0u ,必存在唯一的不全为零的数组n ααα,...,21,使得n n x x x u ααα...22110++=n k n k k k k k k x A x A x A u A u A Au u ααα+++=====--......22110221=⎥⎥⎦⎤⎢⎢⎣⎡⎪⎪⎭⎫ ⎝⎛++⎪⎪⎭⎫ ⎝⎛+=+++n kn n k kn k n n k k x x x x x x 12122111222111......λλαλλααλλαλαλα 设01≠α。

幂法反幂法求解矩阵最大最小特征值及其对应的特征向量

幂法反幂法求解矩阵最大最小特征值及其对应的特征向量

幂法反幂法求解矩阵最大最小特征值及其对应的特征向量幂法是一种迭代算法,用于求解矩阵的最大特征值及其对应的特征向量。

反幂法是幂法的一种变体,用于求解矩阵的最小特征值及其对应的特征向量。

两种方法在求解特征值问题时有相似的步骤,但反幂法需要对矩阵进行一定的变换。

幂法的基本思想是通过不断迭代的方式逼近矩阵的最大特征值及其对应的特征向量。

求解的过程如下:1.随机选择一个初始向量x0,并进行归一化,即使其模长为12. 根据公式计算新的向量xk+1 = Axk,其中A为待求解特征值的矩阵。

3. 对xk+1进行归一化。

4. 计算矩阵A关于xk+1的雷神特征值λk+1 = (Axk+1)·xk+1 / xk+1·xk+1,其中·表示向量的内积。

5.重复步骤2至4,直到满足收敛条件。

幂法的收敛条件一般是设置一个精度,当迭代的过程中特征向量的变化小于该精度时,认为结果已经收敛。

最终得到的特征值就是矩阵A的最大特征值,对应的特征向量为收敛时的xk+1反幂法是对幂法的一种改进,用于求解矩阵的最小特征值及其对应的特征向量。

反幂法的基本思想是通过将矩阵A的特征值问题转化为矩阵B=(A-μI)^-1的特征值问题来求解,其中μ为一个非常接近待求解特征值的数。

求解的过程如下:1.随机选择一个初始向量x0,并进行归一化,即使其模长为12. 根据公式求解新的向量xk+1 = (A-μI)^-1xk,其中A为待求解特征值的矩阵,μ为一个非常接近待求解特征值的数。

3. 对xk+1进行归一化。

4. 计算矩阵B关于xk+1的雷神特征值λk+1 = (Bxk+1)·xk+1 / xk+1·xk+1,其中·表示向量的内积。

5.重复步骤2至4,直到满足收敛条件。

反幂法的收敛条件与幂法相似,一般也是设置一个精度。

最终得到的特征值就是矩阵A的最小特征值,对应的特征向量为收敛时的xk+1总结:幂法和反幂法是求解矩阵最大最小特征值的常用迭代算法。

用迭代求特征值特征向量的方法

用迭代求特征值特征向量的方法

用迭代求特征值特征向量的方法
迭代方法是求解特征值和特征向量的常用方法之一。

其基本思想是通过迭代过程逐步逼近所求的特征值和特征向量,直到满足一定的精度要求为止。

具体来说,迭代方法一般分为幂法和反幂法两种。

其中,幂法是求解最大特征值和对应的特征向量的方法,反幂法是求解最小特征值和对应的特征向量的方法。

幂法迭代过程如下:首先任取一个非零向量作为初始向量,然后对其进行归一化处理。

接下来,将该向量与矩阵相乘,得到一个新向量。

对新向量进行归一化处理,再与矩阵相乘,重复以上过程直到收敛。

在迭代过程中,每次得到的向量都是当前矩阵的特征向量的一个近似值。

当迭代到一定次数或者收敛达到一定精度时,所得到的向量就是矩阵的最大特征值对应的特征向量。

反幂法与幂法的迭代过程基本相同,只是在每次迭代时需要对当前向量进行逆矩阵的乘法操作。

这样可以得到矩阵的最小特征值对应的特征向量。

需要注意的是,迭代求解特征值和特征向量的方法对于矩阵的条件数很敏感,因此在实际应用中需要对矩阵进行预处理和调整,以保证迭代过程的收敛性和精度。

- 1 -。

求矩阵特征值的工具

求矩阵特征值的工具

求矩阵特征值的工具求矩阵特征值是线性代数中一个重要的问题,用于解决许多实际问题,如物理系统模型的求解、网络分析、图像处理、数据压缩等。

在过去的几十年里,研究人员开发了许多用于计算矩阵特征值的工具和算法。

本文将介绍一些常用的求矩阵特征值的工具,并对其原理和特点进行详细的阐述。

1.解特征方程法:这是最直接的一种方法,它是通过将矩阵特征值问题转换为求解特征方程根的问题。

对于一个n阶矩阵A,它的特征方程为,A-λI,=0,其中λ是一个标量,I是单位矩阵。

解特征方程可以得到所有的特征值。

这种方法适用于已知特征方程的情况,但对于高阶矩阵来说,求解特征方程是一个复杂和耗时的过程。

2.特征向量法:特征向量法是一种直接计算特征值和特征向量的方法。

它利用特征向量的线性相关性,将特征向量排列成一个阵,通过求解线性方程组来计算特征值。

特征向量法的优点是可以同时求解所有的特征值和特征向量,但需要对矩阵求逆,当矩阵非常大时,计算复杂度较高。

3.幂法:幂法是一种迭代方法,用于求解矩阵的最大特征值和对应的特征向量。

它利用矩阵的最大特征值对特征向量进行放大,从而逼近真正的特征向量。

幂法收敛于最大特征值对应的特征向量,但只能求解最大特征值。

为了提高收敛速度和准确性,可以使用位移策略和正交化技术。

4.反幂法:反幂法是幂法的变形,用于求解矩阵的最小特征值和对应的特征向量。

它利用矩阵的最小特征值对特征向量进行放大,从而逼近真正的特征向量。

反幂法收敛于最小特征值对应的特征向量,但只能求解最小特征值。

同样,为了提高收敛速度和准确性,可以使用位移策略和正交化技术。

5.QR方法:QR方法是一种迭代方法,可以同时求解所有的特征值和特征向量。

它将矩阵分解为正交矩阵和上三角矩阵的乘积,通过反复迭代使得上三角矩阵收敛为对角矩阵,对角元素即为矩阵的特征值。

QR方法的收敛速度较快,但在一些情况下可能会出现不收敛或者收敛到错误的结果的问题。

以上是常用的求矩阵特征值的工具和算法,每种方法都有其适用范围和特点。

幂法及反幂法

幂法及反幂法

, r 不全为零),则有 r r n k k k i k [ x [ x ( ) x ] vk Avk 1 A v0 1 i i k ] 1 i i i i 1 i 1 i 1 i r 1 n i k ( ) xi ,且 lim k 0, 其中 k i k 1 i r 1
从而
k
幂法: n n (且设 1 , 2 , 对任意的初始向量 v0 R , 且 v0 0, 有v0 i xi ,
i 1
k 1 i 1 vk 因此,当k充分大时, k 接近于与 1 对应的特征向量的某个 1 r 线性组合 i xi( 1 , 2 ,, r 不全为零) 。
(当k 时, k 0)
)k xi 0 (当k )。
(2) 对迭代向量序列: {vk } k Ak v0 1 (1 x1 k ) 1 x1 k vk 1 k 1 k 1 1 (1 x1 k 1 )) max(A v0 ) max( max( 1 x1 k 1 ) max( 1 x1 k ) max( v ) 1 当k k )) 于是, k k 1 1, (当 max( 1 x1 k 1 ) 即 vk 绝对值最大的分量当 k 时,趋向于特征根 1 。 结论: 定理 8 (1)设 A R n n 有n个线性无关的特征向量; (2)设A特征值满足 | 1 || 2 | | n |, 且 Axi i xi (i 1,, n); (3){uk } 及 {vk }由改进幂法得到的规范化向量序列及迭代向量 序列((2.7)式),则有 x1 lim k lim max( v k ) 1 . (a ) limuk ; (b) k k k max(x1 ) 2 r | | 确定。 且收敛速度由比值 1

数值代数中的特征值计算算法

数值代数中的特征值计算算法

数值代数中的特征值计算算法在数值代数中,特征值计算是一项重要的任务,它在很多领域中都有广泛的应用,如物理学、工程学和计算机科学等。

特征值计算的目标是找到一个方阵的特征值以及对应的特征向量。

在本文中,我们将介绍几种常用的特征值计算算法,并对它们进行比较和评估。

一、幂法幂法是一种最简单且最常用的特征值计算算法之一。

它的基本思想是通过迭代过程逐渐逼近矩阵的最大特征值。

具体步骤如下:1. 初始化一个非零向量x,并对其进行归一化。

2. 计算矩阵A与向量x的乘积Ax。

3. 更新向量x为Ax,并进行归一化。

4. 重复步骤2和3,直到收敛或达到预设的迭代次数。

幂法的收敛条件是向量x的变化趋于稳定,即x的模长变化小于设定的阈值。

该算法的缺点是对于矩阵存在多个特征值的情况,只能收敛到模长最大的特征值对应的特征向量。

二、反幂法反幂法是幂法的一个变种,它用于计算矩阵的最小特征值。

相比于幂法,反幂法的迭代过程中需要对矩阵A的逆进行操作。

具体步骤如下:1. 初始化一个非零向量x,并对其进行归一化。

2. 计算矩阵A的逆与向量x的乘积A^(-1)x。

3. 更新向量x为A^(-1)x,并进行归一化。

4. 重复步骤2和3,直到收敛或达到预设的迭代次数。

与幂法类似,反幂法的收敛条件也是向量x的变化趋于稳定。

反幂法常用于计算矩阵的最小特征值,但对于特征值过接近零的情况,该算法可能会发散。

三、QR算法QR算法是一种迭代算法,用于计算一个方阵的特征值。

其基本思想是通过相似变换将方阵转化为上三角矩阵,从而容易求解特征值。

具体步骤如下:1. 初始化矩阵A为原始方阵。

2. 对矩阵A进行QR分解,得到矩阵Q和上三角矩阵R。

3. 计算矩阵R与Q的乘积QR。

4. 更新矩阵A为QR,并重复步骤2和3。

5. 当矩阵A的对角线元素收敛时,这些元素就是矩阵A的特征值。

QR算法的优点是适用于一般的方阵,并且通常具有较快的收敛速度。

但对于特征值重复且接近的情况,QR算法可能会产生不稳定的结果。

矩阵求解本证值方法

矩阵求解本证值方法

矩阵求解本证值方法
矩阵的特征值和特征向量是线性代数中重要的概念,它们在很
多领域都有广泛的应用。

矩阵求解特征值和特征向量的方法有多种,其中比较常用的方法包括幂法、反幂法、QR方法、雅可比方法等。

下面我将从不同的角度对这些方法进行介绍。

首先,幂法是一种求解矩阵最大特征值和对应特征向量的迭代
方法。

它的基本思想是通过不断地对矩阵进行乘法运算,使得一个
向量不断地接近矩阵的最大特征向量。

幂法的收敛速度取决于矩阵
的特征值分布,通常情况下可以通过多次迭代得到一个较为接近的
最大特征值和对应的特征向量。

其次,反幂法是用来求解矩阵最小特征值和对应特征向量的方法。

它是在幂法的基础上进行改进得到的,通过对矩阵的逆进行迭
代来求解最小特征值和对应的特征向量。

另外,QR方法是一种通过矩阵相似变换将原矩阵转化为上(或下)三角矩阵,从而求解矩阵的特征值和特征向量的方法。

QR方法
的优点是收敛速度较快,适用于一般的矩阵求解问题。

此外,雅可比方法是一种通过多次相似变换将原矩阵对角化的方法,从而求解矩阵的特征值和特征向量。

雅可比方法的优点是简单易实现,适用于对称矩阵的特征值求解。

总的来说,矩阵求解特征值和特征向量的方法有多种,每种方法都有其适用的场景和特点。

在实际应用中,需要根据具体的情况选择合适的方法来求解矩阵的特征值和特征向量。

希望以上介绍能够对你有所帮助。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

幂法反幂法求解矩阵大小特征值及其对应的特征向量————————————————————————————————作者:————————————————————————————————日期:数值计算解矩阵的按模最大最小特征值及对应的特征向量一.幂法1. 幂法简介:当矩阵A 满足一定条件时,在工程中可用幂法计算其主特征值(按模最大)及其特征向量。

矩阵A 需要满足的条件为: (1) 的特征值为A i n λλλλ,0||...||||21≥≥≥>(2) 存在n 个线性无关的特征向量,设为n x x x ,...,,211.1计算过程:i ni i i u xx αα,1)0()0(∑==,有对任意向量不全为0,则有1111112211211111111011)()(...u u a u a u λu λαu αA x A Ax x k n n k n k k ni ik i i ni i i k )(k (k))(k αλλλλλα++++=+=+++≈⎥⎦⎤⎢⎣⎡+++======∑∑ 可见,当||12λλ越小时,收敛越快;且当k 充分大时,有1)1111)11111λαλαλ=⇒⎪⎩⎪⎨⎧==+++(k )(k k(k k )(k x x u x u x ,对应的特征向量即是)(k x 1+。

2 算法实现.,, 3,,1 , ).5()5(,,,,||).4();max(,).3()(max(;0,1).2(,).1()()()(停机否则输出失败信息转置若转否则输出若计算最大迭代次数,误差限,初始向量输入矩阵βλβεβλβλε←+←<<-←←=←←k k N k y x Ay x x abs x y k N x A k k k3 matlab 程序代码function [t,y]=lpowerA,x0,eps,N) % t 为所求特征值,y是对应特征向量k=1;z=0; % z 相当于λy=x0./max(abs(x0)); % 规范化初始向量x=A*y; % 迭代格式b=max(x); % b 相当于βif abs(z-b)<eps % 判断第一次迭代后是否满足要求t=max(x);return;endwhile abs(z-b)>eps && k<Nk=k+1;z=b;y=x./max(abs(x));x=A*y;b=max(x);end[m,index]=max(abs(x)); % 这两步保证取出来的按模最大特征值t=x(index); % 是原值,而非其绝对值。

end4 举例验证选取一个矩阵A,代入程序,得到结果,并与eig(A)的得到结果比较,再计算A*y-t*y,验证y是否是对应的特征向量。

结果如下:结果正确,表明算法和代码正确,然后利用此程序计算15阶Hilb矩阵,与eig(A)的得到结果比较,再计算A*y-t*y,验证y是否是对应的特征向量。

设置初始向量为x0=ones(15,1),结果显示如下可见,结果正确。

得到了15阶Hilb 矩阵的按模最大特征值和对应的特征向量。

二.反幂法1.反幂法简介及其理论在工程计算中,可以利用反幂法计算矩阵按模最小特征值及其对应特征向量。

其基本理论如下,与幂法基本相同:x x A x A x x Ax λλλ1)(11==⇒=--则,由,可知,A 和A -1的特征值互为倒数,求A 按模最小特征值即求A -1的按模最大特征值,取倒数即为A 的按模最小特征值所以算法基本相同,区别就是在计算)1()()1()(1-)1()()1()1(;,+++++===k k k k k k k k x LU A y Ax y A x Ay x x 分解,来计算做对具体计算时,变换为而是时,不是令2.算法实现., );4( ,))(max(, ,1,).7(),7(,,,1,||).6( ),max().5(),,().4().3(,))(max(,0 ,1).2(,,,,).1(000停机否则输出失败信息转置若否则转停机输出若解方程组作三角分解置最大迭代次数误差限初始向量输入矩阵x abs xy k k N k y x z Ux y Lz y LUx LUA x abs xy k N x A ←←+←<<-←←====←←←λλλελλμλμλε3 matlab 程序代码function [s,y]=invpower(A,x0,eps,n) % s 为按模最小特征值,y 是对应特征向量 k=1; r=0; % r 相当于0λy=x0./max(abs(x0)); % 规范化初始向量 [L,U]=lu(A); z=L\y; x=U\z; u=max(x);s=1/u; % 按模最小为A -1按模最大的倒数.if abs(u-r)<eps % 判断第一次迭代后是否满足终止条件 return endwhile abs(u-r)>eps && k<n % 终止条件. k=k+1; r=u;y=x./max(abs(x)); z=L\y; x=U\z;u=max(x); end[m,index]=max(abs(x)); % 这两步保证取出来的按模最大特征值s=1/x(index); % 是原值,而非其绝对值。

end4 举例验证同幂法一样,选取一个矩阵A ,代入程序,得到结果,并与eig(A)的得到结果比较,再计算 A*y-t*y ,验证y 是否是对应的特征向量。

可见结果正确,然后利用此程序计算15阶Hilb 矩阵,eig(A)的得到结果比较,再计算 A*y-s*y ,验证y 是否是对应的特征向量。

设置初始向量为x0=ones(15,1),结果显示如下可见,结果真确。

得到了15阶Hilb矩阵的按模最大特征值和对应的特征向量。

三. 计算条件数矩阵A的条件数等于A的范数与A的逆的范数的乘积,即cond(A)=‖A‖·‖A^(-1)‖,对应矩阵的3种范数,可以定义3种条件数。

函数cond(A,1)、cond(A)或cond(A inf)是判断矩阵病态与否的一种度量,条件数越大表明矩阵的病态程度越大.的最大和最小特征值矩阵分别为范数,即这里我们选择矩阵的AAAcondT2121,,)(2λλλλ=, 而如果A为对称矩阵,如Hilb矩阵,AA T的最大最小特征值,分别为A的最大最小特征值的平方。

所以cond(A) 为A的最大最小特征值得比值。

对于本例中的15阶Hilb矩阵来说,利用上面计算结果得其条件数(选择第二种条件数)为:3.0934e+017;这与直接利用cond(A)得到的结果:2.5083e+017在同一数量级,再次表明了上述算得得最大最小特征值的正确性,同时又表明Hilb 矩阵是病态矩阵。

四.Aitken 商加速法1.简介与原理{}{}.,ˆˆ:2)( 2)(,,;0lim ,122112212221211加速法这种方法称为逼近用有充分大时当线性收敛即且收敛与若Aitken a aaa a a a a a a x x x x x x y aa aa a a a a k a c a a aa a a k k kk k k k k nn n n n n n k k k k k kk k k =+---≈⇒+---=--≈--≠=--+++++++++++++∞→同幂法和反幂法计算最大和最小特征值类似,如果计算最大特征值,则迭代格式为)()1(k k Ay x=+;计算最小特征值时,迭代格式为)1()()(1)1(,+-+==k k k k Ax y y A x 即。

2.算法实现计算按模最大特征值算法如下:.,,),3()max(,,1 , , ,,).6(),6(,,,).5(,2)().4(,)max( , ).3(,)max( ,0.1 ,0 ,0 ,1).2(,,,),().1(01201001220102010停机输出失败信息否则转置若否则转停机输出若计算置计算置最大迭代次数误差限初始向量输入y x xk k N k y x Ay x x xy k N x a A ij ⇒⇒+⇒⇒⇒<<-+---=⇒=======λλααααλελλααααααλαλααε类似幂法和反幂法可以写出按模最小特征值算法,此处不再赘述。

3.matlab 程序代码function [r,y]=aitken(A,x0,eps,n) % r按模最大特征值,y为对应特征向量k=1;αa0=0; % a 相当于0αa1=1; % a1 相当于1r0=1; % 相当于2中的0λy=x0./max(abs(x0)); % 规范化初始向量x=A*y;αa2=max(abs(x)); % a2相当于2r=a0-(a1-a0)^2/(a2-2*a1+a0); % 相当于λif (a2-2*a1+a0)==0 % 若上式中分母为0,则迭代失败,返回disp "初始向量迭代失败"return;endif abs(r-r0)<eps% 判断第一次迭代后是否满足要求,如满足,则返回结果returnendwhile abs(r-r0)>eps && k<n % 终止条件k=k+1;a0=a1;a1=a2;r0=r;y=x./max(abs(x));x=A*y; % 迭代格式a2=max(abs(x));if (a2-2*a1+a0)==0 % 若分母为0,则迭代失败,返回return;endr=a0-(a1-a0)^2/(a2-2*a1+a0);[m,index]=max(abs(eig(A))); % 以下代码保证取出来的按模最大特征值aa=eig(A); % 是原值,而非其绝对值。

if aa(index)>0 ||aa(index)==0r=r;e lser=-r;endendend类似可得按模最小特征值和特征向量的代码如下:与上面类似,所不同的只是迭代格式不同.function [r,y]=invaitken(A,x0,eps,n)k=1;a0=0;a1=1;r0=1;y=x0./max(abs(x0));[L,U]=lu(A); % 迭代格式的不同z=L\y;x=U\z;a2=max(abs(x));r=a0-(a1-a0)^2/(a2-2*a1+a0);i f (a2-2*a1+a0)==0disp "初始向量迭代失败"return;endif abs(r-r0)<eps% 判断第一次迭代后是否满足要求,如满足,则返回结果returnendwhile abs(r-r0)>eps && k<nk=k+1;a=b;b=c;r0=r;y=x./max(abs(x));z=L\y;x=U\z;a2=max(abs(x));if (a2-2*a1+a0)==0return;endr=a0-(a1-a0)^2/(a2-2*a1+a0);end[m,index]=min(abs(eig(A))); % 以下代码保证取出来的按模最大特征值aa=eig(A); % 是原值,而非其绝对值。

相关文档
最新文档