判断矩阵的最大特征值
判断矩阵的最大特征值
项目六 矩阵的特征值与特征向量实验1 求矩阵的特征值与特征向量实验目的学习利用Mathematica(4.0以上版本)命令求方阵的特征值和特征向量;能利用软件计算方阵的特征值和特征向量及求二次型的标准形.求方阵的特征值与特征向量.例1.1 (教材 例1.1) 求矩阵.031121201⎪⎪⎪⎭⎫ ⎝⎛--=A 的特征值与特值向量.(1) 求矩阵A 的特征值. 输入 A={{-1,0,2},{1,2,-1},{1,3,0}}MatrixForm[A] Eigenvalues[A]则输出A 的特征值{-1,1,1}(2) 求矩阵A 的特征向量. 输入A={{-1,0,2},{1,2,-1},{1,3,0}} MatrixForm[A] Eigenvectors[A]则输出 {{-3,1,0},{1,0,1},{0,0,0}}即A 的特征向量为.101,013⎪⎪⎪⎭⎫⎝⎛⎪⎪⎪⎭⎫ ⎝⎛-(3) 利用命令Eigensystem 同时矩阵A 的所有特征值与特征向量. 输入A={{-1,0,2},{1,2,-1},{1,3,0}} MatrixForm[A] Eigensystem[A]则输出矩阵A 的特征值及其对应的特征向量.例1.2 求矩阵⎪⎪⎪⎭⎫ ⎝⎛=654543432A 的特征值与特征向量.输入A=T able[i+j,{i,3},{j,3}] MatrixForm[A](1) 计算矩阵A 的全部(准确解)特征值, 输入Eigenvalues[A]则输出{0, 426-,426+}(2) 计算矩阵A 的全部(数值解)特征值, 输入Eigenvalues[N[A]]则输出{12.4807, -0.480741, -1.34831610-⨯}(3) 计算矩阵A 的全部(准确解)特征向量, 输入Eigenvectors[A]//MatrixForm则输出121172422344220342234421172422344220342234421(4) 计算矩阵A 的全部(数值解)特征向量, 输入Eigenvectors[N[A]]//MatrixForm则输出0.4303620.5665420.7027220.805060.111190.5826790.4082480.8164970.408248(5) 同时计算矩阵A 的全部(准确解)特征值和特征向量, 输入 OutputForm[Eigensystem[A]] 则输出所求结果(6) 计算同时矩阵A 的零空间, 输入NullSpace[A]则输出{{1,-2,1}}(7) 调入程序包<<LinearAlgebra`Orthogonalization`后,还可以做以下的运算:GramSchmidt[ ]:用Gram-Schmidt 过程将向量组单位正交化; Normalize[ ]:将向量组单位化;Projection[vect1,vect2]:求从向量组vect1到vect2的正交映射.输入<<LinearAlgebra ’Orthogonalization ’ GramSchmidt[Eigenvectors[N[A]]]//MatrixForm则输出0.4303620.5665420.7027220.805060.111190.5826790.4082480.8164970.408248例1.3 求方阵⎪⎪⎪⎭⎫ ⎝⎛=633312321M 的特征值和特征向量.输入Clear[M];M={{1,2,3,},{2,1,3}{3,3,6}}; Eigenvalues[M] Eigenvectors[M] Eigensystem[M]则分别输出{-1,0,9}{{-1,1,0},{-1,-1,1}{1,1,2}}{{-1,0,9},{{-1,1,0},{-1,-1,1}{1,1,2}}}例1.4 (教材 例1.2) 求矩阵⎪⎪⎪⎭⎫⎝⎛---=2163/115/12/13/13/1A 的特征值和特征向量的近似值.输入A={{1/3,1/3,-1/2},{1/5,1,-1/3},{6,1,-2}}; Eigensystem[A]则屏幕输出的结果很复杂,原因是矩阵A 的特征值中有复数且其精确解太复杂.此时,可采用 近似形式输入矩阵A ,则输出结果也采用近似形式来表达.输入A={{1/3,1/3,-1/2},{1/5,1,-1/3},{6.0,1,-2}}; Eigensystem[A]则输出{{-0.748989+1.27186i,-0.748989-1.27186i,0.831311}, {{0.179905+0.192168i,0.116133+0.062477I,0.955675+0.i}, {0.179905-0.192168i,0.116133-0.062477i,0.955675+0.i}, {-0.0872248,-0.866789,-0.490987}}}从中可以看到A 有两个复特征值与一个实特征值.属于复特征值的特征向量也是复的;属于实 特征值的特征向量是实的.例1.5 (教材 例1.3) 已知2是方阵⎪⎪⎪⎭⎫ ⎝⎛=32131003t A 的特征值,求t .输入Clear[A,q];A={{2-3,0,0},{-1,2-t,-3},{-1,-2,2-3}}; q=Det[A] Solve[q==0,t]则输出{{t →8}}即当8=t 时,2是方阵A 的特征值.例1.6 (教材 例1.4) 已知)1,1,1(-=x 是方阵⎪⎪⎪⎭⎫⎝⎛---=2135212b a A 的一个特征向量,求参数b a ,及特征向量x 所属的特征值. 设所求特征值为t ,输入Clear[A,B,v,a,b,t];A={{t-2,1,-2},{-5,t-a,-3},{1,-b,t+2}}; v={1,1,-1}; B=A.v;Solve[{B[[1]]==0,B[[2]]==0,B[[3]]==0},{a,b,t}]则输出{{a →-3, b →0, t →-1}}即0,3=-=b a 时,向量)1,1,1(-=x 是方阵A 的属于特征值-1和特征向量.矩阵的相似变换例1.7 (教材 例1.5) 设矩阵⎪⎪⎪⎭⎫ ⎝⎛=222222114A ,求一可逆矩阵P ,使AP P 1-为对角矩阵.方法1 输入Clear[A,P];A={{4,1,1},{2,2,2},{2,2,2}}; Eigenvalues[A]P=Eigenvectors[A]//Transpose则输出{0,2,6}{{0,-1,1},{-1,1,1},{1,1,1}}即矩阵A 的特征值为0,2,6.特征向量为⎪⎪⎪⎭⎫ ⎝⎛-110,⎪⎪⎪⎭⎫ ⎝⎛-111与⎪⎪⎪⎭⎫ ⎝⎛111,矩阵⎪⎪⎪⎭⎫ ⎝⎛--=111111110P .可验证AP P 1-为对角阵, 事实上,输入 Inverse[P].A.P则输出{{0,0,0},{0,2,0},{0,0,6}}因此,矩阵A 在相似变换矩阵P 的作用下,可化作对角阵.方法2 直接使用JordanDecomposition 命令, 输入jor=JordanDecomposition[A]则输出{{{0,-1,1},{-1,1,1},{1,1,1}},{{0,0,0},{0,2,0},{0,0,6}}}可取出第一个矩阵S 和第二个矩阵Λ,事实上,输入jor[[1]] jor[[2]]则输出{{0,-1,1},{-1,1,1},{1,1,1}} {{0,0,0},{0,2,0},{0,0,6}}输出结果与方法1的得到的结果完全相同.例1.8 方阵⎪⎪⎭⎫⎝⎛=1201A 是否与对角阵相似?输入Clear[A]; A={{1,0},{2,1}}; Eigensystem[A]输出为{{1,1},{{0,1}{0,0}}}于是,1是二重特征值,但是只有向量{0,1}是特征向量,因此,矩阵A 不与对角阵相似.例1.9 (教材 例1.6) 已知方阵⎪⎪⎪⎭⎫ ⎝⎛-=11322002x A 与⎪⎪⎪⎭⎫⎝⎛-=y B 00020001相似, 求y x ,.注意矩阵B 是对角矩阵,特征值是y ,2,1-.又矩阵A 是分块下三角矩阵,-2是矩阵A 的特 征值.矩阵A 与B 相似,则2-=y ,且-1,2也是矩阵A 的特征值.输入Clear[c,v];v={{4,0,0},{-2,2-x,-2},{-3,-1,1}}; Solve[Det[v]==0,x]则输出{{x →0}}所以,在题设条件,0=x ,2-=y .例1.10 对实对称矩阵⎪⎪⎪⎪⎪⎭⎫⎝⎛=2000001101010110A ,求一个正交阵P ,使AP P 1-为对角阵. 输入<<LinearAlgebra\Orthogonalization Clear[A,P]A={{0,1,1,0 },{1,0,1,0},{1,1,0,0},{0,0,0,2}}; Eigenvalues[A] Eigenvectors[A]输出的特征值与特征向量为{-1,-1,2,2}{{-1,0,1,0},{-1,1,0,0},{0,0,0,1},{1,1,1,0}}再输入P=GramSchmidt[Eigenvectors[A]]//Transpose输出为已经正交化和单位化的特征向量并且经转置后的矩阵P{}}{0,1,0,0,31,0,61,21,31,0,32,0,31,0,61,21⎪⎭⎪⎬⎫-⎪⎩⎪⎨⎧⎪⎩⎪⎨⎧⎪⎭⎪⎬⎫⎪⎭⎪⎬⎫-⎪⎩⎪⎨⎧⎪⎩⎪⎨⎧-为了验证P 是正交阵,以及AP P AP p T=-1是对角阵,输入Transpose[P].PInverse[P].A.P//Simplify Transpose[P].A.P//simplify则输出{{1,0,0,0},{0,1,0,0},{0,0,1,0},{0,0,0,1}} {{-1,0,0,0},{0,-1,0,0},{0,0,2,0},{0,0,0,2}} {{-1,0,0,0},{0,-1,0,0},{0,0,2,0},{0,0,0,2}}第一个结果说明E P P T =,因此P 是正交阵;第二个与第三个结果说明⎪⎪⎪⎪⎪⎭⎫ ⎝⎛--==-22111AP P AP P T例1.11 求一个正交变换,化二次型243231212222x x x x x x x f +++=为标准型.二次型的矩阵为⎪⎪⎪⎪⎪⎭⎫⎝⎛=2000001101010110A这恰好是例1.10的矩阵, 因此,用例1.10中的正交矩阵P ,作正交变换PY X =,即⎪⎪⎪⎪⎪⎭⎫ ⎝⎛⎪⎪⎪⎪⎪⎪⎪⎪⎪⎭⎫ ⎝⎛---=⎪⎪⎪⎪⎪⎭⎫ ⎝⎛43214321010031061213103203106121y y y y x x x x将f 化作标准型.输入f=T able[x[j],{j,4}].A.Table[x[j],{j,4}]//Simplify则输出2(x[2]x[3]+x[1](x[2]+x[3])+x[4]2)这是原来的二次型f .把上式中的x[1],x[2],x[3],x[4]用y[1],y[2],y[3],y[4]表示,输入代换命令f/.T able[x[j]→(P .T able[y[j],{j,4}])[[j]],{j,4}]// Simplify则输出-y[1]2-y[2]2 +2(y[3]2 +y[4]2)这就是二次型f 的标准型.例1.12 (教材 例1.7) 已知二次型3231212322213212422),,(x x x x x x x x x x x x f +-++-=(1)求标准形; (2)求正惯性指数; (3)判断二次型是否正定. 输入A={{1,1,-2},{1,-2,1},{-2,1,1}}Eigenvalues[A]则输出矩阵A 的特征值为{-3,0,3}所以二次型的标准形为222133y y f +=;正惯性指数为1;该二次型不是正定的. 例1.13 (教材 例1.8) 求正交变换将二次型43324121242322213212222),,(x x x x x x x x x x x x x x x f -+-++++=化为标准形.输入A={{1,1,0,-1},{1,1,1,0},{0,1,1,-1},{-1,0,-1,1}} MatrixForm[A] X={x1,x2,x3,x4}; Expand[X.A.X]<<LinearAlgebra\Orthogonalization.m P=GramSchmidt[Eigenvectors[A]] P .A.Inverse[P]//MatrixForm则输出所求的正交变换矩阵P 与二次型矩阵A 标准形. 从结果知, 所求二次型的标准型为24232221y y y y g +++-=实验2 层次分析法实验目的通过应用层次分析法解决一个实际问题,学习层次分析法的基本原理与方法;掌握用层次 分析法建立数学模型的基本步骤;学会用Mathematica 解决层次分析法中的数学问题.基本原理层次分析法是系统分析的重要工具之一,其基本思想是把问题层次化、数量化, 并用数学 方法为分析、决策、预报或控制提供定量依据. 它特别适用于难以完全量化, 又相互关联、 相互制约的众多因素构成的复杂问题. 它把人的思维过程层次化、数量化,是系统分析的一中 新型的数学方法.运用层次分析法建立数学模型, 一般可按如下四个基本步骤进行.1.建立层次结构首先对所面临的问题要掌握足够的信息, 搞清楚问题的范围、因素、各因素之间的相互 关系,及所要解决问题的目标. 把问题条理化、层次化, 构造出一个有层次的结构模型. 在这 个模型下,复杂问题被分解为元素的组成部分. 这些元素又按其属性及关系形成若干层次.层 次结构一般分三层:第一层为最高层, 它是分析问题的预定目标和结果, 也称目标层;第二层为中间层, 它是为了实现目标所涉及的中间环节, 如: 准则、子准则, 也称准则 层;第三层为最底层, 它包括了为实现目标可供选择的各种措施、决策方案等, 也称方案层.图2-1决策目标准则1准则2准则n方案1方案2方案m…………注:上述层次结构具有以下特点:(1) 从上到下顺序地存在支配关系, 并用直线段表示;(2) 整个层次结构中层次数不受限制.2.构造判断矩阵构造判断矩阵是建立层次分析模型的关键. 假定以上一层的某元素y 为准则,它所支配 的下一层次的元素为n x x x ,,,21 ,这n 个元素对上一层次的元素y 有影响,要确定它们在y 中的比重. 采用成对比较法. 即每次取两个元素i x 和j x , 用ij a 表示i x 与j x 对y 的影响之比, 全部比较的结果可用矩阵A 表示,即.,,2,1,,)(n j i a A n n ij ==⨯ 称矩阵A 为判断矩阵.根据上述定义,易见判断矩阵的元素ij a 满足下列性质:)(,1),(1j i a j i a a ii ijji ==≠=当0>ij a 时,我们称判断矩阵A 为正互反矩阵.怎样确定判断矩阵A 的元素ij a 的取值呢? 当某层的元素n x x x ,,,21 对于上一层某元素y 的影响可直接定量表示时, i x 与j x 对y的影响之比可以直接确定, ij a 的值也可直接确定. 但对于大多数社会经济问题, 特别是比较 复杂的问题, 元素i x 与j x 对y 的重要性不容易直接获得, 需要通过适当的量化方法来解决. 通常取数字1~9及其倒数作为ij a 的取值范围. 这是因为在进行定性的成对比较时, 通常采用5级制(表1),在每两个等级之间各有一个中间状态, 共1~9个尺度, 另外心理学家认为进行成对比较的因素太多, 将超出人们的判断比较能力, 降低精确. 实践证明, 成对比较的尺度以27±为宜, 故ij a 的取值范围是9,,2,1 及其倒数.表1 比较尺度ij a 的取值97531/ijj i a x x 绝对强很强强较强相等3.计算层次单排序权重并做一致性检验层次单排序是指同一层次各个元素对于上一层次中的某个元素的相对重要性进行排序. 具体做法是: 根据同一层n 个元素n x x x ,,,21 对上一层某元素y 的判断矩阵A ,求出它们对 于元素y 的相对排序权重,记为n w w w ,,,21 ,写成向量形式T n w w w w ),,,(21 =, 称其为A 的层次单排序权重向量, 其中i w 表示第i 个元素对上一层中某元素y 所占的比重, 从而得到层次单排序.层次单排序权重向量有几种求解方法,常用的方法是利用判断矩阵A 的特征值与特征向 量来计算排序权重向量w .关于正互反矩阵A ,我们不加证明地给出下列结果. (1) 如果一个正互反矩阵n n ij a A ⨯=)(满足),,2,1,,(n k j i a a a ik jk ij ==⨯则称矩阵A 具有一致性, 称元素k j i x x x ,,的成对比较是一致的; 并且称A 为一致矩阵.(2) n 阶正互反矩阵A 的最大特征根n ≥max λ, 当n =λ时, A 是一致的. (3) n 阶正互反矩阵是一致矩阵的充分必要条件是最大特征值 n =max λ.计算排序权重向量的方法和步骤设T n w ),,,(21ωωω =是n 阶判断矩阵的排序权重向量, 当A 为一致矩阵时, 根据n阶判断矩阵构成的定义,有⎪⎪⎪⎪⎪⎪⎪⎪⎭⎫ ⎝⎛=n n n n nn A ωωωωωωωωωωωωωωωωωω212221212111 (2.1) 因而满足,nw Aw = 这里n 是矩阵A 的最大特征根, w 是相应的特征向量; 当A 为一般的 判断矩阵时w Aw max λ=, 其中max λ是A 的最大特征值(也称主特征根), w 是相应的特征向 量(也称主特征向量). 经归一化(即11=∑=ni iω)后, 可近似作为排序权重向量, 这种方法称为特征根法.一致性检验在构造判断矩阵时, 我们并没有要求判断矩阵具有一致性, 这是由客观事物的复杂性与人的认识的多样性所决定的. 特别是在规模大、因素多的情况下, 对于判断矩阵的每个元 素来说,不可能求出精确的j i ωω/, 但要求判断矩阵大体上应该是一致的. 一个经不起推敲 的判断矩阵有可能导致决策的失误. 利用上述方法计算排序权重向量, 当判断矩阵过于偏离 一致性时, 其可靠性也有问题. 因此,需要对判断矩阵的一致性进行检验, 检验可按如下步骤 进行: (1) 计算一致性指标CI1max --=n nCI λ (2.2)当,0=CI 即n =max λ时, 判断矩阵A 是一致的. 当CI 的值越大, 判断矩阵A 的不一致的程 度就越严重. (2) 查找相应的平均随机一致性指标RI表2给出了n )11~1(阶正互反矩阵的平均随机一致性指标RI , 其中数据采用了 100~150个随机样本矩阵A 计算得到.(3) 计算一致性比例CRRICICR =(2.3)当10.0<CR 时, 认为判断矩阵的一致性是可以接受的; 否则应对判断矩阵作适当修正.4. 计算层次总排序权重并做一致性检验计算出某层元素对其上一层中某元素的排序权重向量后, 还需要得到各层元素, 特别 是最底层中各方案对于目标层的排序权重, 即层次总排序权重向量, 再进行方案选择. 层次 总排序权重通过自上而下地将层次单排序的权重进行合成而得到. 考虑3个层次的决策问题: 第一层只有1个元素, 第二层有n 个元素, 第三层有m 个元 素.设第二层对第一层的层次单排序的权重向量为 Tn w ),,,()2()2(2)2(1)2(ωωω = 第三层对第二层的层次单排序的权重向量为n k w w w w Tkn k k k ,,2,1,),,,()3()3(2)3(1)3( ==以)3(k w 为列向量构成矩阵:n m nm m mn n n w w w w w w w w w w w w W ⨯⎪⎪⎪⎪⎪⎭⎫ ⎝⎛==)3()3(2)3(1)3(2)3(22)3(12)3(1)3(21)3(11)3()3(2)3(1)3(,,,,,,,,,,,),,,( (2.4)则第三层对第一层的层次总排序权重向量为)2()3()3(w W w =(2.5) 一般地, 若层次模型共有s 层, 则第k 层对第一层的总排序权重向量为s k w W w k k k ,,4,3,)1()()( ==-(2.6)其中)(k W 是以第k 层对第1-k 层的排序权向量为列向量组成的矩阵,)1(-k w 是第1-k 层对第 一层的总排序权重向量. 按照上述递推公式, 可得到最下层(第s 层)对第一层的总排序权重 向量为)2()3()1()()(w W W W w s s s -=(2.7)对层次总排序权重向量也要进行一致性检验. 具体方法是从最高层到最低层逐层进行 检验.如果所考虑的层次分析模型共有s 层. 设第l (s l ≤≤3)层的一致性指标与随机一致性 指标分别为)()(2)(1,,,l n l l CI CI CI (n 是第1-l 层元素的数目)与)()(2)(1,,,l nl l RI RI RI , 令)1()(1)(1)(],,[-=l l l l w CI CI CI(2.8) )1()(1)(1)(],,[-=l l l l w RI RI RI(2.9)则第l 层对第一层的总排序权向量的一致性比率为s l RICI CRCRl l l l ,,4,3,)()()1()( =+=- (2.10)其中)2(CR 为由(2.3)式计算的第二层对第一层的排序权重向量的一致性比率.当最下层对第一层的总排序权重向量的一致性比率1.0)(<s CR 时, 就认为整个层次结构 的比较判断可通过一致性检验.应用举例问题 在选购电脑时, 人们希望花最少的钱买到最理想的电脑. 试通过层次分析法建立 数学模型,并以此确定欲选购的电脑.1. 建立选购电脑的层次结构模型选择的目标性能价格质量外观售后服务品牌1品牌2品牌3目标层准则层方案层图2-2该层次结构模型共有三层:目标层(用符号z 表示最终的选择目标); 准则层(分别用符号 521,,,y y y 表示“性能”、“价格”、“质量”、“外观”、“售后服务”五个判断准则); 方案层(分别用符号321,,x x x 表示品牌1, 品牌2, 品牌3三种选择方案).2.构造成对比较判断矩阵(1) 建立准则层对目标层的成对比较判断矩阵根据表1的定量化尺度, 从建模者的个人观点出发, 设准则层对目标层的成对比较判断矩阵为⎥⎥⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎢⎢⎣⎡=13123/13/113/12/19/113123/12/122/115/139351A (2.11)(2) 建立方案层对准则层的成对比较判断矩阵,113/1113/1331,123/12/115/13511252/1135/13/11,12/15/1213/1531,1252/1135/13/1154321⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=B B B B B3.计算层次单排序权重向量并做一致性检验先利用Mathematica 计算矩阵A 的最大特征值及特征值所对应的特征向量. 输入<<Miscellaneous\RealOnly.m (*调用只求实数运算的软件包*)A={{1.0,5,3,9,3},{1/5,1,1/2,2,1/2},{1/3,2,1,3,1},{1/9,1/2,1/3,1,1/3},{1/3,2,1,3,1}};(*以小数形式1.0输入进行近似计算, 可避免精确解太长、太复杂*) T=Eigensystem[A]//Chop(*输入//Chop, 把与零非常接近的数换成零*)则输出{{5.00974,Nonreal,Nonreal,0,0},{{0.88126,0.167913,0.304926,0.0960557,0.304926}, {0.742882,Nonreal,Nonreal,Nonreal,Nonreal}, {0.742882,Nonreal,Nonreal,Nonreal,Nonreal}, {-0.993398,0,0.0673976,0.0662265,0.0650555}, {-0.65676,0,0.57431,0.043784,-0.486742}}} (输出中的Nonreal 表示复数)从中得到A 的最大特征值,00974.5max =λ及其对应的特征向量T x )304926.0,0960557.0,304926.0,167913.0,88126.0(=输入Clear[x]; x=T[[2,1]];ww2=x/Apply[Plus,x]则得到归一化后的特征向量T w )173739.0,0547301.0,173739.0,0956728.0,502119.0()2(=计算一致性指标1max --=n nCI λ,其中,00974.5,5max ==λn 故.002435.0=CI查表得到相应的随机一致性指标 12.1=RI 从而得到一致性比率002174.0)2(==RICICR 因,1.0)2(<CR 通过了一致性检验,即认为A 的一致性程度在容许的范围之内, 可以用归一 化后的特征向量)2(w 作为排序权重向量. 下面再求矩阵)5,,2,1( =j B j 的最大特征值及特征值所对应的特征向量, 输入B1=B3={{1.0,1/3,1/5},{3,1,1/2},{5,2,1}}; B2=Transpose[B1];B4={{1.0,5,3},{1/5,1,1/2},{1/3,2,1}}; B5={{1.0,3,3},{1/3,1,1},{1/3,1,1}}; T1=Eigensystem[B1]//ChopT2=Eigensystem[B2]//Chop T3=Eigensystem[B3]//Chop T4=Eigensystem[B4]//Chop T5=Eigensystem[B5]//Chop则输出 {{3.00369,Nonreal, Nonreal}, {{0.163954,0.46286,0.871137},{ Nonreal, Nonreal,0.871137}, { Nonreal, Nonreal, 0.871137}}};{{3.00369,Nonreal, Nonreal}, {{0.928119,0.328758,0.174679}, {0.928119, Nonreal, Nonreal}, {0.928119, Nonreal, Nonreal}}}{{3.00369, Nonreal, Nonreal}, {{0.163954,0.46286,0.871137}, { Nonreal, Nonreal,0.871137}, { Nonreal, Nonreal,0.871137}}}{{3.00369, Nonreal, Nonreal}, {{0.928119,0.174679,0.328758}, {0.928119, Nonreal, Nonreal}, {0.928119, Nonreal, Nonreal}}} {{3,0,0},{{0.904534,0.301511,0.301511}, {-0.973329,0.162221,0.162221}, {-0.170182,-0.667851,0.724578}}从上面的输出可以分别得到)5,,2,1( =j B j 的最大特征值000.3,00369.3,00369.3,00369.3,00369.354321=====λλλλλ以及上述特征值所对应的特征向量TT T TT x x x x x )301511.0,301511.0,904534.0()328758.0,174679.0,928119.0()871137.0,46286.0,163954.0()174679.0,328758.0,928119.0()871137.0,46286.0,163954.0(54321=====其中.5,,2,1),,,(321 ==i x x x x i i i i 为求出归一化后的特征向量, 输入Clear[x1,x2,x3,x4,x5]; x1=T1[[2,1]];w1=x1/Apply[Plus,x1] x2=T2[[2,1]];w2=x2/Apply[Plus,x2] x3=T3[[2,1]];w3=x3/Apply[Plus,x3] x4=T4[[2,1]];w4=x4/Apply[Plus,x4] x5=T5[[2,1]];w5=x5/Apply[Plus,x5]则输出TT T TT w w w w w )200000.0,200000.0,600000.0()229651.0,12202.0,648329.0()581552.0,308996.0,109452.0()12202.0,229651.0,648329.0()581552.0,308996.0,109452.0(54321===== 计算一致性指标)5,,2,1(1=--=i n nCI i i λ,其中,3=n 输入lamda={T1[[1,1]],T2[[1,1]],T3[[1,1]],T4[[1,1]],T5[[1,1]]} CI=(lamda-3)/(3-1)//Chop则输出0,0018473.0,0018473.0,0018473.0,0018473.054321=====CI CI CI CI CI查表得到相应的随机一致性指标)5,,2,1(58.0 ==i RI i计算一致性比率5,,2,1, ==i RI CI CR iii ,输入CR=CI/0.58则输出.0,003185.0,003185.0,003185.0,003185.054321=====CR CR CR CR CR因),5,,2,1(,1.0 =<i CR i 通过了一致性检验. 即认为)5,,2,1( =j B j 的一致性程度在容许 的范围之内, 可以用归一化后的特征向量作为其排序权重向量.4. 计算层次总排序权重向量并做一致性检验购买个人电脑问题的第三层对第二层的排序权重计算结果列于表3.以矩阵表示第三层对第二层的排序权重计算结果为⎥⎥⎥⎦⎤⎢⎢⎢⎣⎡=2.0229651.0581552.012202.0581552.02.012202.0308996.0229651.0308996.06.0648329.0109452.0648329.0109452.0)3(W )3(W 即是第三层对第二层的权重向量为列向量组成的矩阵. 最下层(第三层)对最上层(第一层)的总排序权向量为)2()3()3(w W w =为了计算上式, 输入W3=Transpose[{w1,w2,w3,w4,w5}]; ww3=W3.ww2则从输出结果得到T w )452037.0,272235.0,275728.0()3(=为了对总排序权向量进行一致性检验, 计算)2(521)3().,,.,.(w I C I C I C CI =输入CI.ww2则从输出结果得到00152635.0)3(=CI 再计算)2(51)3(],,[w RI RI RI =,输入RI=T able[0.58,{j,5}]; RI.ww2则从输出结果得到 58.0.)3(=I R 最后计算 )3()3()2()3(./...I R I C R C R C +=,可得00480575.0.)3(=R C因为,1.0.)3(<R C 所以总排序权重向量符合一致性要求的范围.根据总排序权重向量的分量取值, 品牌3的电脑是建模者对这三种品牌机的首选. 实验报告1.根据你的设想购置一台计算机, 需考虑什么样的判断准则? 利用层次分析法及数学 软件做出最佳的决策.2.根据你的经历设想如何报考大学, 需要什么样的判断准则? 利用层次分析法及数学 软件做出最佳的决策.3.假期到了, 某学生打算做一次旅游, 有四个地点可供选择, 假定他要考虑5个因素: 费用、景色、居住条件、饮食以及旅游条件. 由于该学生没有固定收入, 他对费用最为看重, 其次是旅游点的景色, 至于旅游条件、饮食, 差不多就行, 住什么地方就更无所谓了. 这四个旅游点没有一个具有明显的优势, 而是各有优劣. 该同学拿不定主意, 请用层次分析法帮助他找出最佳旅游点.4. 假设你马上就要从大学毕业, 正面临择业的问题, 你对工作的选择着重考虑下面几个因素: (1)单位的声誉; (2)收入; (3)专业是否对口; (4)是否有机会深造或晋升; (5)工作地点; (6)休闲时间. 对上述各种因素你可以根据自己的具体情况排序,也可以增加或减少所考虑的因素. 现在有四个单位打算你, 但如果用上述标准来衡量,没有一个单位具有明显的优势,请用层次分析法为你自己做一个合理的选择.。
矩阵的特征值
矩阵的特征值简介在线性代数中,矩阵的特征值是矩阵在特征向量上的投影,是一个重要的概念。
特征值可以帮助我们了解矩阵的性质和变换。
本文将介绍矩阵的特征值的定义、性质以及计算方法。
定义设 A 是一个 n × n 的矩阵,λ 是一个实数,如果存在一个非零向量 x 使得Ax = λx 成立,则称λ 是矩阵 A 的特征值,x 是对应的特征向量。
特征向量 x 满足Ax = λx,其中x ≠ 0,λ 可能是实数也可能是复数。
特征向量 x 的模长不影响特征向量的定义,通常我们会将特征向量标准化为单位向量。
性质1.矩阵 A 和其转置矩阵 A^T 具有相同的特征值。
2.若A 是一个对称矩阵,那么它的特征向量是正交的。
3.矩阵 A 的特征值的和等于它的迹,即λ1 + λ2 + … +λn = tr(A)。
4.矩阵 A 的特征值的积等于它的行列式,即λ1 * λ2* … * λn = |A|。
5.如果λ 是矩阵 A 的特征值,那么λ^k 是矩阵 A^k 的特征值,其中 k 是正整数。
6.矩阵 A 是奇异的(行列式为零)当且仅当它的零空间不为空,即存在非零向量使得 Ax = 0。
计算方法要计算矩阵的特征值,通常使用特征值问题的特征多项式。
设 A 是一个 n × n 的矩阵,特征多项式定义为f(λ) = |A - λI|,其中 I 是 n × n 的单位矩阵,|A - λI| 是矩阵 A - λI 的行列式。
1.求特征多项式的根:将特征多项式f(λ) = 0 的解称为特征值。
通过求解特征多项式的根,可以得到矩阵的特征值。
2.求解特征向量:对于每一个特征值λ,解齐次线性方程组 (A - λI)x = 0,得到相应的特征向量 x。
3.标准化特征向量:对于每一个特征值λ,将对应的特征向量 x 进行标准化处理,得到单位特征向量。
应用矩阵的特征值在很多领域有广泛的应用。
1.特征值可以帮助我们了解矩阵的变换性质。
计算方法之计算矩阵的特征值和特征量
4
1 取对应于1=4的基础解向量 P1 1 则对应于1=4的全部特征向量为:kP1 (k 0)
(2)2=2 将1=2代入(A-E)X=0得(A-2E)X=0
3 2 1 x1 1 3 2 x 0 2
总可以用 Xi 的线性组合来表示: V(0)=1X1+ 2X2+...+ nXn(其中10) 取 V(1)=AV(0) V(2)=AV(1)=A2V(0) ……
10
V(k+1)=AV(k) =Ak+1V(0) 以构成向量迭代序列。 由矩阵特征值的定义有: AXi=iXi (i=1,2,...,n) 则有
k 1 1
i [ 1 X 1 i i2 1
n
k 1
Xi ]
11
V 同理可得:
(k )
i [ 1 X 1 i X i ] i2 1
n k 1 n k 1
k
V(k+1)的第j个分量:
16
(二)按模最大特征值是互为反号的实根 设n 阶方阵A有 n 个线性无关的特征向量 Xi , 其对应的特征值为i (i=1,2,...,n),且满足: |1| = |2|>|3| … |n|,设其中1>0, 1=- 2
由迭代变换: V ( k ) Ak V ( 0 )
3 1 求矩阵 A 1 3 的特征值与特征向量
3
解:计算特征多项式方程,即 3 1 A E ( 3 )2 1 0 1 3 解得A的两个特征值:1=4, 2=2。 (1)1=4 将1=4代入 (A-E)X=0得(A-4E)X=0
判断矩阵的公式
判断矩阵的公式
判断矩阵是用于判断或评估多个标准或因素之间相对重要性的一种工具。
判断矩阵的公式是用来计算矩阵的数值的。
下面是判断矩阵常用的计算公式:
1.极大特征值法(Maximum Eigenvalue Method):
o标准化特征向量法(Normalized Eigenvector Method):判断矩阵A的主特征向量的计算公式为:v = (1/n) *
A * w,其中n为矩阵的阶数,w为单位特征值对应
的特征向量。
o平均特征向量法(Average Eigenvector Method):判断矩阵A的每一列的平均特征向量的计算公式为:v
= (1/n) * Σ(A * w),其中n为矩阵的阶数,Σ表示对所
有特征值对应的特征向量进行求和,w为对应的特
征向量。
2.离差平均法(Average Deviation Method):公式为:v =
(1/n) * Σ(A * w),其中n为矩阵的阶数,Σ表示对所有特征
值对应的特征向量进行求和,w为对应的特征向量。
判断矩阵的计算公式根据不同的方法和理论有所差异,但都涉及计算特征值和特征向量,并进行归一化或平均化等处理。
具体应用时,可以根据实际情况和所采用的方法选择适合的计算公式。
幂法求矩阵最大特征值
幂法求矩阵最大特征值摘要在物理、力学和工程技术中的很多问题在数学上都归结为求矩阵特征值的问题,而在某些工程、物理问题中,通常只需要求出矩阵的最大的特征值(即主特征值)和相应的特征向量,对于解这种特征值问题,运用幂法则可以有效的解决这个问题。
幂法是一种计算实矩阵A的最大特征值的一种迭代法,它最大的优点是方法简单。
对于稀疏矩阵较合适,但有时收敛速度很慢。
用java来编写算法。
这个程序主要分成了三个大部分:第一部分为将矩阵转化为线性方程组;第二部分为求特征向量的极大值;第三部分为求幂法函数块。
其基本流程为幂法函数块通过调用将矩阵转化为线性方程组的方法,再经过一系列的验证和迭代得到结果。
关键词:幂法;矩阵最大特征值;j ava;迭代POWER METHOD TO CALCULATE THE MAXIMUMEIGENV ALUE MATRIXABSTRACTIn physics, mechanics and engineering technology of a lot of problems in math boil down to matrix eigenvalue problem, and in some engineering, physical problems, usually only the largest eigenvalue of the matrix (i.e., the main characteristics of the value) and the corresponding eigenvectors, the eigenvalue problem for solution, using the power law can effectively solve the problem.Power method is A kind of computing the largest eigenvalue of real matrix A of an iterative method, its biggest advantage is simple.For sparse matrix is right, but sometimes very slow convergence speed.Using Java to write algorithms.This program is mainly divided into three most: the first part for matrix can be converted to linear equations;The second part is the eigenvector of the maximum;The third part is the exponentiation method of function block.Its basic process as a power law function block by calling the method of matrix can be converted to linear equations, then after a series of validation and iteration to get the results.Key words: Power method; Matrix eigenvalue; Java; The iteration目录1幂法 (1)1.1 幂法基本思想 (1)1.2规范化 (2)2概要设计 (3)2.1 设计背景………………..…………………………………………………………. .32.2 运行流程 (3)2.3运行环境 (3)3 程序详细设计 (4)3.1 第一部分:矩阵转化为线性方程组……..………………………………………. .43.2 第二部分:特征向量的极大值 (4)3.3 第三部分:求幂法函数块 (5)4 运行过程及结果 (6)4.1 运行过程.........................................................………………………………………. .64.2 运行结果 (6)4.3 结果分析 (6)5 心得体会 (7)参考文献 (8)附录:源程序 (9)1 幂法设A n 有n 个线性相关的特征向量v 1,v 2,…,v n ,对应的特征值λ1,λ2,…,λn ,满足|λ1| > |λ2| ≥ …≥ |λn |1.1 基本思想因为{v 1,v 2,…,v n }为C n的一组基,所以任给x (0)≠ 0,∑==ni i i v a x 1)0( —— 线性表示所以有])([)(21111111)0(∑∑∑∑====+====ni i i ki kni k k i i ni ik i n i i i kkv a v a v a v A a v a A xA λλλλ若a 1 ≠ 0,则因11<λλi知,当k 充分大时 A (k )x (0) ≈ λ1k a 1v 1 = cv 1 属λ1的特征向量,另一方面,记max(x ) = x i ,其中|x i | = ||x ||∞,则当k 充分大时,111111*********)0(1)0()max()max()max()max()max()max(λλλλλ==≈---v a v a v a v a x A x A k kk k k k若a 1 = 0,则因舍入误差的影响,会有某次迭代向量在v 1方向上的分量不为0,迭代下去可求得λ1及对应特征向量的近似值。
求特征值的技巧
求特征值的技巧特征值(eigenvalue)是矩阵在线性代数中非常重要的一个概念,它具有广泛的应用。
本文将探讨特征值的求解技巧。
首先,我们来了解一下特征值的定义。
给定一个n阶方阵A,如果存在一个非零向量v,使得满足Av=λv,其中λ为常数,那么λ就是A的特征值,v就是对应于λ的特征向量。
特征值与特征向量的求解可以分为数值方法和解析方法两种。
下面分别介绍这两种方法。
一、数值方法:1. 幂迭代法:幂迭代法是一种较为简单和常用的求矩阵最大特征值的方法。
其基本思想是通过迭代过程不断逼近最大特征值的值和对应的特征向量。
具体步骤如下:(1)取一个初始向量v0,通常为单位向量。
(2)迭代计算出序列:v1 = Av0, v2 = Av1, ..., vn = Avn-1。
(3)计算序列vn的模长:vn = √(vn * vn)。
(4)对vn进行归一化得到单位向量: vn = vn / vn 。
(5)判断收敛条件,如果满足收敛条件,则取vn为最大特征值对应的特征向量。
2. QR算法:QR算法是一种用于求解特征值的数值方法,可以同时求得所有特征值和特征向量。
它的基本思想是通过不断迭代,将矩阵A转化为上三角矩阵R,并使其对角线上的元素逼近A的特征值。
具体步骤如下:(1)将矩阵A分解为QR,其中Q为正交矩阵,R为上三角矩阵。
(2)计算矩阵A的逆:A^-1 = R^-1 * Q^-1。
(3)计算新矩阵B = R * Q。
(4)重复步骤1-3,直到矩阵B对角线上的元素收敛为止。
收敛时,矩阵B 的对角线元素即为矩阵A的特征值。
二、解析方法:1. 特征多项式:给定一个n阶方阵A,A的特征多项式定义为P(λ) = A - λI ,其中I为n 阶单位矩阵。
特征多项式的根即为矩阵A的特征值。
特征多项式可以通过展开矩阵A-λI的行列式来求解。
2. 特征向量的求解:通过求解特征多项式得到的特征值,可以求得对应的特征向量。
对于每个特征值λi,我们需要求解线性方程组(A - λiI)v = 0,其中v为特征向量。
求解特征值的方法技巧
求解特征值的方法技巧求解特征值是线性代数中的一个重要问题,它在物理、工程、计算机科学等领域中都有广泛的应用。
在本文中,我们将讨论求解特征值的方法和技巧。
特征值的定义是在线性代数中非常基础的概念。
对于一个n×n的矩阵A,如果存在一个非零向量v使得Av=λv,其中λ是一个标量(实数或复数),则λ称为矩阵A的特征值,v称为对应于特征值λ的特征向量。
特征值和特征向量之间具有一一对应的关系。
1. 特征多项式法:特征多项式法是求解特征值的一种常用方法。
对于一个n×n的矩阵A,其特征多项式定义为:p(λ) = |A-λI| = det(A-λI)其中,I是n×n单位矩阵,det表示行列式。
特征多项式的根就是矩阵A的特征值。
通过计算特征多项式的根,我们可以求解矩阵A的所有特征值。
2. 幂法:幂法是求解矩阵特征值中的最大特征值的一种有效方法。
它的基本思想是通过反复迭代使一个向量v不断与矩阵A相乘,直到收敛到矩阵A的最大特征值对应的特征向量。
具体步骤如下:1) 选择一个任意非零向量v0;2) 计算v1 = Av0;3) 对v1进行归一化处理,得到v1' = v1 / ||v1||;4) 重复步骤2和3,直到v收敛到A的最大特征值对应的特征向量。
3. 反幂法:反幂法是求解特征值中的最小特征值的一种方法。
它与幂法的思想相似,只是在每一次迭代中,需要对向量进行归一化处理。
具体步骤如下:1) 选择一个任意非零向量v0;2) 计算v1 = (A-1)v0;3) 对v1进行归一化处理,得到v1' = v1 / ||v1||;4) 重复步骤2和3,直到v收敛到A的最小特征值对应的特征向量。
4. QR算法:QR算法是一种迭代算法,用于计算矩阵的所有特征值。
它的基本思想是通过反复进行QR分解将矩阵A转化为上三角矩阵,使得其特征值可以从对角线上读出。
具体步骤如下:1) 将矩阵A进行QR分解,得到A=QR,其中Q为正交矩阵,R为上三角矩阵;2) 将上一步得到的R矩阵再进行QR分解,得到新的矩阵A1=Q1R1;3) 重复步骤2,直到A收敛到上三角矩阵。
最大特征值计算公式
最大特征值计算公式
最大特征值是矩阵特征值中最大的一个,它在数学、物理、工程、经济学等多个领域中都有广泛应用。
最大特征值的计算方法有多种,其中一种常见的是幂法求解法。
幂法求解法是一种基于迭代的方法,它通过不断对矩阵进行重复乘法来逼近最大特征值。
具体而言,该方法首先需要选择一个随机向量x作为初始向量,然后对矩阵A进行多次乘法,
得到一系列向量{x, Ax, A^2x, A^3x, ...},其中向量的长度可能
会发生变化。
在每次计算中,都需要将当前向量除以其范数,使其成为单位向量,然后用新向量与旧向量进行比较以判断算法是否已经收敛。
当新向量与旧向量的差值小于一个给定的容差时,算法即停止,此时新向量的方向即为最大特征值所对应的特征向量。
具体来说,幂法计算最大特征值的公式为:
λ = lim(k→∞) (Akx_k · x_k)/(x_k · x_k)
其中,λ为最大特征值,x_k为第k次迭代得到的向量,A为
待求解矩阵,k为迭代次数。
由于幂法计算的复杂度较低且具有较好的数值稳定性,在实际应用中得到了广泛的应用。
同时,该方法也存在一些限制,如会受到矩阵特征值分布的影响,可能会在某些情况下收敛缓慢,因此需要在实际应用中结合具体问题进行调优。
用幂法求矩阵a的按模最大特征值的方法
幂法是一种特征值问题的迭代方法,主要用于求矩阵的按模最大的特征值以及对应的特征向量。
以下是使用幂法求解矩阵 A 的按模最大特征值的步骤:
步骤 1: 选择一个初始向量 x0 (一般为非零向量)。
步骤 2: 对于k的每一个正整数值,重复以下步骤:
(a) 计算 yk = Axk.
(b) 计算λk = yk / xk (这是yn的一个比例因子,λk可能就是特征值)。
对应的λk是按模最大的特征值的估计值。
(c) 更新 xk+1 = yk / ||yk|| (这是将向量yk归一化得到的结果)。
步骤 3: 一直迭代,直到满足某个终止条件,如λk 或 xk 的连续两次估计之间的差值小于前记设定的阈值,则停止迭代。
注意幂法并不能求出所有的特征值和特征向量,只能求出按模最大的特征值以及对应的特征向量。
以上算法中,每一次迭代都计算一次矩阵-向量积,所以时间复杂度为 O(n^2),其中 n 是矩阵的维度。
这就是应用幂法求解矩阵按模最大特征值的基本方法。
对于不同的矩阵和初值,其收敛性会有所不同,可能需要应用一些变种,如反幂法、加速幂法等。
矩阵特征值的求法举例
矩阵特征值的求法举例特征值是线性代数中一个重要的概念,它能够描述一个矩阵对应的线性变换的特性。
在实际应用中,我们经常需要计算一个矩阵的特征值。
本文将通过举例来讲解矩阵特征值的求法。
我们来介绍一下什么是特征值。
给定一个n×n的矩阵A,如果存在一个非零向量v,使得Av=λv,其中λ为常数,那么我们称λ为矩阵A的特征值,而v称为矩阵A对应于特征值λ的特征向量。
计算矩阵特征值的方法有很多,包括特征值分解、幂法、反幂法、QR方法等。
下面我们来逐一介绍这些方法,并通过具体的例子进行说明。
1. 特征值分解法特征值分解是指将一个矩阵分解成特征值和特征向量的乘积的形式,即A=QΛQ^-1,其中Q是特征向量组成的矩阵,Λ是对角矩阵,其对角线上的元素是矩阵A的特征值。
举例:假设有一个2×2的矩阵A=[4, 2; 1, 3],我们来计算其特征值。
首先我们要求解方程det(A-λI)=0,其中I是单位矩阵,λ是待求的特征值。
展开方程可得(4-λ)(3-λ)-2·1=0,解这个二次方程可得λ1=5,λ2=2。
2. 幂法幂法是一种迭代法,用于求解特征值模最大的特征值和对应的特征向量。
举例:假设有一个3×3的矩阵A=[1, 2, 3; 1, 3, 2; 3, 2, 1],我们来计算其特征值和特征向量。
首先我们随机选取一个初始向量x^(0),计算向量序列x^(k+1)=Ax^(k),迭代到收敛后,我们取得到的向量x^(k+1)的模最大的分量作为矩阵A的特征值模最大的特征向量。
然后,我们将这个特征向量归一化,即除以特征值模最大的分量,得到单位特征向量。
我们将单位特征向量与矩阵A相乘,可得到特征值l。
通过幂法计算可得矩阵A的特征值l≈2.863,以及对应的特征向量v≈[0.618, 0.618, 0.486]。
3. QR方法QR方法是一种迭代法,用于求解特征值。
举例:假设有一个5×5的矩阵A=[3, -1, 0, 0, 0; -1, 3, -1, 0, 0; 0, -1, 3, -1, 0; 0, 0, -1, 3, -1; 0, 0, 0, -1, 3],我们来计算其特征值。
判断矩阵的最大特征值复习过程
判断矩阵的最大特征值项目六 矩阵的特征值与特征向量实验1求矩阵的特征值与特征向量实验目的学习利用Mathematica(4.0以上版本)命令求方阵的特征值和特征向量能利用软件计算 方阵的特征值和特征向量及求二次型的标准形 .求方阵的特征值与特征向量.(1) 求矩阵A 的特征值.输入A={{-1,0,2},{1,2,-1},{1,3,0}}MatrixForm[A]Eigenvalues[A]则输岀A 的特征值{-1,1,1}(2) 求矩阵A 的特征向量.输入A={{-1,0,2},{1,2,-1},{1,3,0}}MatrixForm[A]Eigenvectors[A]{{-3,1,0},{1,0,1},{0,0,0}}即A 的特征向量为 1,0.0 1⑶利用命令Eigensystem 同时矩阵A 的所有特征值与特征向量.输入A={{-1,0,2},{1,2,-1},{1,3,0}}MatrixForm[A]Eigensystem[A]例1.1 (教材例1.1)求矩阵A 21 .的特征值与特值向量则输出则输岀矩阵A的特征值及其对应的特征向量2 3 4例1.2求矩阵A 3 4 5的特征值与特征向量4 5 6输入A=Table[i+j,{i,3},{j,3}]MatrixForm[A](1)计算矩阵A 的全部(准确解)特征值,输入Eigenvalues[A]则输出{0, 6 ■. 42 , 6 ..42 }(2) 计算矩阵A 的全部(数值解)特征值,输入Eigenvalues[N[A]]则输出{12.4807,-0.480741,-1.3483 10 16}(3) 计算矩阵A 的全部(准确解)特征向量,输入Eigenvectors[A]//MatrixForm则输出2 120 3 42-------- 1 23 4 4220 3 42----- -- 123 4 42(4) 计算矩阵A 的全部(数值解)特征向量,输入Eigenvectors[N[A]]//MatrixForm则输出0.430362 0.566542 0.7027220.80506 0.11119 0.5826790.408248 0.816497 0.408248(5) 同时计算矩阵A 的全部(准确解)特征值和特征向量,输入OutputForm[Eigensystem[A]]则输岀所求结果(6) 计算同时矩阵A 的零空间,输入NullSpace[A]1 172 42 234 42 17 2 42 23 4 42仅供学习与交流,如有侵权请联系网站删除谢谢3则输出{{1,21}}(7)调入程序包vvLinearAlgebra'Orthogonalization'后,还可以做以下的运算GramSchmidt[]:用Gram-Schmidt过程将向量组单位正交化;Normalize]]:将向量组单位化;Projection[vect1,vect2]:求从向量组 vectl 到 vect2 的正交映射. 输入vvLinearAlgebra 'Orthogonalization 'GramSchmidt[Eigenvectors[N[A]]]//MatrixForm则输出0.430362 0.566542 0.7027220.80506 0.11119 0.5826790.408248 0.816497 0.4082481 2 3例1.3 求方阵M 2 1 3的特征值和特征向量3 3 6输入Clear[M];M={{1,2,3,},{2,1,3}{3,3,6}};Eigenvalues[M]Eigenvectors[M]Eigensystem[M]则分别输出{-1,0,9}{{-1,1,0},{-1,-1,1}{1,1,2}}{{-1,0,9},{{-1,1,0},{-1,-1,1}{1,1,2}}}1/3 1/3 1/2例1.4 (教材例1.2)求矩阵A 1/5 1 1/3的特征值和特征向量的近似值6 1 2输入A={{1/3,1/3,-1/2},{1/5,1,-1/3},{6,1,-2}};Eigensystem[A]仅供学习与交流,如有侵权请联系网站删除谢谢4则屏幕输岀的结果很复杂,原因是矩阵A的特征值中有复数且其精确解太复杂.此时,可采用近似形式输入矩阵 A,则输岀结果也采用近似形式来表达 .输入A={{1/3,1/3,-1/2},{1/5,1,-1/3},{6.0,1,-2}};Eigensystem[A]则输出{{-0.748989+1.27186i,-0.748989-1.27186i,0.831311},{{0.179905+0.192168i,0.116133+0.062477l,0.955675+0.i},{0.179905-0.192168i,0.116133-0.062477i,0.955675+0.i},{-0.0872248,-0.866789,-0.490987}}}从中可以看到A有两个复特征值与一个实特征值.属于复特征值的特征向量也是复的;属于实特征值的特征向量是实的.3 0 0例1.5 (教材例1.3)已知2是方阵A 1 t 3的特征值,求t .1 2 3输入Clear[A,q];A={{2-3,0,0},{-1,2-t,-3},{-1,-2,2-3}};q=Det[A]Solve[q==0,t]则输出{{t 8}}即当t 8时,2是方阵A的特征值.2 12例1.6 (教材例1.4)已知x (1,1, 1)是方阵A5 a 3 的一个特征向量,求参数1 b 2a,b及特征向量x所属的特征值.设所求特征值为t,输入Clear[A,B,v,a,b,t];A={{t-2,1,-2},{-5,t-a,-3},{1,-b,t+2}};v={1,1,-1};B=A.v;Solve[{B[[1]]==0,B[[2]]==0,B[[3]]==0},{a,b,t}]则输出仅供学习与交流,如有侵权请联系网站删除谢谢5{{a -3, b 0, t -1}}即a 3,b 0时,向量x (1,1, 1)是方阵A的属于特征值-1和特征向量.矩阵的相似变换4 1 1例1.7 (教材例1.5)设矩阵A 2 2 2,求一可逆矩阵P ,使P 1AP为对角矩阵.2 2 2方法1输入Clear[A,P];A={{4,1,1},{2,2,2},{2,2,2}};Eigenvalues[A]P=Eigenvectors[A]//Transpose则输出{0,2,6}{{0,-1,1},{-1,1,1},{1,1,1}}0 1 1 0 1 1即矩阵A的特征值为0,2,6特征向量为 1 , 1与1 矩阵P 1 1 11 1 1 1 1 1可验证P 1AP为对角阵,事实上,输入Inverse[P ]. A.P则输出{{0,0,0},{0,2,0},{0,0,6}}因此,矩阵A在相似变换矩阵P的作用下,可化作对角阵.方法2 直接使用JordanDecomposition命令,输入jor=JordanDecomposition[A]则输出{{{0,-1,1},{-1,1,1},{1,1,1}},{{0,0,0},{0,2,0},{0,0,6}}}可取岀第一个矩阵S和第二个矩阵,事实上,输入jor[【1]]jor[【2]]则输出{{0,-1,1},{-1,1,1},{1,1,1}}{{0,0,0},{0,2,0},{0,0,6}}输岀结果与方法1的得到的结果完全相同. 仅供学习与交流,如有侵权请联系网站删除谢谢61 0例1.8 方阵A 是否与对角阵相似?2 1输入Clear[A];A={{1,0},{2,1}};Eigensystem[A]输岀为{{1,1},{{0,1}{0,0}}}于是,1是二重特征值,但是只有向量{0,1}是特征向量,因此,矩阵A不与对角阵相似2 0 0 1 0 0 例1.9 (教材例1.6)已知方阵A 2x2与B 0 2 0相似,求x, y .3 11 0 0 y注意矩阵B是对角矩阵,特征值是1,2, y.又矩阵A是分块下三角矩阵,-2是矩阵A的特征值矩阵A与B相似,则y 2,且-1,2也是矩阵A的特征值.输入Clear[c,v];v={{4,0,0},{-2,2-x,-2},{-3,-1,1}};Solve[Det[v]==0,x]则输出{{x 0}}所以,在题设条件,x 0, y 2.输入0 1 1 01 0 1 0 1,求一个正交阵P,使P 1AP为对角阵1 1 0 00 0 0 2例1.10 对实对称矩阵AvvLinearAlgebra'OrthogonalizationClear[A,P]A={{0,1,1,0 },{1,0,1,0},{1,1,0,0},{0,0,0,2}};Eigenvalues[A]Eigenvectors[A]仅供学习与交流,如有侵权请联系网站删除谢谢7输岀的特征值与特征向量为{-1,-122}{{-1,0,1,0},{-1,1,0,0},{0,0,0,1},{1,1,1,0}} 再输入P=GramSchmidt[Eigenvectors[A]]//Transpose输岀为已经正交化和单位化的特征向量并且经转置后的矩阵P 丄。
幂法,反幂法求解矩阵最大最小特征值及其对应的特征向量
幂法,反幂法求解矩阵最大最小特征值及其对应的特征向量数值计算解矩阵的按模最大最小特征值及对应的特征向量一.幂法1. 幂法简介:当矩阵A满足一定条件时,在工程中可用幂法计算其主特征值(按模最大) 及其特征向量。
矩阵A需要满足的条件为:|,|,|,|,...,|,|,0,,为A的特征值(1) 12nix,x,...,x(2) 存在n个线性无关的特征向量,设为 12n1.1计算过程:n(0)(0)对任意向量x,有x,,u,,不全为0,则有 ,iii,1i(k,1)(k)k,1(0),,,xAx...Axnn11k,k,,,Aαuαλu,,iiiii11i,i,,,,, k,1k,1k,1n2,,,,,λu()au?()au11122nn,,,,11,,k,1,,,u111,2||可见,当越小时,收敛越快;且当k充分大时,有,111(k,)k,1(k,),,,xu,x,111(k,1),,,,x1,对应的特征向量即是。
)(k)(kkx,xu,,,111,2 算法实现,(1).输入矩阵A,初始向量x,误差限,最大迭代次数N(k)x(k),(2).k,1,,0;y,(k)max(abs(x),(3).计算x,Ay,,max(x);,,,,(4).若|,|,,输出,y,否则,转(5)(5).若 k,N, 置k,k,1,,,,,转3 ,否则输出失败信息,停机.3 matlab程序代码function [t,y]=lpowerA,x0,eps,N) % t 为所求特征值,y是对应特征向量k=1;, z=0; % z 相当于y=x0./max(abs(x0)); % 规范化初始向量x=A*y; % 迭代格式b=max(x); % b 相当于 ,if abs(z-b)<eps % 判断第一次迭代后是否满足要求t=max(x);return;endwhile abs(z-b)>eps && k<Nk=k+1;z=b;y=x./max(abs(x));x=A*y;b=max(x);end[m,index]=max(abs(x)); % 这两步保证取出来的按模最大特征值t=x(index); % 是原值,而非其绝对值。
求最大特征值和权重向量
求最大特征值和权重向量全文共四篇示例,供读者参考第一篇示例:求最大特征值和权重向量是一种在数学和计算机科学领域经常用到的方法,它们在数据分析、机器学习、人工智能等领域中起着重要的作用。
在矩阵理论中,特征值和特征向量是矩阵的两个重要概念,它们能够帮助我们揭示矩阵的内在性质和结构。
本文将介绍求最大特征值和权重向量的方法及其应用。
让我们来了解一下什么是特征值和特征向量。
在线性代数中,对于一个n阶方阵A,如果存在一个非零向量v,使得Av=λv,其中λ是一个标量,则λ被称为矩阵A的特征值,v被称为对应于特征值λ的特征向量。
特征值和特征向量的求解是一个重要的矩阵分析问题,它们能够帮助我们理解矩阵的性质和行为。
接着,让我们来讨论如何求解一个矩阵的最大特征值和对应的特征向量。
在实际应用中,我们通常使用迭代法来求解最大特征值和对应的特征向量。
最常用的方法是幂法(power method),其原理如下:1. 我们随机选择一个非零向量作为初始向量v0,并将其标准化为单位向量,即v0 = v0 / ||v0||。
2. 然后,我们按照以下迭代公式计算向量vk+1 = Avk,其中A是待求解矩阵。
3. 继续迭代上述步骤,直到收敛为止。
在每次迭代中,我们需要将向量标准化,即vk+1 = vk+1 / ||vk+1||。
4. 最终,当迭代收敛时,我们可以得到矩阵A的最大特征值和对应的特征向量。
幂法具有简单、高效的特点,广泛应用于求解矩阵的最大特征值和特征向量。
在实际应用中,我们通常会对矩阵A进行对角化处理,以提高幂法的收敛速度和稳定性。
除了求解最大特征值和特征向量外,我们还经常需要对特征值进行排序,并确定对应的特征向量。
在实际应用中,我们通常使用雅各比迭代法(Jacobi method)或QR分解法(QR decomposition)等方法来实现特征值排序和特征向量确定。
1. 数据降维:在数据分析和机器学习中,我们经常需要对数据进行降维处理,以便更好地理解和分析数据。
判断矩阵的最大特征值
则输出
(4)计算矩阵A的全部(数值解)特征向量,输入
Eigenvectors[N[A]]//MatrixForm
则输出
(5)同时计算矩阵A的全部(准确解)特征值和特征向量,输入
OutputForm[Eigensystem[A]]
则输出所求结果
(6)计算同时矩阵A的零空间,输入
A={{-1,0,2},{1,2,-1},{1,3,0}}
MatrixForm[A]
Eigenvalues[A]
则输出A的特征值
{-1,1,1}
(2)求矩阵A的特征向量.输入
A={{-1,0,2},{1,2,-1},{1,3,0}}
MatrixForm[A]
Eigenvectors[A]
则输出{{-3,1,0},{1,0,1},{0,0,0}}
特征值的特征向量是实的.
例1.5(教材例1.3)已知2是方阵 的特征值,求 .
输入
Clear[A,q];
A={{2-3,0,0},{-1,2-t,-3},{-1,-2,2-3}};
q=Det[A]
Solve[q==0,t]
则输出
{{t 8}}
即当 时,2是方阵 的特征值.
例1.6(教材例1.4)已知 是方阵 的一个特征向量,求参数 及特征向量 所属的特征值.
MatrixForm[A]
(1)计算矩阵A的全部(准确解)特征值,输入
Eigenvalues[A]
则输出
{0, , }
(2)计算矩阵A的全部(数值解)特征值,输入
Eigenvalues[N[A]]
则输出
{12.4807, -0.480741, -1.3483 }
矩阵的最大特征根公式
矩阵的最大特征根公式
矩阵的最大特征根公式是用来计算一个矩阵的最大特征值的公式。
如果一个矩阵A有n个特征值,则其最大特征值为λmax。
根据矩阵的特征值分解,矩阵A可以表示为其特征向量的线性组合,即
A=QΛQ^-1,其中Q是由特征向量组成的矩阵,Λ是由特征值组成的对角矩阵。
根据矩阵的谱半径定义,矩阵A的最大特征值λmax等于其谱半径ρ(A)。
因此,可以用矩阵的幂来逼近其谱半径,即ρ(A)=lim┬(k →∞)〖∥A^k∥^(1/k)〗。
根据幂法迭代,可以通过迭代矩阵的幂来逼近其最大特征值。
具体地,假设有一个非零向量x0,通过以下迭代可以得到A的最大特征值λmax:
1. 计算y0=Ax0。
2. 令x1=y0/∥y0∥,即将y0归一化。
3. 计算y1=Ax1。
4. 令λ1=x1^Ty1,即将y1投影到x1上得到λ1。
5. 重复步骤2至4,直到λi+1和λi的差值小于某个精度值。
根据幂法迭代的收敛性,迭代后的向量xk收敛到A的最大特征向量,λk收敛到λmax。
因此,矩阵的最大特征根公式为:λmax=lim┬(k →∞)(xk+1^TAxk)/(xk^Txk)。
该公式可以通过幂法迭代来计算矩阵的最大特征值。
- 1 -。
判断矩阵最大特征值计算公式
判断矩阵最大特征值计算公式好嘞,以下是为您生成的关于“判断矩阵最大特征值计算公式”的文章:在数学的奇妙世界里,判断矩阵最大特征值的计算公式就像是一把神奇的钥匙,能帮助我们打开很多难题的大门。
咱先来说说啥是判断矩阵。
比如说,你要比较苹果、香蕉和橙子哪个更好吃。
你心里可能会有个想法,觉得苹果比香蕉好吃一点,香蕉又比橙子好吃不少。
把这种比较用数字表示出来,形成的矩阵就是判断矩阵啦。
那这最大特征值的计算到底有啥用呢?给您举个例子吧。
有一次,我们学校组织了一场活动,要评选出最受欢迎的课外活动项目,有足球、篮球、绘画、音乐等等。
同学们根据自己的喜好进行比较打分,最后形成了一个判断矩阵。
这时候,通过计算最大特征值,就能清楚地知道哪个活动项目在大家心里是最受欢迎的。
判断矩阵最大特征值的计算公式呢,常见的有幂法和和积法。
先说幂法,这就好像是不断地对矩阵进行“加工”,让它慢慢“露出真面目”。
假设咱们有一个判断矩阵 A ,先随便选一个初始向量 x₀,然后通过不断地计算 Axₙ₋₁,再对得到的结果进行归一化处理,反复多次,最终就能找到那个最大特征值。
和积法呢,相对来说步骤会多一些,但也没那么难。
先把判断矩阵每一列进行归一化,然后对归一化后的矩阵按行求和,再对求和后的结果进行归一化,得到一个向量,这个向量就是特征向量啦,通过一些简单的运算就能得到最大特征值。
就像我之前参加一个数学竞赛培训,老师出了一道关于判断矩阵最大特征值计算的题目。
题目里是关于几种不同学习方法效率的比较,形成的矩阵看起来有点复杂。
一开始我也有点懵,但是静下心来,按照老师教的方法,一步一步地去做,先试着用幂法,发现不太顺手,又换成和积法,终于算出了正确的结果。
那一瞬间,真的感觉特有成就感,就好像自己攻克了一座数学的大山。
在实际应用中,比如在经济领域,分析不同投资方案的优劣;在工程领域,评估各种设计方案的好坏,判断矩阵最大特征值的计算都能发挥大作用。
总之,虽然判断矩阵最大特征值的计算公式看起来有点复杂,但只要咱们多练习,多琢磨,就能熟练掌握,让它成为我们解决问题的有力工具。
矩阵的特征向量及最大特征值
矩阵的特征向量及最大特征值
特征向量是线性代数中的重要概念,它在数学和科学领域中发挥着重要作用。
通过研究特征向量,我们可以更好地理解和解释矩阵的性质和行为。
特征向量可以被描述为矩阵的"指示器",它们指示了矩阵在某个方向上的拉伸或压缩程度。
换句话说,特征向量是矩阵变换后保持在同一方向上的向量。
而与特征向量相对应的是最大特征值。
最大特征值是特征向量对应的特征值中的最大值。
它告诉我们矩阵变换后,哪个方向上的拉伸或压缩程度最大。
举个简单的例子来说明特征向量和最大特征值的概念。
假设我们有一个矩阵A,它代表了一个线性变换。
通过计算矩阵A的特征向量和特征值,我们可以了解这个变换对向量空间的影响。
特征向量和最大特征值的应用非常广泛。
在数据分析和机器学习领域,它们被用于降维、聚类和模式识别等任务中。
在物理学中,特征向量和最大特征值用于描述量子力学中的态和能量。
在工程领域,它们被用于分析振动系统和电路等。
总的来说,特征向量和最大特征值是线性代数中非常重要的概念。
它们帮助我们理解矩阵的变换和性质,并在各个领域中发挥着重要作用。
通过研究特征向量和最大特征值,我们可以更好地理解和解
释现实世界中的各种现象和问题。
无论是在科学研究还是工程实践中,对特征向量和最大特征值的理解都是必不可少的。
计算成对比较矩阵最大特征根及特征向量
计算成对比较矩阵最大特征根及特征向量比较矩阵是一种用于判断两个对象之间优劣关系的工具,通常用于决策分析和判断问题的关键因素。
在使用比较矩阵时,需要将优劣关系量化为数值,并将这些数值组成成对比较矩阵。
然后,通过计算最大特征根和特征向量,可以得出比较矩阵的权重分配,从而实现决策或问题解决。
计算比较矩阵最大特征根和特征向量的方法有多种,最常用的是特征值法和特征向量法。
特征值法是通过求解矩阵的特征值来计算最大特征根,然后通过特征值计算特征向量。
而特征向量法则是通过求解矩阵的特征向量来计算最大特征根和特征向量。
在进行计算时,需要先将成对比较矩阵标准化,使得每一行的元素之和为1。
然后,通过特征值法或特征向量法计算最大特征根和特征向量。
最后,通过特征向量的值来计算比较矩阵的权重分配,以实现决策或问题解决。
计算成对比较矩阵最大特征根及特征向量是决策分析和问题解决的重要工具,能够帮助人们更科学、客观地进行决策和判断。
- 1 -。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
项目六 矩阵的特征值与特征向量实验1 求矩阵的特征值与特征向量实验目的学习利用Mathematica(4.0以上版本)命令求方阵的特征值和特征向量;能利用软件计算方 阵的特征值和特征向量及求二次型的标准形.求方阵的特征值与特征向量.例1.1 (教材 例1.1) 求矩阵.031121201⎪⎪⎪⎭⎫ ⎝⎛--=A 的特征值与特值向量.(1) 求矩阵A 的特征值. 输入 A={{-1,0,2},{1,2,-1},{1,3,0}}MatrixForm[A] Eigenvalues[A]则输出A 的特征值{-1,1,1}(2) 求矩阵A 的特征向量. 输入A={{-1,0,2},{1,2,-1},{1,3,0}} MatrixForm[A] Eigenvectors[A]则输出 {{-3,1,0},{1,0,1},{0,0,0}}即A 的特征向量为.101,013⎪⎪⎪⎭⎫⎝⎛⎪⎪⎪⎭⎫ ⎝⎛-(3) 利用命令Eigensystem 同时矩阵A 的所有特征值与特征向量. 输入A={{-1,0,2},{1,2,-1},{1,3,0}} MatrixForm[A] Eigensystem[A]则输出矩阵A 的特征值及其对应的特征向量.例1.2 求矩阵⎪⎪⎪⎭⎫ ⎝⎛=654543432A 的特征值与特征向量.输入A=Table[i+j,{i,3},{j,3}] MatrixForm[A](1) 计算矩阵A 的全部(准确解)特征值, 输入Eigenvalues[A]则输出{0, 426-,426+}(2) 计算矩阵A 的全部(数值解)特征值, 输入Eigenvalues[N[A]]则输出{12.4807, -0.480741, -1.34831610-⨯}(3) 计算矩阵A 的全部(准确解)特征向量, 输入Eigenvectors[A]//MatrixForm则输出(4) 计算矩阵A 的全部(数值解)特征向量, 输入Eigenvectors[N[A]]//MatrixForm则输出(5) 同时计算矩阵A 的全部(准确解)特征值和特征向量, 输入 OutputForm[Eigensystem[A]] 则输出所求结果(6) 计算同时矩阵A 的零空间, 输入NullSpace[A]则输出{{1,-2,1}}(7) 调入程序包<<LinearAlgebra`Orthogonalization`后,还可以做以下的运算:GramSchmidt[ ]:用Gram-Schmidt 过程将向量组单位正交化; Normalize[ ]:将向量组单位化;Projection[vect1,vect2]:求从向量组vect1到vect2的正交映射.输入<<LinearAlgebra ’Orthogonalization ’GramSchmidt[Eigenvectors[N[A]]]//MatrixForm则输出例1.3 求方阵⎪⎪⎪⎭⎫ ⎝⎛=633312321M 的特征值和特征向量.输入Clear[M];M={{1,2,3,},{2,1,3}{3,3,6}}; Eigenvalues[M] Eigenvectors[M] Eigensystem[M]则分别输出{-1,0,9}{{-1,1,0},{-1,-1,1}{1,1,2}}{{-1,0,9},{{-1,1,0},{-1,-1,1}{1,1,2}}}例1.4 (教材 例1.2) 求矩阵⎪⎪⎪⎭⎫ ⎝⎛---=2163/115/12/13/13/1A 的特征值和特征向量的近似值.输入A={{1/3,1/3,-1/2},{1/5,1,-1/3},{6,1,-2}}; Eigensystem[A]则屏幕输出的结果很复杂,原因是矩阵A 的特征值中有复数且其精确解太复杂.此时,可采用 近似形式输入矩阵A ,则输出结果也采用近似形式来表达.输入A={{1/3,1/3,-1/2},{1/5,1,-1/3},{6.0,1,-2}}; Eigensystem[A]则输出{{-0.748989+1.27186i,-0.748989-1.27186i,0.831311}, {{0.179905+0.192168i,0.116133+0.062477I,0.955675+0.i}, {0.179905-0.192168i,0.116133-0.062477i,0.955675+0.i}, {-0.0872248,-0.866789,-0.490987}}}从中可以看到A 有两个复特征值与一个实特征值.属于复特征值的特征向量也是复的;属于实 特征值的特征向量是实的.例1.5 (教材 例1.3) 已知2是方阵⎪⎪⎪⎭⎫⎝⎛=32131003t A 的特征值,求t .输入Clear[A,q];A={{2-3,0,0},{-1,2-t,-3},{-1,-2,2-3}}; q=Det[A] Solve[q==0,t]则输出{{t →8}}即当8=t 时,2是方阵A 的特征值.例1.6 (教材 例1.4) 已知)1,1,1(-=x 是方阵⎪⎪⎪⎭⎫ ⎝⎛---=2135212b a A 的一个特征向量,求参数b a ,及特征向量x 所属的特征值. 设所求特征值为t ,输入Clear[A,B,v,a,b,t];A={{t-2,1,-2},{-5,t-a,-3},{1,-b,t+2}}; v={1,1,-1}; B=A.v;Solve[{B[[1]]==0,B[[2]]==0,B[[3]]==0},{a,b,t}]则输出{{a →-3, b →0, t →-1}}即0,3=-=b a 时,向量)1,1,1(-=x 是方阵A 的属于特征值-1和特征向量.矩阵的相似变换例1.7 (教材 例1.5) 设矩阵⎪⎪⎪⎭⎫⎝⎛=222222114A ,求一可逆矩阵P ,使AP P 1-为对角矩阵.方法1 输入Clear[A,P];A={{4,1,1},{2,2,2},{2,2,2}}; Eigenvalues[A]P=Eigenvectors[A]//Transpose则输出{0,2,6}{{0,-1,1},{-1,1,1},{1,1,1}}即矩阵A 的特征值为0,2,6.特征向量为⎪⎪⎪⎭⎫ ⎝⎛-110,⎪⎪⎪⎭⎫ ⎝⎛-111与⎪⎪⎪⎭⎫ ⎝⎛111,矩阵⎪⎪⎪⎭⎫ ⎝⎛--=111111110P .可验证AP P 1-为对角阵, 事实上,输入 Inverse[P].A.P则输出{{0,0,0},{0,2,0},{0,0,6}}因此,矩阵A 在相似变换矩阵P 的作用下,可化作对角阵.方法2 直接使用JordanDecomposition 命令, 输入jor=JordanDecomposition[A]则输出{{{0,-1,1},{-1,1,1},{1,1,1}},{{0,0,0},{0,2,0},{0,0,6}}}可取出第一个矩阵S 和第二个矩阵Λ,事实上,输入jor[[1]] jor[[2]]则输出{{0,-1,1},{-1,1,1},{1,1,1}} {{0,0,0},{0,2,0},{0,0,6}}输出结果与方法1的得到的结果完全相同.例1.8 方阵⎪⎪⎭⎫⎝⎛=1201A 是否与对角阵相似?输入Clear[A]; A={{1,0},{2,1}}; Eigensystem[A]输出为{{1,1},{{0,1}{0,0}}}于是,1是二重特征值,但是只有向量{0,1}是特征向量,因此,矩阵A 不与对角阵相似.例1.9 (教材 例1.6) 已知方阵⎪⎪⎪⎭⎫ ⎝⎛-=11322002x A 与⎪⎪⎪⎭⎫⎝⎛-=y B 00020001相似, 求y x ,.注意矩阵B 是对角矩阵,特征值是y ,2,1-.又矩阵A 是分块下三角矩阵,-2是矩阵A 的特 征值.矩阵A 与B 相似,则2-=y ,且-1,2也是矩阵A 的特征值.输入Clear[c,v];v={{4,0,0},{-2,2-x,-2},{-3,-1,1}}; Solve[Det[v]==0,x]则输出{{x →0}}所以,在题设条件,0=x ,2-=y . 例1.10 对实对称矩阵⎪⎪⎪⎪⎪⎭⎫⎝⎛=2000001101010110A ,求一个正交阵P ,使AP P 1-为对角阵. 输入<<LinearAlgebra\Orthogonalization Clear[A,P]A={{0,1,1,0 },{1,0,1,0},{1,1,0,0},{0,0,0,2}}; Eigenvalues[A] Eigenvectors[A]输出的特征值与特征向量为{-1,-1,2,2}{{-1,0,1,0},{-1,1,0,0},{0,0,0,1},{1,1,1,0}}再输入P=GramSchmidt[Eigenvectors[A]]//Transpose输出为已经正交化和单位化的特征向量并且经转置后的矩阵P为了验证P 是正交阵,以及AP P AP p T=-1是对角阵,输入Transpose[P].PInverse[P].A.P//Simplify Transpose[P].A.P//simplify则输出{{1,0,0,0},{0,1,0,0},{0,0,1,0},{0,0,0,1}} {{-1,0,0,0},{0,-1,0,0},{0,0,2,0},{0,0,0,2}} {{-1,0,0,0},{0,-1,0,0},{0,0,2,0},{0,0,0,2}}第一个结果说明E P P T =,因此P 是正交阵;第二个与第三个结果说明例1.11 求一个正交变换,化二次型243231212222x x x x x x x f +++=为标准型.二次型的矩阵为这恰好是例1.10的矩阵, 因此,用例1.10中的正交矩阵P ,作正交变换PY X =,即将f 化作标准型.输入f=Table[x[j],{j,4}].A.Table[x[j],{j,4}]//Simplify则输出2(x[2]x[3]+x[1](x[2]+x[3])+x[4]2)这是原来的二次型f .把上式中的x[1],x[2],x[3],x[4]用y[1],y[2],y[3],y[4]表示,输入代换命令f/.Table[x[j]→(P.Table[y[j],{j,4}])[[j]],{j,4}]// Simplify则输出-y[1]2-y[2]2+2(y[3]2+y[4]2)这就是二次型f 的标准型.例1.12 (教材 例1.7) 已知二次型(1)求标准形; (2)求正惯性指数; (3)判断二次型是否正定. 输入A={{1,1,-2},{1,-2,1},{-2,1,1}}Eigenvalues[A]则输出矩阵A 的特征值为{-3,0,3}所以二次型的标准形为222133y y f +=;正惯性指数为1;该二次型不是正定的. 例1.13 (教材 例1.8) 求正交变换将二次型 化为标准形.输入A={{1,1,0,-1},{1,1,1,0},{0,1,1,-1},{-1,0,-1,1}} MatrixForm[A] X={x1,x2,x3,x4}; Expand[<<LinearAlgebra\Orthogonalization.m P=GramSchmidt[Eigenvectors[A]]则输出所求的正交变换矩阵P 与二次型矩阵A 标准形. 从结果知, 所求二次型的标准型为实验2 层次分析法实验目的通过应用层次分析法解决一个实际问题,学习层次分析法的基本原理与方法;掌握用层次 分析法建立数学模型的基本步骤;学会用Mathematica 解决层次分析法中的数学问题.基本原理层次分析法是系统分析的重要工具之一,其基本思想是把问题层次化、数量化, 并用数学 方法为分析、决策、预报或控制提供定量依据. 它特别适用于难以完全量化, 又相互关联、相互制约的众多因素构成的复杂问题. 它把人的思维过程层次化、数量化,是系统分析的一中 新型的数学方法.运用层次分析法建立数学模型, 一般可按如下四个基本步骤进行. 1.建立层次结构首先对所面临的问题要掌握足够的信息, 搞清楚问题的范围、因素、各因素之间的相互 关系,及所要解决问题的目标. 把问题条理化、层次化, 构造出一个有层次的结构模型. 在这 个模型下,复杂问题被分解为元素的组成部分. 这些元素又按其属性及关系形成若干层次.层 次结构一般分三层:第一层为最高层, 它是分析问题的预定目标和结果, 也称目标层;第二层为中间层, 它是为了实现目标所涉及的中间环节, 如: 准则、子准则, 也称准则 层;第三层为最底层, 它包括了为实现目标可供选择的各种措施、决策方案等, 也称方案层. 注:上述层次结构具有以下特点:(1) 从上到下顺序地存在支配关系, 并用直线段表示;(2) 整个层次结构中层次数不受限制.2.构造判断矩阵构造判断矩阵是建立层次分析模型的关键. 假定以上一层的某元素y 为准则,它所支配 的下一层次的元素为n x x x ,,,21Λ,这n 个元素对上一层次的元素y 有影响,要确定它们在y 中的比重. 采用成对比较法. 即每次取两个元素i x 和j x , 用ij a 表示i x 与j x 对y 的影响之比, 全部比较的结果可用矩阵A 表示,即 称矩阵A 为判断矩阵.根据上述定义,易见判断矩阵的元素ij a 满足下列性质: 当0>ij a 时,我们称判断矩阵A 为正互反矩阵.怎样确定判断矩阵A 的元素ij a 的取值呢? 当某层的元素n x x x ,,,21Λ对于上一层某元素y 的影响可直接定量表示时, i x 与j x 对y的影响之比可以直接确定, ij a 的值也可直接确定. 但对于大多数社会经济问题, 特别是比较 复杂的问题, 元素i x 与j x 对y 的重要性不容易直接获得, 需要通过适当的量化方法来解决. 通常取数字1~9及其倒数作为ij a 的取值范围. 这是因为在进行定性的成对比较时, 通常采用 5级制(表1),在每两个等级之间各有一个中间状态, 共1~9个尺度, 另外心理学家认为进行成 对比较的因素太多, 将超出人们的判断比较能力, 降低精确. 实践证明, 成对比较的尺度以 27±为宜, 故ij a 的取值范围是9,,2,1Λ及其倒数.表1 比较尺度ij a 的取值3.计算层次单排序权重并做一致性检验层次单排序是指同一层次各个元素对于上一层次中的某个元素的相对重要性进行排序. 具体做法是: 根据同一层n 个元素n x x x ,,,21Λ对上一层某元素y 的判断矩阵A ,求出它们对 于元素y 的相对排序权重,记为n w w w ,,,21Λ,写成向量形式T n w w w w ),,,(21Λ=, 称其为A 的层次单排序权重向量, 其中i w 表示第i 个元素对上一层中某元素y 所占的比重, 从而得到层次单排序.层次单排序权重向量有几种求解方法,常用的方法是利用判断矩阵A 的特征值与特征向 量来计算排序权重向量w .关于正互反矩阵A ,我们不加证明地给出下列结果. (1) 如果一个正互反矩阵n n ij a A ⨯=)(满足则称矩阵A 具有一致性, 称元素k j i x x x ,,的成对比较是一致的; 并且称A 为一致矩阵.(2) n 阶正互反矩阵A 的最大特征根n ≥max λ, 当n =λ时, A 是一致的. (3) n 阶正互反矩阵是一致矩阵的充分必要条件是最大特征值 n =max λ. 计算排序权重向量的方法和步骤设T n w ),,,(21ωωωΛ=是n 阶判断矩阵的排序权重向量, 当A 为一致矩阵时, 根据n 阶判断矩阵构成的定义,有⎪⎪⎪⎪⎪⎪⎪⎪⎭⎫⎝⎛=n n n n n n A ωωωωωωωωωωωωωωωωωωΛM MM ΛΛ212221212111 (2.1) 因而满足,nw Aw = 这里n 是矩阵A 的最大特征根, w 是相应的特征向量; 当A 为一般的 判断矩阵时w Aw max λ=, 其中max λ是A 的最大特征值(也称主特征根), w 是相应的特征向量(也称主特征向量). 经归一化(即11=∑=ni iω)后, 可近似作为排序权重向量, 这种方法称为特征根法.一致性检验 在构造判断矩阵时, 我们并没有要求判断矩阵具有一致性, 这是由客观事物的复杂性 与人的认识的多样性所决定的. 特别是在规模大、因素多的情况下, 对于判断矩阵的每个元 素来说,不可能求出精确的j i ωω/, 但要求判断矩阵大体上应该是一致的. 一个经不起推敲 的判断矩阵有可能导致决策的失误. 利用上述方法计算排序权重向量, 当判断矩阵过于偏离 一致性时, 其可靠性也有问题. 因此,需要对判断矩阵的一致性进行检验, 检验可按如下步骤 进行: (1) 计算一致性指标CI1max --=n nCI λ (2.2)当,0=CI 即n =max λ时, 判断矩阵A 是一致的. 当CI 的值越大, 判断矩阵A 的不一致的程 度就越严重. (2) 查找相应的平均随机一致性指标RI 表2给出了n )11~1(阶正互反矩阵的平均随机一致性指标RI , 其中数据采用了 100~150个随机样本矩阵A 计算得到.RICICR =(2.3) 当10.0<CR 时, 认为判断矩阵的一致性是可以接受的; 否则应对判断矩阵作适当修正.4. 计算层次总排序权重并做一致性检验 计算出某层元素对其上一层中某元素的排序权重向量后, 还需要得到各层元素, 特别 是最底层中各方案对于目标层的排序权重, 即层次总排序权重向量, 再进行方案选择. 层次 总排序权重通过自上而下地将层次单排序的权重进行合成而得到. 考虑3个层次的决策问题: 第一层只有1个元素, 第二层有n 个元素, 第三层有m 个元 素.设第二层对第一层的层次单排序的权重向量为 第三层对第二层的层次单排序的权重向量为以)3(k w 为列向量构成矩阵:n m nm m mn n n w w w w w w w w w w w w W ⨯⎪⎪⎪⎪⎪⎭⎫⎝⎛==)3()3(2)3(1)3(2)3(22)3(12)3(1)3(21)3(11)3()3(2)3(1)3(,,,,,,,,,,,),,,(ΛM M M ΛΛΛ (2.4) 则第三层对第一层的层次总排序权重向量为)2()3()3(w W w = (2.5) 一般地, 若层次模型共有s 层, 则第k 层对第一层的总排序权重向量为s k w W w k k k ,,4,3,)1()()(Λ==-(2.6)其中)(k W 是以第k 层对第1-k 层的排序权向量为列向量组成的矩阵,)1(-k w 是第1-k 层对第 一层的总排序权重向量. 按照上述递推公式, 可得到最下层(第s 层)对第一层的总排序权重 向量为)2()3()1()()(w W W W w s s s Λ-=(2.7) 对层次总排序权重向量也要进行一致性检验. 具体方法是从最高层到最低层逐层进行 检验. 如果所考虑的层次分析模型共有s 层. 设第l (s l ≤≤3)层的一致性指标与随机一致性指标分别为)()(2)(1,,,l n l l CI CI CI Λ(n 是第1-l 层元素的数目)与)()(2)(1,,,l nl l RI RI RI Λ, 令)1()(1)(1)(],,[-=l l l l w CI CI CI Λ(2.8) )1()(1)(1)(],,[-=l l l l w RI RI RI Λ(2.9)则第l 层对第一层的总排序权向量的一致性比率为s l RI CI CR CR l l l l ,,4,3,)()()1()(Λ=+=- (2.10)其中)2(CR 为由(2.3)式计算的第二层对第一层的排序权重向量的一致性比率.当最下层对第一层的总排序权重向量的一致性比率1.0)(<s CR 时, 就认为整个层次结构 的比较判断可通过一致性检验.应用举例问题 在选购电脑时, 人们希望花最少的钱买到最理想的电脑. 试通过层次分析法建立 数学模型,并以此确定欲选购的电脑.1. 建立选购电脑的层次结构模型图2-2该层次结构模型共有三层:目标层(用符号z 表示最终的选择目标); 准则层(分别用符号521,,,y y y Λ表示“性能”、“价格”、“质量”、“外观”、“售后服务”五个判断准则); 方案层(分别用符号321,,x x x 表示品牌1, 品牌2, 品牌3三种选择方案).2.构造成对比较判断矩阵(1) 建立准则层对目标层的成对比较判断矩阵根据表1的定量化尺度, 从建模者的个人观点出发, 设准则层对目标层的成对比较判断矩阵为⎥⎥⎥⎥⎥⎥⎦⎤⎢⎢⎢⎢⎢⎢⎣⎡=13123/13/113/12/19/113123/12/122/115/139351A(2.11) (2) 建立方案层对准则层的成对比较判断矩阵3.计算层次单排序权重向量并做一致性检验先利用Mathematica 计算矩阵A 的最大特征值及特征值所对应的特征向量. 输入<<Miscellaneous\RealOnly.m(*调用只求实数运算的软件包*)A={{1.0,5,3,9,3},{1/5,1,1/2,2,1/2},{1/3,2,1,3,1},{1/9,1/2,1/3,1,1/3},{1/3,2,1,3,1}};(*以小数形式1.0输入进行近似计算, 可避免精确解太长、太复杂*) T=Eigensystem[A]//Chop(*输入//Chop, 把与零非常接近的数换成零*)则输出{{5.00974,Nonreal,Nonreal,0,0},{{0.88126,0.167913,0.304926,0.0960557,0.304926}, {0.742882,Nonreal,Nonreal,Nonreal,Nonreal}, {0.742882,Nonreal,Nonreal,Nonreal,Nonreal}, {-0.993398,0,0.0673976,0.0662265,0.0650555}, {-0.65676,0,0.57431,0.043784,-0.486742}}} (输出中的Nonreal 表示复数)从中得到A 的最大特征值,00974.5max =λ及其对应的特征向量输入Clear[x]; x=T[[2,1]];ww2=x/Apply[Plus,x]则得到归一化后的特征向量计算一致性指标1max --=n nCI λ,其中,00974.5,5max ==λn 故查表得到相应的随机一致性指标 从而得到一致性比率因,1.0)2(<CR 通过了一致性检验,即认为A 的一致性程度在容许的范围之内, 可以用归一化后的特征向量)2(w 作为排序权重向量. 下面再求矩阵)5,,2,1(Λ=j B j 的最大特征值及特征值所对应的特征向量, 输入B1=B3={{1.0,1/3,1/5},{3,1,1/2},{5,2,1}};B2=Transpose[B1];B4={{1.0,5,3},{1/5,1,1/2},{1/3,2,1}}; B5={{1.0,3,3},{1/3,1,1},{1/3,1,1}}; T1=Eigensystem[B1]//Chop T2=Eigensystem[B2]//Chop T3=Eigensystem[B3]//Chop T4=Eigensystem[B4]//Chop T5=Eigensystem[B5]//Chop则输出 {{3.00369,Nonreal, Nonreal}, {{0.163954,0.46286,0.871137},{ Nonreal, Nonreal,0.871137}, { Nonreal, Nonreal, 0.871137}}}; {{3.00369,Nonreal, Nonreal}, {{0.928119,0.328758,0.174679}, {0.928119, Nonreal, Nonreal}, {0.928119, Nonreal, Nonreal}}} {{3.00369, Nonreal, Nonreal}, {{0.163954,0.46286,0.871137}, { Nonreal, Nonreal,0.871137}, { Nonreal, Nonreal,0.871137}}} {{3.00369, Nonreal, Nonreal}, {{0.928119,0.174679,0.328758}, {0.928119, Nonreal, Nonreal}, {0.928119, Nonreal, Nonreal}}} {{3,0,0},{{0.904534,0.301511,0.301511}, {-0.973329,0.162221,0.162221}, {-0.170182,-0.667851,0.724578}}从上面的输出可以分别得到)5,,2,1(Λ=j B j 的最大特征值 以及上述特征值所对应的特征向量其中.5,,2,1),,,(321Λ==i x x x x i i i i 为求出归一化后的特征向量, 输入Clear[x1,x2,x3,x4,x5]; x1=T1[[2,1]]; w1=x1/Apply[Plus,x1] x2=T2[[2,1]]; w2=x2/Apply[Plus,x2] x3=T3[[2,1]]; w3=x3/Apply[Plus,x3] x4=T4[[2,1]]; w4=x4/Apply[Plus,x4] x5=T5[[2,1]]; w5=x5/Apply[Plus,x5]则输出计算一致性指标)5,,2,1(1Λ=--=i n nCI i i λ,其中,3=n 输入lamda={T1[[1,1]],T2[[1,1]],T3[[1,1]],T4[[1,1]],T5[[1,1]]} CI=(lamda-3)/(3-1)//Chop则输出查表得到相应的随机一致性指标计算一致性比率5,,2,1,Λ==i RI CI CR iii ,输入CR=CI/0.58则输出因),5,,2,1(,1.0Λ=<i CR i 通过了一致性检验. 即认为)5,,2,1(Λ=j B j 的一致性程度在容许 的范围之内, 可以用归一化后的特征向量作为其排序权重向量.4. 计算层次总排序权重向量并做一致性检验 购买个人电脑问题的第三层对第二层的排序权重计算结果列于表3.表3以矩阵表示第三层对第二层的排序权重计算结果为)3(W 即是第三层对第二层的权重向量为列向量组成的矩阵. 最下层(第三层)对最上层(第一层)的总排序权向量为 为了计算上式, 输入W3=Transpose[{w1,w2,w3,w4,w5}]; ww3=W3.ww2则从输出结果得到 为了对总排序权向量进行一致性检验, 计算 输入CI.ww2 则从输出结果得到再计算)2(51)3(],,[w RI RI RI Λ=,输入RI=Table[0.58,{j,5}]; RI.ww2则从输出结果得到最后计算 )3()3()2()3(./...I R I C R C R C +=,可得因为,1.0.)3(<R C 所以总排序权重向量符合一致性要求的范围.根据总排序权重向量的分量取值, 品牌3的电脑是建模者对这三种品牌机的首选. 实验报告1.根据你的设想购置一台计算机, 需考虑什么样的判断准则? 利用层次分析法及数学 软件做出最佳的决策.2.根据你的经历设想如何报考大学, 需要什么样的判断准则? 利用层次分析法及数学 软件做出最佳的决策.3.假期到了, 某学生打算做一次旅游, 有四个地点可供选择, 假定他要考虑5个因素: 费用、景色、居住条件、饮食以及旅游条件. 由于该学生没有固定收入, 他对费用最为看重, 其次是旅游点的景色, 至于旅游条件、饮食, 差不多就行, 住什么地方就更无所谓了. 这四个旅游点没有一个具有明显的优势, 而是各有优劣. 该同学拿不定主意, 请用层次分析法帮助他找出最佳旅游点.4. 假设你马上就要从大学毕业, 正面临择业的问题, 你对工作的选择着重考虑下面几个因素: (1)单位的声誉; (2)收入; (3)专业是否对口; (4)是否有机会深造或晋升; (5)工作地点; (6)休闲时间. 对上述各种因素你可以根据自己的具体情况排序,也可以增加或减少所考虑的因素. 现在有四个单位打算你, 但如果用上述标准来衡量,没有一个单位具有明显的优势,请用层次分析法为你自己做一个合理的选择.。