1樓:左丘義焉溪
-1對應的特徵向量(1,-1;-4λ-5)=0解得λ=5,第2行加上第3行×3/,
a-5e=-42
22-42
22-4第1行加上第2行×2,0)^t和(0,-1當λ=5時,-1,-1)^t
所以矩陣的特徵值為5,1,第1行除以2~11100
0000
得到特徵向量(1,(1,1,-1,1)^t,1;2,第3行減去第2行~0
-662-4
206-6
第1行加上第3行,交換次序~1
0-101
-1000
得到特徵向量(1,-1,1)^t
當λ=-1時,1,第3行除以6~0
0020
-201-1
第2行除以2,
a+e=22
2222
222第2行減去第1行,0)^t和(0,第3行減去第1行設矩陣a的特徵值為λ
則|a-λe|=
1-λ222
1-λ222
1-λ第1行減去第2行
=-1-λ
1+λ0
21-λ22
21-λ
第2列加上第1列
=-1-λ00
23-λ22
41-λ
按第1行
=(-1-λ)(λ²
層次分析法中,求出矩陣最大特徵值對應的特徵向量,再分別平方就是權向量麼
2樓:玖瞳
這有個我們以前的matlab冪法求特徵值和特徵響量的程式:[maxnorm.m]function t=maxnorm(a)%求數列中按模最大的分量n=length(a);t=0;for i=1:
n if abs(a(i)/max(abs(a)))>=1 t=a(i); endendfunction [mt,my]=maxtr(a,eps)%用冪法求矩陣的主特徵值和對應的特徵向量n=length(a);x0=diag(ones(n));k=1x=a*x0while norm(x-x0)>eps k=k+1 q=x; y=x/maxnorm(x) x=a*y; x0=q;endmt=maxnorm(x)my=y[main1.m]a=[3 2;4 5]maxtr(a,0.0001)[invmaxtr.
m]function [mx,mt,my]=invmaxtr(a,eps)%求矩陣按模最小的特徵值和對應的特徵向量n=length(a);x0=diag(ones(n));x=inv(a)*x0;k=0while norm(x-x0)>eps k=k+1 q=x; y=x/maxnorm(x) x=inv(a)*y; x0=q;endmt=1/maxnorm(x)my=y[main.m]a=[3 2;4 5]invmaxtr(a
數模作業 計算矩陣的最大特徵值和對應的歸一化特徵向量 急急急~ 用matlab算 要程式設計過程要答案
3樓:匿名使用者
先給你說個土的,就是matlab的內建演算法,可以算所有特徵值和特徵向量(沒什麼技術含量的,也沒有什麼思想,只是工程學上的純應用罷了)。
a=[1 2 1/4 4 1/2;1/2 1 1/5 3 1/3;4 5 1 7 3;1/4 1/3 1/7 1 1/5; 2 3 1/3 5 1];
[v,d]=eigs(a)
結果:v =
0.2532 -0.1274 - 0.
1409i -0.1274 + 0.1409i -0.
0586 + 0.3893i -0.0586 - 0.
3893i
0.1608 -0.1373 + 0.
0246i -0.1373 - 0.0246i 0.
2097 - 0.1984i 0.2097 + 0.
1984i
0.8616 0.9116 0.9116 0.7441 0.7441
0.0774 0.0024 + 0.
0881i 0.0024 - 0.0881i -0.
0832 + 0.0314i -0.0832 - 0.
0314i
0.4020 0.0918 - 0.
3118i 0.0918 + 0.3118i -0.
3444 - 0.2854i -0.3444 + 0.
2854i
d =5.1374 0 0 0 0
0 0.0088 - 0.8328i 0 0 0
0 0 0.0088 + 0.8328i 0 0
0 0 0 -0.0775 - 0.0956i 0
0 0 0 0 -0.0775 + 0.0956i
所以最大特徵值是5.1374,對應特徵向量為[0.2532 0.1608 0.8616 0.0774 0.4020]『。
再給你提供一種很專業的數值演算法「冪法」,這是專門用來算矩陣最大特徵值的經典演算法。我大學裡《數值分析》課程教授專門花了半節課講解過這個演算法和它的原理,「冪法」一出手,絕對是專業級的解答!「冪法「的演算法過程其實很簡單,就是拿一個向量,不停地用a乘,最後就會慢慢趨近於最大特徵值對應的特徵向量。
「冪法」在矩陣擁有唯一最大特徵值的前提下,迭代足夠多次,就一定能收斂的,可以用線性代數的矩陣相似性原理證明。
我這段**迭代了100次,取了隨便一個向量[1 0 0 0 0]'作為初始值(一般是取個隨機向量,其實沒啥大差別)。「冪法」在矩陣階數很高的情況下,比內建演算法要快得多(一個5維矩陣是看不出速度上差別的)!
a=[1 2 1/4 4 1/2;1/2 1 1/5 3 1/3;4 5 1 7 3;1/4 1/3 1/7 1 1/5; 2 3 1/3 5 1];
v=[1 0 0 0 0]';
for i = 1:100
v=a*v;
v=v/sqrt(sum(v.^2));
endlamda=sqrt(sum((a*v).^2))/sqrt(sum(v.^2))
v結果:
lamda =
5.1374
v =0.2532
0.1608
0.8616
0.0774
0.4020
最大特徵值5.1374,對應特徵向量[0.2532 0.1608 0.8616 0.0774 0.4020]『。
可以看到,迭代了100次後,"冪法"和直接演算法得出了完全一樣的結果!用「冪法」,顯得演算法思想非常的清晰,不像用內建的eigs函式,你也不知道matlab怎麼算出來的,是不?
4樓:匿名使用者
a=[1 2 1/4 4 1/2
1/2 1 1/5 3 1/3
4 5 1 7 3
1/4 1/3 1/7 1 1/5
2 3 1/3 5 1];
[v,d]=eigs(a)
v =0.2532 -0.1274 - 0.
1409i -0.1274 + 0.1409i -0.
0586 + 0.3893i -0.0586 - 0.
3893i
0.1608 -0.1373 + 0.
0246i -0.1373 - 0.0246i 0.
2097 - 0.1984i 0.2097 + 0.
1984i
0.8616 0.9116 0.9116 0.7441 0.7441
0.0774 0.0024 + 0.
0881i 0.0024 - 0.0881i -0.
0832 + 0.0314i -0.0832 - 0.
0314i
0.4020 0.0918 - 0.
3118i 0.0918 + 0.3118i -0.
3444 - 0.2854i -0.3444 + 0.
2854i
d =5.1374 0 0 0 0
0 0.0088 - 0.8328i 0 0 0
0 0 0.0088 + 0.8328i 0 0
0 0 0 -0.0775 - 0.0956i 0
0 0 0 0 -0.0775 + 0.0956i
v的第一列是歸一化向量
d的第一個值就是對應最大的特徵值
5樓:幫你學習高中數學
這個。。。。,你隨便挑一個向量,設為x1,那麼進行迭代,x(n+1)=axn,只要不知有中彩票的運氣,迭代個幾千次,就能發現x(n+1)約等於kaxn,這裡k就是最大特徵值,而xn就是特徵向量。
用乘冪法怎麼求矩陣的次大特徵值和對應的特徵向量,具體做法提供一下,謝謝
6樓:電燈劍客
假定a的特徵值按模排序成|λ|>|μ|>...
先用乘冪法求出ax=λx,y^ta=λy^t,並且對x或者y縮放使之滿足y^tx=1
然後對a-λxy^t用乘冪法就可以求出μ及其特徵向量
求矩陣的特徵值和特徵向量,知道特徵值和特徵向量怎麼求矩陣
一個人郭芮 當然就是按照第三列 第三列只有一個2 非零 提取出來,去掉所在的第三行,第三列 得到一個二階行列式 與其相乘 再計算得到後面的即可 知道特徵值和特徵向量怎麼求矩陣 例 已知矩陣a,有特徵值 1及其對應一個特徵向量 1,特徵值 2及其對應一個特徵向量 2,求矩陣a。a 1 1 1,a 2 ...
什麼是矩陣最大特徵值,如何求這個矩陣的最大特徵值
方法1 公式法方法2 常數變異法解 先算出dy dx 2y x 1的通解為y c x 1 2再設通解為y c x x 1 2微分之得到dy dx dc x dx x 1 2 c x 2 x 1 帶入得到 dc x dx x 1 1 2 積分之得到c x 2 3 x 1 3 2 c故通解為y c x ...
如何求稀疏矩陣的全部特徵值和特徵向量
eigs函式的官方說明find largest eigenvalues and eigenvectors of sparse matrix就是說只能找出稀疏矩陣最大的幾個特徵值和特徵向量你可以使用迴圈語句呼叫 v,d eigs a,k 不知道可以不,我也沒有處理過這樣的工程資料 呵呵 可以看看是否有...