特徵向量演算法
⑴ 怎麼計算矩陣的特徵值和特徵向量
題:矩陣a=
0
0
0
10
0
1
00
1
0
01
0
0
0
求矩陣a的特徵值與特徵向量。
解:
特徵矩陣te-a=
t
0
0
-1
0
t
-1
0
0
-1
t
0
-1
0
0
t
|te-a|=(tt-1)^2
註:這個可以用第一列進行代數餘子式展開,看容易看出解來。也可以用第二三行用二階子式及其餘子式的乘積來計算,也很方便。
於是其特徵值有四個,分別是
1,1,-1,-1
特徵矩陣te-a的四個解向量,就是相應的特徵向量。略。
⑵ matlab中求特徵值和特徵向量的具體演算法是什麼啊
eig(A)主要用QR演算法,如果A對稱則使用對稱QR演算法(如果要特徵向量的話有可能會用divide and conquer);
eig(A,B)用QZ演算法,如果探測到A對稱,B對稱正定,則對B做Cholesky分解後再用對稱QR演算法;
svd的演算法和對稱QR演算法類似。
這些不是幾句話就能明白的,要學習一下矩陣計算(數值線性代數)的課程才能知道幾十年前最簡單的演算法,軟體中的演算法在此基礎上還增加了很多新技術,但基本方法是差不多的。
⑶ 特徵向量怎麼解
從定義出發,Ax=cx:A為矩陣,c為特徵值,x為特徵向量。
矩陣A乘以x表示,對向量x進行一次轉換(旋轉或拉伸)(是一種線性轉換),而該轉換的效果為常數c乘以向量x(即只進行拉伸)。
通常求特徵值和特徵向量即為求出該矩陣能使哪些向量(當然是特徵向量)只發生拉伸,使其發生拉伸的程度如何(特徵值大小)。
(3)特徵向量演算法擴展閱讀:
數值計算的原則:
在實踐中,大型矩陣的特徵值無法通過特徵多項式計算,計算該多項式本身相當費資源,而精確的「符號式」的根對於高次的多項式來說很難計算和表達:阿貝爾-魯費尼定理顯示高次(5次或更高)多項式的根無法用n次方根來簡單表達。
對於估算多項式的根的有效演算法是有的,但特徵值的小誤差可以導致特徵向量的巨大誤差。求特徵多項式的零點,即特徵值的一般演算法,是迭代法。最簡單的方法是冪法:取一個隨機向量v,然後計算一系列單位向量。
⑷ matlab中如何求矩陣的特徵值和特徵向量
具體步驟分析如下:
1、第一步我們首先需要知道計算矩陣的特徵值和特徵向量要用eig函數,可以在命令行窗口中輸入help eig,查看一下eig函數的用法,如下圖所示:
(4)特徵向量演算法擴展閱讀:
MATLAB是美國MathWorks公司出品的商業數學軟體,用於演算法開發、數據可視化、數據分析以及數值計算的高級技術計算語言和互動式環境,主要包括MATLAB和Simulink兩大部分。
MATLAB是matrix&laboratory兩個詞的組合,意為矩陣工廠(矩陣實驗室)。是由美國mathworks公司發布的主要面對科學計算、可視化以及互動式程序設計的高科技計算環境。它將數值分析、矩陣計算、科學數據可視化以及非線性動態系統的建模和模擬等諸多強大功能集成在一個易於使用的視窗環境中,為科學研究、工程設計以及必須進行有效數值計算的眾多科學領域提供了一種全面的解決方案,並在很大程度上擺脫了傳統非互動式程序設計語言(如C、Fortran)的編輯模式,代表了當今國際科學計算軟體的先進水平。
⑸ 線性代數中怎樣求特徵值和特徵向量
特徵值與特徵向量是線性代數的核心也是難點,在機器學習演算法中應用十分廣泛。要求線性代數中的特徵值和特徵向量,就要先弄清楚定義:
設 A 是 n 階矩陣,如果存在一個數 λ 及非零的 n 維列向量 α ,使得Aα=λαAα=λα成立,則稱 λ 是矩陣 A 的一個特徵值,稱非零向量 α 是矩陣 A 屬於特徵值 λ 的一個特徵向量。
觀察這個定義可以發現,特徵值是一個數,特徵向量是一個列向量,一個矩陣乘以一個向量就等於一個數乘以一個向量。
(5)特徵向量演算法擴展閱讀:
下面根據一個例子來理解:
設 A 是 3 階矩陣
則稱 λ=4 為矩陣A的特徵值,
也稱 α=[ -4, 5, 17 ]T是矩陣A屬於特徵值為 4 的一個特徵向量。
⑹ 層次分析法中最大特徵值和特徵向量的演算法
你去下載 matlab軟體。這個軟體有點大,但是下載好以後很有用,
在裡面輸入:
A = [這裡面是你的判斷矩陣,行之間用英文分號分開,同一行的數據之間用空格即可];
[x, y] = eig(A);
eigenvalue = diag(y);
lamda = eigenvalue(1)
y_lamda = x(:, 1)
然後打回車,最上方顯示的記為最大特徵值。
⑺ 求矩陣的特徵值和特徵向量。
如果用筆算的話,演算法是這樣的:1):求lamda*e-a的行列式,讓它等於零,求出lamda的值就是矩陣a的特徵值,lamda是個符號,我打不出來就用音譯代替吧,a就是你給出的這個矩陣
。2)解一個線性齊次方程,(lamda*e-a)*x=0,這里lamda是個具體的數值,就是第一步里求出的特徵值,解出的x是這個特徵值對應的特徵向量,如果你的特徵值是個單根,那它只對應唯一的一個特徵向量,如果是重根,那它所對應的特徵值個數=a陣的維數-rank(lamda*e-a)。這是四階方陣,筆算可能不容易,你可以嘗試用matlab進行計算,就是幾個函數的事,去網路一查就有,希望可以幫到你
⑻ 怎麼求特徵向量
通常求特徵值和特徵向量即為求出該矩陣能使哪些向量(當然是特徵向量)只發生拉伸,使其發生拉伸的程度如何(特徵值大小)。這樣做的意義在於看清一個矩陣在那些方面能產生最大的效果,並根據所產生的每個特徵向量(一般研究特徵值最大的那幾個)進行分類討論與研究。
怎麼求特徵向量
求特徵向量:
一旦找到特徵值λ,相應的特徵向量可以通過求解特徵方程(A – λI) v = 0 得到,其中v為待求特徵向量,I為單位陣。
沒有實特徵值的一個矩陣的例子是順時針旋轉90度。
數值計算:
在實踐中,大型矩陣的特徵值無法通過特徵多項式計算,計算該多項式本身相當費資源,而精確的「符號式」的根對於高次的多項式來說很難計算和表達:阿貝爾-魯費尼定理顯示高次(5次或更高)多項式的根無法用n次方根來簡單表達。對於估算多項式的根的有效演算法是有的,但特徵值的小誤差可以導致特徵向量的巨大誤差。求特徵多項式的零點,即特徵值的一般演算法,是迭代法。最簡單的方法是冪法:取一個隨機向量v,然後計算一系列單位向量。
這個序列幾乎總是收斂於絕對值最大的特徵值所對應的特徵向量。這個演算法很簡單,但是本身不是很有用。但是,象QR演算法這樣的演算法正是以此為基礎的。
特徵向量簡介
特徵向量是一個非簡並的向量,在這種變換下其方向保持不變。該向量在此變換下縮放的比例稱為其特徵值(本徵值)。特徵值是線性代數中的一個重要概念。
線性變換通常可以用其特徵值和特徵向量來完全描述。特徵空間是一組特徵值相同的特徵向量。「特徵」一詞來自德語的eigen。
希爾伯特在1904年第一次用這個詞,更早亥爾姆霍爾茲也在相關意義下使用過該詞。eigen一詞可翻譯為」自身的」、「特定於……的」、「有特徵的」、或者「個體的」,這顯示了特徵值對於定義特定的線性變換的重要性。
⑼ 特徵值的計算方法
設 A 是n階方陣,如果存在數m和非零n維列向量 x,使得 Ax=mx 成立,則稱 m 是A的一個特徵值(characteristic value)或本徵值(eigenvalue)。非零n維列向量x稱為矩陣A的屬於(對應於)特徵值m的特徵向量或本徵向量,簡稱A的特徵向量或A的本徵向量。
(9)特徵向量演算法擴展閱讀
判斷相似矩陣的必要條件
設有n階矩陣A和B,若A和B相似(A∽B),則有:
1、A的特徵值與B的特徵值相同——λ(A)=λ(B),特別地,λ(A)=λ(Λ),Λ為A的對角矩陣;
2、A的特徵多項式與B的特徵多項式相同——|λE-A|=|λE-B|;
3、A的跡等於B的跡——trA=trB/ ,其中i=1,2,…n(即主對角線上元素的和);
4、A的行列式值等於B的行列式值——|A|=|B|;
5、A的秩等於B的秩——r(A)=r(B)。[1]
因而A與B的特徵值是否相同是判斷A與B是否相似的根本依據。
⑽ 矩陣求解特徵向量演算法
>>
x=[1
2
3;4
5
6;7
8
9];%任意建立一個矩陣
>>
[c,d]=eig(x)
>>
c1=c(:,1)%求解第一個特徵向量
>>
d1=d(1,1)%求解第一個特徵向量所對應的特徵值
>>
c2=c(:,2)%求解第一個特徵向量
>>
d2=d(2,2)%求解第一個特徵向量所對應的特徵值
>>
c3=c(:,3)%求解第一個特徵向量
>>
d3=d(3,3)%求解第一個特徵向量所對應的特徵值
其他求解類似