冪法與反冪法求特征值與特征向量

矩陣的特征值與特征向量
若非零向量x滿足

那么

被稱為A的特征值,x稱為A的特征向量。
一個矩陣的特征值與特征向量不是唯一的。根據(jù)定義轉(zhuǎn)化

解這個方程,我們可以求出特征值,然后求出特征向量。
關(guān)于特征值與特征向量,其他up已經(jīng)做出了具體的詮釋,包括意義,推薦觀看
冪法求特征向量
A是一個n階方陣,求他的特征向量,冪法:他的特征值與特征向量可以通過矩陣A不斷乘以一個初始向量(不是零向量)得到。接下來是證明
來看一下百度百科:

我們來分析一下冪法究竟是怎么求出特征值與特征向量的。
我們大致瀏覽一下,可以發(fā)現(xiàn)他是通過構(gòu)造一個遞歸序列

選取

然后將x0用含A特征向量的基底表示。

下一步可能會看的有些迷糊,


但是這里是A^k的特征值和特征向量?是否能直接帶入?
這是可以的,很容易證明:

我們繼續(xù)來看

后面的一串變成了一個極小量,是因為r1是最大的特征值,所以由它作為分母的分?jǐn)?shù)小于1,這個分?jǐn)?shù)極大次冪是一個極小項。

我們添加一步,將xk替換成A^k*x0

這樣我們可以直觀的看到:矩陣A 的特征向量V1可以通過矩陣A不斷乘以一個初始向量x0(不是零向量)得到。主特征向量V1與A^k*V0就相差了一個倍數(shù)。(a1r1^k)
冪法求特征值

冪法求特征值我直接放吳老師書上的過程了

注意上圖的初始向量是用v0表示的,特征值是用

表示的。兩式相除消去特征值的k次冪得到了最大(主)特征值。
計算方法

這是百度百科的算法,它進行了歸一化處理。和吳老師的方法是一致的,同樣選取了最大分量。

(吳老師的算法)
當(dāng)然,up主沒有那么勤勞會自己寫代碼,而且這篇文章也是各種截圖,我只是將模糊的地方說明了一下,也理了一下冪法思路。下面是中國科學(xué)技術(shù)大學(xué)數(shù)學(xué)科學(xué)學(xué)院張瑞老師的算法:

這一個分量是任取的。
反冪法

反冪法就是一個取倒數(shù)的思路,與冪法一致。這里不做詳細(xì)介紹。
微信公眾號:拉格朗日數(shù)乘