複製鏈接
請複製以下鏈接發送給好友

特徵分解

鎖定
特徵分解(Eigendecomposition),又稱譜分解(Spectral decomposition)是將矩陣分解為一組特徵值與特徵向量的乘積。 [3] 
需要注意:只有可以對角化的矩陣才能進行特徵分解。 [3] 
中文名
特徵分解
外文名
Eigen decomposition
又    稱
譜分解
對    象
可對角化矩陣
領    域
機器學習

特徵分解基礎理論

N 維非零向量 vN×N 的矩陣 A特徵向量,當且僅當下式成立:
其中 λ 為一標量,稱為 v 對應的特徵值。也稱 v 為特徵值 λ 對應的特徵向量。也即特徵向量被施以線性變換 A 只會使向量伸長或縮短而其方向不被改變。
由上式可得
稱多項式 p(λ) 為矩陣的特徵多項式。上式亦稱為矩陣的特徵方程。特徵多項式是關於未知數 λN 次多項式。由代數基本定理,特徵方程有 N 個解。這些解的解集也就是特徵值的集合,有時也稱為“譜”(Spectrum)。
我們可以對多項式 p 進行因式分解,而得到
其中
對每一個特徵值 λi ,我們都有下式成立:
對每一個特徵方程,都會有
)個線性無關的解。這 mi 個向量與一個特徵值 λi 相對應。這裏,整數 mi 稱為特徵值 λi幾何重數,而 ni 稱為代數重數。這裏需要注意的是幾何重數與代數重數可以相等,但也可以不相等。一種最簡單的情況是 mi = ni = 1。特徵向量的極大線性無關向量組中向量的個數可以由所有特徵值的幾何重數之和來確定。 [1] 

特徵分解分解方法

特徵分解矩陣的特徵分解

A 是一個 N×N 的方陣,且有 N線性無關特徵向量
。這樣, A 可以被分解為
其中 QN×N方陣,且其第 i列為 A特徵向量Λ對角矩陣,其對角線上的元素為對應的特徵值,也即
。這裏需要注意只有可對角化矩陣才可以作特徵分解。比如
不能被對角化,也就不能特徵分解。
一般來説,特徵向量
一般被正交單位化(但這不是必須的)。未被正交單位化的特徵向量
也可以作為 Q列向量。這一事實可以這樣理解: Q 中向量的長度都被
抵消了。 [1] 

特徵分解通過特徵分解求矩陣的逆

若矩陣 A 可被特徵分解並特徵值中不含零,則矩陣 A非奇異矩陣,且其逆矩陣可以由下式給出:
因為 Λ對角矩陣,其逆矩陣容易計算出 [1] 

特徵分解對特殊矩陣的特徵分解

任意的 N×N 實對稱矩陣都有 N 個線性無關的特徵向量。並且這些特徵向量都可以正交單位化而得到一組正交且模為 1 的向量。故實對稱矩陣 A 可被分解成
其中 Q正交矩陣Λ 為實對角矩陣
類似地,一個復正規矩陣具有一組正交特徵向量基,故正規矩陣可以被分解成
其中 U 為一個酉矩陣。進一步地,若 A埃爾米特矩陣,那麼對角矩陣 Λ 的對角元全是實數。若 A 還是酉矩陣,則 Λ 的所有對角元在複平面的單位圓上取得。 [2] 
參考資料
  • 1.    Golub, G. H. and Van Loan, C. F. (1996). Matrix Computations. 3rd ed., Johns Hopkins University Press, Baltimore.
  • 2.    Franklin, Joel N (1968). Matrix Theory. Dover Publications
  • 3.    武玉偉編著. 深度學習基礎與應用[M]. 北京:北京理工大學出版社, 2020.04.P29.