1.矩陣對角化
矩陣對角化和SVD可以達到特征值分解的目的,特征值分解是將矩陣分解為特征向量和特征值相乘的形式。
對角化如下,對角化對矩陣的要求較高,需要B為對稱、正定矩陣

P矩陣要求單位正交,即

對角化可以達到將矩陣分解的目的,A對角線上的值為B矩陣對應(yīng)的特征值,P可以理解為對應(yīng)的特征矩陣,推導(dǎo)如下:

λ按照大小順序進行排列,一般前幾個比較大的λ就能很好的逼近B的真實數(shù)值,因此達到矩陣分解的目的,矩陣B原始大小為nxn,如上分解之后,最小可以壓縮到只保留第一項,其中u1位列向量,因此大小變?yōu)閚+1。
特征值和特征向量的作用效果,A可以看做是在的反向上延展
倍。

2.SVD(奇異值分解)
SVD是對角化的擴展。一般矩陣A,大小為mxn,不滿足上述的對角化分解的要求,需要做個中間的轉(zhuǎn)換,來滿足那兩個要求:正定、對稱,如下

因此可以對進行對角化,有之前的對角化過程可以得出


一個結(jié)論,有矩陣B(mxn)和矩陣C(nxm),則BC和CB兩個矩陣的大小不同,但是他們的特征值不為零的個數(shù)是一樣的,在花書中用矩陣的跡來證明該結(jié)論。根據(jù)此結(jié)論,上述對A矩陣的分解,D1和D2中對角上的不為零的特征值的個數(shù)是一樣的。可得到如下推導(dǎo)得出A的對角分解,特征值λ即為D1或者D2中對角線元素開根號。

SVD可以應(yīng)用在圖像壓縮,一張大小為mxn的圖像,根據(jù)上述對A的分解結(jié)果,只取第一個λ的部分,則被壓縮后的存儲大小為m+n+1。當取前k個λ時,存儲大小為k*(m+n+1),相對于原圖的誤差為

還可以用在減小矩陣的計算復(fù)雜度
