學(xué)習(xí)_矩陣對角化和SVD

1.矩陣對角化
矩陣對角化和SVD可以達到特征值分解的目的,特征值分解是將矩陣分解為特征向量和特征值相乘的形式。
對角化如下,對角化對矩陣的要求較高,需要B為對稱、正定矩陣


P矩陣要求單位正交,即

對角化可以達到將矩陣分解的目的,A對角線上的值為B矩陣對應(yīng)的特征值,P可以理解為對應(yīng)的特征矩陣,推導(dǎo)如下:

λ按照大小順序進行排列,一般前幾個比較大的λ就能很好的逼近B的真實數(shù)值,因此達到矩陣分解的目的,矩陣B原始大小為nxn,如上分解之后,最小可以壓縮到只保留第一項,其中u1位列向量,因此大小變?yōu)閚+1。

特征值和特征向量的作用效果,A可以看做是在u_i的反向上延展λ_i 倍。

2.SVD(奇異值分解)

SVD是對角化的擴展。一般矩陣A,大小為mxn,不滿足上述的對角化分解的要求,需要做個中間的轉(zhuǎn)換,來滿足那兩個要求:正定、對稱,如下


因此可以對進行對角化,有之前的對角化過程可以得出


一個結(jié)論,有矩陣B(mxn)和矩陣C(nxm),則BC和CB兩個矩陣的大小不同,但是他們的特征值不為零的個數(shù)是一樣的,在花書中用矩陣的跡來證明該結(jié)論。根據(jù)此結(jié)論,上述對A矩陣的分解,D1和D2中對角上的不為零的特征值的個數(shù)是一樣的。可得到如下推導(dǎo)得出A的對角分解,特征值λ即為D1或者D2中對角線元素開根號。

SVD可以應(yīng)用在圖像壓縮,一張大小為mxn的圖像,根據(jù)上述對A的分解結(jié)果,只取第一個λ的部分,則被壓縮后的存儲大小為m+n+1。當取前k個λ時,存儲大小為k*(m+n+1),相對于原圖的誤差為

還可以用在減小矩陣的計算復(fù)雜度

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容