http://blog.codinglabs.org/articles/pca-tutorial.html
看到一篇比較好的將pca的文章,將原理講得很清楚,但是理解還是花了不少時間,現(xiàn)在將理解過程記錄下來
整體思路
原始特征矩陣
為什么將方差最大的方向作為主要特征
可以將一個特征上的很多樣本數(shù)據(jù),看成是一個隨機變量,方差就反映了這個隨機變量,相對期望的離散程度,如果方差小,說明,大多數(shù)樣本都在均值附近,那么在使用所有特征來對樣本進行分類時,這個特征的貢獻非常?。ㄒ驗樵谒袠颖局校@個特征都差不多,沒有什么區(qū)分度),所以就可以忽略掉這個特征,起到將維的作用。
既然是想要去掉有相關(guān)性的特征,為什么不能直接算原始特征矩陣的協(xié)方差矩陣,然后直接將協(xié)方差排序,然后找打大的協(xié)方差對應(yīng)的兩個特征,然后去掉一個呢
這個我理解是,在原始特征矩陣中,可能各個特征直接沒有那么大的相關(guān)性,直接去掉一個特征,數(shù)據(jù)損失可能就太大了,只有將原始矩陣映射到一個完全正交的新矩陣后,這些組合特征的方差比較小,才反映出一些原始特征的存在一定程度的相關(guān)性,換句話說,正式因為某些原始特征的相關(guān)性,才使某個變換后的組合特征方差很小,數(shù)值都落到了相對集中的區(qū)域。