ICA(Independent Component Analysis)

一、背景:

?seeks to extract these independent components and the mixing matrix of coefficients,通過(guò)線性變換尋求統(tǒng)計(jì)獨(dú)立和非高斯分布的潛變量

PCA:降維,去相關(guān)性(二階統(tǒng)計(jì)量)

ICA: 不僅去相關(guān)性(二階統(tǒng)計(jì)量),還能減少高階統(tǒng)計(jì)量依賴。

注:獨(dú)立一定不相關(guān)(線性);不相關(guān)不一定獨(dú)立

如果潛變量服從非高斯分布,ICA 對(duì)原始源信號(hào)的提取程度遠(yuǎn)遠(yuǎn)大于 PCA?

二、模型:

其中X=[X(1),X(2),…,X(n)]\in d*n 是數(shù)據(jù)矩陣(與 PCA 相反,ICA 采用轉(zhuǎn)置數(shù)據(jù)矩陣),

A=[a_{1},a_{2},…,a_{m} ]\in d*m 是未知混合矩陣,

S=[s(1),s(2),…,s(n)]\in m*n 是獨(dú)立分量矩陣,

E\in d*n 是殘差矩陣,n 是樣本數(shù)量。

我們假設(shè)d\geq m(當(dāng) d=m

,殘差矩陣 E變成零矩陣)。

在已知觀測(cè)信號(hào)X,而源信S號(hào)和混合系數(shù)A都未知的情況下,希望找到一個(gè)分離矩陣W,以便從觀測(cè)信號(hào)中分離出統(tǒng)計(jì)獨(dú)立的源信號(hào),即

在獨(dú)立分量分析中,分離矩陣砰與混合矩陣的關(guān)系為

注:d equals m,\hat{s} 為S的最佳估計(jì)

三、預(yù)處理

1、約束條件

為確保獨(dú)立分量分析方法的順利進(jìn)行,下約束條件:

? ?1) 源信號(hào)s(k)的各成分是瞬時(shí)統(tǒng)計(jì)獨(dú)立的。

? ?2)?各源信號(hào)s(k)服從非高斯分布,或至多存在一個(gè)源信號(hào)服從高斯分布,否則無(wú)法實(shí)現(xiàn)源信號(hào)的分離。

? ?3) 觀測(cè)信號(hào)x(k)的數(shù)目不少于源信號(hào)?s(k)的數(shù)目。

2、數(shù)據(jù)預(yù)處理

?1)中心化:消除數(shù)據(jù)中存在的一階統(tǒng)計(jì)相關(guān)性

?2)白化或球化(whitening or sphering):在標(biāo)準(zhǔn)化基礎(chǔ)上使各分量間彼此正交,達(dá)到消除數(shù)據(jù)二階統(tǒng)計(jì)相關(guān)性目的

設(shè)隨機(jī)變量X的第k次采樣值為x(k),則其協(xié)方差矩陣為:

R_{x} 的特征值分解為:

\Lambda =[\lambda(1),\lambda(2),…,\lambda(m)]是一個(gè)對(duì)角陣,其對(duì)角元素是協(xié)方差矩陣R_{x} 的特征值;U是一個(gè)與\Lambda 對(duì)應(yīng)的特征向量按列組合而成的矩陣。

白化變換的表達(dá)式為:

白化變換矩陣Q為:

B是一個(gè)正交矩陣

白化變換后,ICA的任務(wù)從求解矩陣W=A^-1 ,變?yōu)榍蠼庹痪仃?img class="math-inline" src="https://math.jianshu.com/math?formula=B" alt="B" mathimg="1">

因此,我們可以估計(jì)s(k)為:\hat{s} (k)=B^TZ(k)=B^TQx(k),

其中W=B^TQ

3、ICA的目標(biāo)函數(shù)和優(yōu)化算法

? ?獨(dú)立分量分析=目標(biāo)函數(shù)+優(yōu)化算法

1) 目標(biāo)函數(shù);非高斯的最大化

? ? ? 在獨(dú)立分量分析的模型中,觀測(cè)信號(hào)x(k)是由m個(gè)獨(dú)立的源信號(hào)線性混合而成,因此它比其中任意一個(gè)源信號(hào)更加趨于高斯分布。如果能夠找到一個(gè)向量w作用于混合信號(hào)x(k),使得變換后的結(jié)果盡量偏離高斯分布,即非高斯最大化,那么得到的就是其中的一個(gè)源信號(hào)。同理,可以分離出余下的m-1個(gè)源信號(hào)。

衡量非高斯性的大小---熵

定義概率密度為f(y)的隨機(jī)變量y的熵H為:

負(fù)熵J為:

y_{gauss} 是與y等方差的高斯變量,所有 等方差的隨機(jī)變量中,高斯變量的熵最大。?

負(fù)熵近似為:

常用的G函數(shù)形式有:

2)? 優(yōu)化算法:FastICA

4、ICA 的排序和降維

we used a Euclidean norm L2 to sort the rows of the demixing matrix, W

可以計(jì)算分離矩陣W的行向量的歐氏范數(shù),即其中\vert w_{i} \vert _{2} 其中i=1,2,3…d,以此為標(biāo)準(zhǔn)從大到小順序排列行向量,然后選取前面幾個(gè)范數(shù)和中所占比重大的行向量作為主部W_u0z1t8os ,剩下的作為余部W_{e} ,

四、統(tǒng)計(jì)量和控制限

W_u0z1t8os:?dominant part of W

W_{e}:? excluded part of W

B_u0z1t8os =(W_u0z1t8os Q^-1)^T? ;B_{e} =(W_{e} Q^-1)^T

\hat{s} _{new,d} (k)=W_u0z1t8os x_{new} (k)

\hat{s} _{new,e} (k)=W_{e} x_{new} (k)

統(tǒng)計(jì)量:

The confidence limits of the threestatistics,I^2,I_{e}^2,SPE
 , can be obtained by kernel density estimation

控制限:

non-parametric empirical density estimates using kernel extraction

???

具有核 K 的單變量核估計(jì)量:

x is the data point under consideration,?

x_{i} is an observation value from the data set,

h is the window width (also known as the smoothing parameter),

n is the number of observations, and

K is the kernel function

窗寬h_{n} 隨樣本個(gè)數(shù)n\rightarrow ∞而趨于零。當(dāng)h_{n} 取得太小時(shí),隨機(jī)性的影響增加,使\hat{f}  (x)呈現(xiàn)很不規(guī)則的形狀,這可能掩蓋f (x)的重要特性反之。h_{n} 太大,則\hat{f}  (x)將會(huì)過(guò)度平滑,使f (x)比較細(xì)致的性質(zhì)不能顯露出來(lái)。

The kernel function K :

選用標(biāo)準(zhǔn)正態(tài)密度函數(shù)作為核函數(shù),在選取窗寬參數(shù)時(shí),考慮到這里的目的是面向工業(yè)過(guò)程的監(jiān)控應(yīng)用,不需要達(dá)到理論上的高度最優(yōu)化,所以窗寬參數(shù)的大小可按照下面的關(guān)系式計(jì)算得到:

其中C=0.7853為對(duì)應(yīng)于標(biāo)準(zhǔn)正態(tài)密度核函數(shù)的一個(gè)常數(shù),Q是樣本的四分位數(shù)間距,n是樣本的個(gè)數(shù)。

變量貢獻(xiàn)圖:

測(cè)量變量在第K個(gè)采樣時(shí)刻對(duì)兩種統(tǒng)計(jì)量的貢獻(xiàn)值分別為

通過(guò)直方圖可以把這些貢獻(xiàn)值大小直觀地表示出來(lái),這樣就可以較容易看出引起過(guò)程異常的具體原因。

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容