【CS224W課程筆記】Spectral Clustering

Overview

Spectral Clustering Algorithoms(譜聚類算法)的三個基本階段:

  1. Pre-processing(預處理)
    構(gòu)建圖的矩陣表示
  2. Decomposition(分解)
    • 計算矩陣的特征值和特征向量
    • 基于一或多個特征向量將每個點映射到較低維的表示形式
  3. Grouping(分組)
    • 基于新的表示將所有點劃分為2個或多個集群

Graph Patitioning

問題定義

給定無向圖G(V, E),將圖中的節(jié)點劃分到兩個不相交的集群A,B中。接下來要考慮的問題在于:

  • 如何定義當前劃分方式的好壞?
  • 如何高效地識別這樣的分區(qū)?

Graph Cut Criterion

首先需要明確的是,一個好的分區(qū),其特點在于:

  • 最大化分區(qū)內(nèi)部的連接數(shù)量;
  • 最小化分區(qū)與分區(qū)之間的連接數(shù)量。

接下來,將以一個與分區(qū)的“edge cut”相關的方程來表達分區(qū)目標,其中Cut為那些兩個端點位于不同分區(qū)的邊的集合,即cut(A,B)=\sum_{i \in A, j \in B} w_{ij},若圖中沒有權重表示,則w_{ij} \in \{0,1\}。
由此,Graph Cut Criterion可定義為最小化cut的值,即arg min_{A,B} cut(A,B),但考慮如下圖所示的情況,紅線標注的cut滿足最小化的情況,但這并不是我們期望的切分方式,因此還需要添加對集群內(nèi)的連接盡可能多的考慮。

cut criterion degenerate case

為了產(chǎn)生更加平衡的分區(qū),[Shi-Malik, ’97]提出了新的分區(qū)評判標準Conductance,它定義了相對于分區(qū)密度的連通情況,即:
\phi (A,B) = \frac{cut(A,B)}{min(vol(A),vol(B))}
其中vol代表volume,vol(A)表示分區(qū)A中所有節(jié)點的加權度數(shù)(degree)之和,即vol(A)=\sum_{i\in A}k_i??梢钥吹疆敺帜钢袃蓚€分區(qū)的volume盡可能相等時,該式的值趨向于最大。但此時伴隨而來的問題是想要計算得到一個最佳的conductance cut是一個NP-hard問題。而接下來要學習的Spectral Graph Partitioning可以實現(xiàn)優(yōu)化上述標準的近似保證。

Spectral Graph Partitioning

Basic Knowledge

  • A為無向圖G的鄰接矩陣,\mathbf{x}=(x_1,x_2,\dots ,x_n) \in \mathbb{R}^nG中每一個節(jié)點的標簽/值,則\mathbf{y} = A \cdot \mathbf{x}計算的是圖G中每個節(jié)點各自鄰居的標簽之和,即y_i = \sum_{j=1}^n A_{ij} x_j = \sum_{(i,j)\in E} x_j。對于等式A \cdot \mathbf{x} = \lambda \cdot \mathbf{x},其中\mathbf{x}稱為特征向量(eigenvector),對應的\lambda稱為特征值(eigenvalue)。
  • Spectrum:對于圖的任一特征向量\mathbf{x}^{(i)},設其對應的特征值為\lambda_i,則將譜(spectrum)定義\Lambda = \{\lambda_1, \lambda_2, \dots, \lambda_n\},其中\lambda_1 \leq \lambda_2 \leq \dots \leq \lambda_n。
  • 例1:設\mathbf{G}為一個所有節(jié)點的度數(shù)均為d的連通圖(稱\mathbf{G}為d-regular graph),當特征向量\mathbf{x}=(1,1,\dots , 1)時,求得\lambda = d,此時d\mathbf{G}的鄰接矩陣\mathbf{A}的最大特征值,即\lambda_n = d
  • 例2:若\mathbf{G}不是連通圖,設\mathbf{G}有兩個互不相連的連通子圖\mathbf{C}\mathbf{B}組成,每一個子圖均是d-regular。若令特征向量\mathbf{x}\mathbf{C}的節(jié)點的值為1,\mathbf{B}中所有節(jié)點值均為0,對應特征值\lambda = d,反之亦然,則此時有\lambda_n = \lambda_{n-1} = d。
  • 例3:在例二的基礎上,若\mathbf{C}\mathbf{B}之間存在部分連接,已知特征向量\mathbf{x}^{(n)} = (1,1,\dots , 1),由于實對稱陣屬于不同特征值的的特征向量是正交的,所以有x_1^{(n-1)}+x_2^{(n-1)}+\dots + x_n^{(n-1)}=0。
  • Laplacian matrix \mathbf{L}:定義\mathbf{L}=\mathbf{D}-\mathbf{A},其中\mathbf{D}為對角矩陣,主對角線元素為各節(jié)點的度數(shù)。Laplacian矩陣具有以下屬性:
    1. 對于特征向量\mathbf{x}=(1,1,\dots , 1),特征值\lambda = \lambda_1 = 0;
    2. 所有特征值均為非負實數(shù);
    3. 所有特征向量為實數(shù)且彼此正交。
  • 對于對稱矩陣M,有\lambda_2 = min_{x:x^\top \mathbf{w}_1 = 0} \frac{x^\top Mx}{x^\top x},已知\mathbf{w}_1\lambda_1對應的特征向量。其中最小化x^\top \mathbf{L} x的意義在于:
    \begin{aligned} x^\top \mathbf{L} x &= \sum_{i,j=1}^n \mathbf{L}_{ij} x_i x_j \\ &= \sum_{i,j=1}^n (\mathbf{D}_{ij} - \mathbf{A}_{ij}) x_i x_j \\ &= \sum_i \mathbf{D}_{ii} x_i^2 - \sum_{(i,j) \in E} 2 x_i x_j \\ &= \sum_{(i,j) \in E} (x_i^2 + x_j^2 - 2 x_i x_j) \\ &= \sum_{(i,j) \in E} {(x_i - x_j)} ^ 2 \\ \end{aligned}
    由此對于Laplacian矩陣,上述公式可寫為\lambda_2 = min_{x:\sum x_{i} = 0} \frac{\sum_{(i,j)\in E} {(x_i - x_j)}^2}{\sum_i x_i^2},此時\mathbf{x}為單位向量且與\mathbf{x}^{(1)}正交。由于\mathbf{x}為單位向量,最小化該式意味著最小化分子,又因為\sum_i x_i = 0,所以求解的特征向量中有正有負,理想結(jié)果將如下圖所示(使盡可能少的邊經(jīng)過坐標軸上0的位置):
    Finding x that minimize lambda

Find Optimal Cut

[Fiedler '73]提出了一種尋找最佳切分點的方案,將分區(qū)(A,B)表示為一個向量\mathbf{y},若某節(jié)點i \in A,則對應y_i=+1,反之,y_i=-1。分區(qū)期望實現(xiàn)|A|=|B|,即\sum_i y_i = 0,當前向量同樣與(1, \dots , 1)正交。接下來將通過下式尋找最小化分區(qū)cut的分區(qū)方案:
arg min_{\mathbf{y} \in \{-1, +1\}^n} f(y) = \sum_{(i,j)\in E}{(y_i - y_j)} 2

若將\mathbf{y}的取值擴大到實數(shù)范圍,則有:
min f(y) = \sum_{(i,j)\in E} {(y_i - y_j)}^2 = \mathbf{y}^\top \mathbf{L} \mathbf{y} \\ \mathbf{y} \in \mathbb{R}^n, \sum_i y_i = 0, \sum_i y_i^2 = 1
此時Laplacian矩陣\mathbf{L}的第二小特征值\lambda_2\lambda_2 = min_y f(y)得到;\lambda_2對應的特征向量\mathbf{x}\mathbf{x}=arg min_y f(y)得到,這里的\mathbf{x}又稱為Fiedler vector。此時就可以利用x_i的正負來決定節(jié)點i屬于哪一個分區(qū)。上述過程稱為spectual clustering。

該過程對應開始的Spectral Clustering Algorithoms(譜聚類算法)的三個基本階段:

  1. Pre-processing:構(gòu)建圖的Laplacian矩陣\mathbf{L};
  2. Decomposition:尋找矩陣\mathbf{L}的特征值\lambda和特征向量\mathbf{x};對節(jié)點與特征向量\mathbf{x}^{(2)}進行映射;
  3. Grouping:對\mathbf{x}^{(2)}各元素進行排序,尋找合適的位置進行切分并對相應節(jié)點進行分區(qū)。
?著作權歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

友情鏈接更多精彩內(nèi)容