1. GCN
1.1 Laplace算子
Laplace算子特征函數(shù)
-> Fourier變換
-> 卷積
Laplace矩陣L的特征向量 -> Fourier變換 -> 卷積
1.1.1 Laplace算子的特征空間
由變換的廣義特征方程
解得Laplace算子
特征函數(shù)為
。
于是變換在
張成的特征空間中的變換是簡單的拉伸變換。
將函數(shù)看做無窮維的向量,則映射到該特征空間的過程就是Fourier變換
。
因?yàn)?img class="math-inline" src="https://math.jianshu.com/math?formula=e%5E%7B-jwt%7D" alt="e^{-jwt}" mathimg="1">對的正交性,不同
將
投影到不同的基上,從而得到每個(gè)
對應(yīng)的投影值。
1.1.2 卷積公式
因?yàn)橄韧屏四孀儞Q,的組合,所以正變換加了個(gè)負(fù)號。
時(shí)移性質(zhì):時(shí)移-相移,頻率成分不變、大小不變,但是相位移動。
卷積公式:
于是Laplace算子的特征空間中有卷積公式成立。這里主要用到指數(shù)函數(shù)的性質(zhì)。
事實(shí)上,只要特征函數(shù)具有正交和指數(shù)形式,卷積公式就可以成立。于是想到構(gòu)造一個(gè)二階微分算子,把卷積推廣到圖上。
1.2 矩陣Laplace推廣
Laplace算子是一個(gè)二階梯度,本質(zhì)上是計(jì)算變化率的變化率,而對應(yīng)到圖上的物理意義可以是熱量變化的平滑程度。
熱量變化應(yīng)該與熱量差正相關(guān),如一維情況
多維情況同理。下面推廣到圖上。對于節(jié)點(diǎn),有
其中是對角線為度的矩陣。定義
為Laplace矩陣。
于是對進(jìn)行特征分解:
其中的每一行為一個(gè)
對應(yīng)的特征向量。
仿照傅里葉變換,有
其中為節(jié)點(diǎn)
對應(yīng)的Embedding值。
于是整個(gè)卷積過程,可以描述為:
其中為卷積核,
為各個(gè)節(jié)點(diǎn)的Embeding。
1.3 卷積核
1.3.1 樸素法
直接將看作參數(shù)進(jìn)行訓(xùn)練,即變換后的卷積核為:
參數(shù)過多,計(jì)算量過大。
1.3.2 多項(xiàng)式近似法
從而有
減少了參數(shù),引入了局部性,不需要分解。但求解仍然需要
復(fù)雜度。
1.3.3 Chebyshev多項(xiàng)式近似卷積核
Chebyshev多項(xiàng)式就是余弦倍角展開公式,形式如下:
則,變換后的卷積核為:
可以用歸納法證明:
于是,Cheby遞推的方式實(shí)現(xiàn)高階效果,計(jì)算的復(fù)雜度為
。
1.3.4 GCN
對Cheby核做限制:,則
進(jìn)一步,限制,可得
因多層的乘積會導(dǎo)致方差偏移,數(shù)值不穩(wěn)定,故需要重新進(jìn)行正則化:
于是,最終的GCN卷積層為:
其中節(jié)點(diǎn)特征是維的,即
;
是
維濾波器,
為卷積結(jié)果。
理論十分復(fù)雜,但形式卻十分簡單。
GraphSAGE
GCN是transductive,訓(xùn)練時(shí)需要把全圖結(jié)構(gòu)和特征都讀入,無法大規(guī)模訓(xùn)練。
GraphSAGE是inductive,訓(xùn)練時(shí)只使用樣本點(diǎn)局部的特征與結(jié)構(gòu)即可,通過采樣限制數(shù)據(jù)結(jié)構(gòu)不均衡?;静襟E如下:
- 采樣:均等采樣,指定采樣鄰居數(shù)量
- 聚合:效果最好的是均值聚合器,即對鄰居embedding取均值,GCN其實(shí)是求和
- 更新參數(shù)
GraphSAGE和GCN其實(shí)都是復(fù)雜網(wǎng)絡(luò)中的一個(gè)層。設(shè)計(jì)復(fù)雜網(wǎng)絡(luò)時(shí),要考慮Loss函數(shù)。對于有監(jiān)督可以直接用交叉熵。對于無監(jiān)督,假設(shè)相鄰節(jié)點(diǎn)embedding盡量相同,則Loss函數(shù)為
其中為負(fù)采樣分布,
是負(fù)樣本個(gè)數(shù),
是相應(yīng)節(jié)點(diǎn)的embedding。

GAT
相比graphSAGE,增加了注意力機(jī)制,即按照一定權(quán)重聚合鄰居傳來的embedding。
鄰居節(jié)點(diǎn)的權(quán)重計(jì)算通常使用中心節(jié)點(diǎn)
和
的屬性相似度表示,并使用softmax進(jìn)行歸一化。如使用余弦相似度:
其中類似于一種bias。
而GAT實(shí)際使用
是一個(gè)非對稱的注意力系數(shù),就像條件概率一樣。使用參數(shù)自動學(xué)習(xí)一個(gè)相似度函數(shù)。這里增加激活函數(shù)是為了避免softmax函數(shù)約去
項(xiàng)。
這種計(jì)算相似度的加法模式,本質(zhì)上兩節(jié)點(diǎn)的計(jì)算是分離的。每一層的參數(shù)和
是相同的,于是每個(gè)節(jié)點(diǎn)有一個(gè)特定的能量值,如果這個(gè)值很高,就跟其他所有節(jié)點(diǎn)都比較相似,具體相似程度要加上其他節(jié)點(diǎn)的這個(gè)值。
有種贏者通吃的感覺,幸福的家庭都是一樣的,不幸的家庭卻各有各的不幸。