支持向量機(二)

Kernel Ⅰ

對于上圖的數(shù)據(jù)集,我們之前使用的是多項式模型來對數(shù)據(jù)集進行分類操作。我們可能使用的模型為θ0 + θ1x1 + θ2x2 + θ3x1x2 + θ4x12 + θ5x22 + ...

對于該模型當(dāng)θ0 + θ1x1 + θ2x2 + θ3x1x2 + θ4x12 + θ5x22 + ... ≥ 0時,我們可以預(yù)測y = 1。因此,該模型的假設(shè)函數(shù)為:

上述模型中,我們使用高階項來更好地擬合數(shù)據(jù)集。但我們通常不清楚這些高階項是否滿足我們的需求,而且高階項其計算量過大。因此,我們尋求使用新的特征變量來替代這些高階項。例如:令f1 = x1,f2 = x2,f3 = x1x2,f4 = x12,f5 = x22,...,從而我們的模型變?yōu)棣?sub>0 + θ1f1 + θ2f2 + θ3f3 + θ4f4 + θ5f5 + ...

除此之外,我們可以利用核函數(shù)(Kernel Function)來計算出新的特征。

給定一個訓(xùn)練實例x,我們利用x的各個特征與我們預(yù)先選定的地標(landmark)l(1),l(2),l(3)距離大小來構(gòu)造新的特征變量f1,f2,f3。

通過使用核函數(shù)我們可以構(gòu)建新的特征變量。

圖中similarity(x, l)函數(shù)即為高斯核函數(shù)(Gaussian Kernel Function)。

其中

表示實例x中所有特征與地標l(1)之間的距離的和。因此,我們以f1為例,將其改寫為:

我們根據(jù)x與地標距離的大小,可得出如下結(jié)論:

其中,關(guān)于σ2的取值,我們可以根據(jù)下圖得出相關(guān)結(jié)論。

即σ2的值越大,特征變量fi的變化曲線就越平滑,模型出現(xiàn)低方差高偏差問題;σ2的值越小,特征變量fi變化曲線就越陡峭,模型出現(xiàn)高方差低偏差問題。

假設(shè)對于下圖數(shù)據(jù)集,我們使用的模型為θ0 + θ1f1 + θ2f2 + θ3f3,當(dāng)其大于等于零時,我們可以預(yù)測y = 1,其中θ0 = -0.5,θ1 = 1,θ2 = 1,θ3 = 0。

圖中紫紅色x與地標l(1)的距離小,因此我們可以認為f1 ≈ 1;而x與地標l(2)和l(3)距離較大,我們可以認為f2 ≈ 0,f3 ≈ 0。從而我們可以計算出θ0 + θ1f1 + θ2f2 + θ3f3 = 0.5 ≥ 0,因此我們可以預(yù)測在紫紅色x處y = 1。同理,我們可以預(yù)測天藍色x處y = 0,綠色x處y = 1。因此,我們可以畫出紅色線條表示的判定邊界,其內(nèi)的我們都可以預(yù)測y = 1,其外則y = 0。

Kernel Ⅱ

給定一個數(shù)據(jù)集為(x(1), y(1)),(x(2), y(2)),···,(x(m), y(m)),我們令l(1) = x(1),l(2) = x(2),···,l(m) = x(m)。通常我們利用上述方法選擇相應(yīng)的地標,然后我們再利用核函數(shù)構(gòu)建新的特征變量f1,f2,···,fm。因此,我們可將代價函數(shù)J(θ)改寫為:

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容