和感知機(jī)不同,邏輯回歸在點(diǎn)到平面的距離基礎(chǔ)上,通過(guò)邏輯函數(shù),把距離值轉(zhuǎn)換成一個(gè)(0,1) 的值,這個(gè)值稱為P值(可能性)
logist函數(shù)
通過(guò)這個(gè)函數(shù)可以看到:
- 當(dāng) out 趨向于 -inf 的時(shí)候,p = 0
- 當(dāng) out 趨向于 +inf 的時(shí)候,p = 1
- out 相當(dāng)于點(diǎn)到分類超平面的距離
似然函數(shù)
已知當(dāng)前我們有個(gè)任務(wù),把一組樣本分成兩類,0 或者 1,設(shè):
組合上面兩個(gè)公式,則一個(gè)樣本點(diǎn) 的分類密度函數(shù)可以表示為:
-
- 當(dāng) yi = 1 的時(shí)候,P = p
- 當(dāng) yi = 0 的時(shí)候,P = 1-p
通過(guò)最大似然估計(jì)法,樣本集的似然函數(shù)表示為:
損失函數(shù)
我們現(xiàn)在對(duì)模型定義一個(gè)損失函數(shù) loss,使得 loss 最小的時(shí)候,L 最大;
- 其中 yi 是真實(shí)值,p 是預(yù)測(cè)值
- 取負(fù)數(shù),是為了讓 loss 最小的時(shí)候,L 最大
-
取的是每輪訓(xùn)練中樣本的損失平均值
損失函數(shù)求導(dǎo)
又有
得到: