Logistics Regression
1 邏輯回歸和線性回歸的比較
- 先給出結(jié)論的表格
| Logistics Regression | Linear Regression |
|---|---|
| Output: 0~1 | Output: 任何值 |
|
|
|
| 同左邊 |
- 其中Cross Entropy:
- 為什么要用Cross Entropy(交叉熵),為什么不直接用線性回歸中的 Square Error?
在邏輯回歸中,如果用Square Error,經(jīng)過(guò)公式推導(dǎo),若,則當(dāng)
等于1(close to Class1)或者等于0(far from Class1)時(shí),
都將為0.
Cross Entropy vs Square Error
1.1 LR的損失函數(shù)和梯度下降
1.1.1 Likelihood function
-
求該函數(shù)的最大值,為了方便,轉(zhuǎn)化成下面的函數(shù),求最小值點(diǎn)
其中為1時(shí),代表Class1,為0時(shí),代表Class2
1.1.2 梯度下降過(guò)程
-
這是損失函數(shù)里中括號(hào)里的一項(xiàng),最終可將損失函數(shù)化簡(jiǎn)得
1.2 Discriminative vs Generative
- Discriminative 和 Generative 是兩種尋找參數(shù)的方法
前者直接找到和
后者會(huì)找到 - 兩者最終得到的w和b是不一樣的
-
從最終的測(cè)試結(jié)果來(lái)說(shuō),Discriminative 得到的結(jié)果是更好的
但是Generative Model 在一些情況下會(huì)得到更好的結(jié)果,因?yàn)镚enerative Model 會(huì)有“腦補(bǔ)的過(guò)程”
即,在樣本集合中不存在的某個(gè)樣本,也會(huì)被Generative腦補(bǔ)出來(lái),這樣的樣本在一個(gè)大的樣本集合中可能會(huì)出現(xiàn)。
Generative 判斷兩個(gè)紅球同時(shí)出現(xiàn)的可能性 Class2 更大 - Generative 的好處
對(duì)訓(xùn)練集的數(shù)量要求更小
對(duì)訓(xùn)練集的噪音抗干擾能力更強(qiáng)
1.3 Multi-Class Classification
以三個(gè)類(lèi)為例
如下圖所示,三個(gè)類(lèi)經(jīng)過(guò)Softmax函數(shù)之后,最終的值都會(huì)落在0,1之間

大的越大,小的越小
1.3.1 Softmax 原理
- 假設(shè)有3個(gè)Class,都是高斯分布,共用同一個(gè)協(xié)方差矩陣,這種情況下,做一般推導(dǎo)以后,得到的就是softmax function
1.3.2 Softmax 損失函數(shù)
- x屬于 Class1時(shí)
- x屬于 Class2時(shí)
- x屬于 Class3時(shí)
用這種方式表示的好處是,Class之間不再有某兩者更加近的距離(如2比1離3更近)

1.3.3 Softmax 梯度下降
更新中...

