前提:
二維隨機(jī)變量(x,y),所有可能的取值為,其中
,
,且
,
。
概率分布
| 類型 | 表達(dá)式 |
|---|---|
| 聯(lián)合概率分布 |
|
| 條件概率分布 | |
| 全概率公式 | |
| x和y條件獨(dú)立 | |
| x和y有相關(guān)性 |
熵
條件熵:
聯(lián)合熵:
交叉熵:
二分類:
多分類:
Perplexity:
各種指數(shù)
點(diǎn)互信息PMI, pointwise mutual info or point mutual info:
PMI為0,則隨機(jī)變量x和y之間相互獨(dú)立。
互信息MI, mutual info:
MI是非負(fù)的,為0時(shí),則隨機(jī)變量x和y之間相互獨(dú)立。
信息增益Info Gain:
基尼指數(shù)Gini Index:
樹模型分裂時(shí):
KLD:
2個(gè)分布的dissimilarity,越小越好。
JSD Jensen-Shannon(JS) Divergence:
def kl_divergence(p, q):
# same as scipy.special.rel_entr
return np.sum(np.where(p[i]!=0, p[i]*log2(p[i]/q[i]),0) for p[i],q[i] in zip(p,q))
def js_divergence(p,q):
m = 0.5*(p+q)
return 0.5 * kl_divergence(p,m) + 0.5*kl_divergence(q,m)
Loss Function
MSE: 回歸模型使用,對(duì)outlier敏感,收斂更快
MAE: GBDT的損失函數(shù),對(duì)outlier沒那么敏感
Hinge Loss (SVM)
Huber Loss