樸素貝葉斯法

理論

公式推導(dǎo)

樸素貝葉斯法是基于貝葉斯定理和特征條件獨(dú)立假設(shè)的分類方法,即對給定的輸入 x,預(yù)測其類別 y。
此方法的思路是首先由訓(xùn)練數(shù)據(jù)計(jì)算 P(Y)P(X|Y) 的估計(jì),然后得到聯(lián)合概率分布
P(X,Y) = P(Y)P(X|Y)
之后利用貝葉斯定理及學(xué)到的聯(lián)合概率分布計(jì)算 X 屬于類別 Y 的概率
P(Y|X) = \frac{P(X,Y)}{P(X)} = \frac{P(Y)P(X|Y)}{\mathop{\sum}_{Y}P(Y)P(X|Y)}
對于給定的輸入 x,通過上式計(jì)算 x 屬于類別 c_k 的概率 P(Y=c_k|X=x),即
P(Y=c_k|X=x) = \frac{P(Y=c_k)P(X=x|Y=c_k)}{\mathop{\sum}_{k}P(Y=c_k)P(X=x|Y=c_k)}
又由樸素貝葉斯法的特征條件獨(dú)立性假設(shè),有
\begin{equation}\begin{split} P(X=x|Y=c_k) &=P( X^{(1)}=x^{(1)},\cdots,X^{(n)}=x^{(n)} | Y=c_k )\\\\ &= \prod_{j=1}^{n} P(X^{(j)}=x^{(j)}|Y=c_k) \end{split}\end{equation}
其中,xn 維向量,x^{(j)}x 的第 j 個特征。故
P(Y=c_k|X=x) = \frac{P(Y=c_k)\prod_{j}P(X^{(j)}=x^{(j)}|Y=c_k)}{\mathop{\sum}_{k}P(Y=c_k)\prod_{j}P(X^{(j)}=x^{(j)}|Y=c_k)} , k=1,2,\dots,K
x 分到后驗(yàn)概率最大的類中,樸素貝葉斯分類器可表示為
y = f(x) = arg \max_{c_k} \frac{P(Y=c_k)\prod_{j}P(X^{(j)}=x^{(j)}|Y=c_k)}{\mathop{\sum}_{k}P(Y=c_k)\prod_{j}P(X^{(j)}=x^{(j)}|Y=c_k)}
又因?yàn)樯鲜街蟹帜笇τ谒?c_k 都是相同的,故上式可以簡化為
y = arg \max_{c_k} P(Y=c_k)\prod_{j}P(X^{(j)}=x^{(j)}|Y=c_k)

由上式可知,只要由訓(xùn)練數(shù)據(jù)估計(jì)出每一個類別的概率 P(Y=c_k) 和輸入的每一個特征值在某一類別下的概率 P(X^{(j)}=x^{(j)}|Y=c_k),便可進(jìn)行預(yù)測。下面介紹進(jìn)行估計(jì)的兩種方法。

參數(shù)估計(jì)

極大似然估計(jì)

假設(shè)訓(xùn)練數(shù)據(jù)集為 T = \\{(x_1,y_1),\dots,(x_n,y_n)\\}。
先驗(yàn)概率 P(Y=c_k) 的極大似然估計(jì)為
P(Y=c_k) = \frac{\sum_{i=1}^{N}I(y_i=c_k)}{N}
設(shè)第 j 個特征 x^{(j)} 可能取值的集合為 \\{a_{j1},\dots,a_{jS_j}\\},條件概率 P(X^{(j)}=a_{jl}|Y=c_k) 的極大似然估計(jì)為
P(X^{(j)}=a_{jl}|Y=c_k) = \frac{\sum_{i=1}^{N}I(x_{i}^{(j)}=a_{jl},y_i=c_k)}{\sum_{i=1}^{N}I(y_i=c_k)}
j=1,2,\dots,n;l=1,2,\dots,S_j;k=1,2,\dots,K
其中,x_{i}^{j} 是第 i 個樣本的第 j 個特征;a_{jl} 是第 j 個特征可能取的第 l 個值; I 為指示函數(shù),滿足取 1,否則取 0。

貝葉斯估計(jì)

極大似然估計(jì)可能會出現(xiàn)所要估計(jì)的概率值為0的情況,在隨機(jī)變量各個取值的頻數(shù)上賦予一個正數(shù) \lambda \gt 0,常取 \lambda = 1,稱為拉普拉斯平滑。
P_{\lambda}(Y=c_k) = \frac{\sum_{i=1}^{N}I(y_i=c_k)+{\lambda}}{N+K\lambda}
P_{\lambda}(X^{(j)}=a_{jl}|Y=c_k) = \frac{\sum_{i=1}^{N}I(x_{i}^{(j)}=a_{jl},y_i=c_k)+\lambda}{\sum_{i=1}^{N}I(y_i=c_k)+S_j\lambda}

實(shí)現(xiàn)

訓(xùn)練一個樸素貝葉斯分類器并確定 x=(2,S)^T 的類標(biāo)記 y。表中 X^{(1)},X^{(2)} 為特征,取值集合分別為 A_1 = \\{1,2,3\\}, A_2 = \\{S,M,L\\}Y 為類標(biāo)記,Y \in C =\\{1,-1\\}。

訓(xùn)練數(shù)據(jù) train_data.csv

ID,X1,X2,Y
1,1,S,-1
2,1,M,-1
3,1,M,1
4,1,S,1
5,1,S,-1
6,2,S,-1
7,2,M,-1
8,2,M,1
9,2,L,1
10,2,L,1
11,3,L,1
12,3,M,1
13,3,M,1
14,3,L,1
15,3,L,-1

代碼實(shí)現(xiàn) naivebayes.py

 # -*- coding: utf-8 -*-
import pandas as pd


def add2dict(thedict, key_a, key_b, val):
    if key_a in thedict.keys():
        thedict[key_a].update({key_b: val})
    else:
        thedict.update({key_a:{key_b: val}})        

def conditionalProbability(obj, attribute, clazz, lambd):
    C = obj[clazz].value_counts()
    label = C.index
    counts = C.values

    CP = dict()
    for i in range(label.size):
        for j in range(attribute.size):
            temp = obj[obj[clazz] == label[i]][attribute[j]] 
            CC = temp.value_counts()
            Sj = obj[attribute[j]].value_counts().index.size
            P = ( CC + lambd) / ( counts[i] + Sj*lambd)
            add2dict(CP,label[i],attribute[j],P) # Using dict to store probabilities
    return CP

def priorProbability(obj, clazz, lambd):
    C = obj[clazz].value_counts()
    N = float(obj.index.size)
    K = float(C.index.size)
    P = ( C + lambd ) / ( N + K*lambd)
    return P

def predicts(x, obj, attribute, clazz,lambd):
    label = obj[clazz].value_counts().index # Types of class
    P = priorProbability(obj,clazz, lambd) # Prior probability
    CP = conditionalProbability(obj, attribute, clazz, lambd) # Conditional probability
    max_p = 0 # Probability of the most likely class
    max_c = '' # The most likely class
    for i in range(label.size):
        cur_max_p = 1
        for j in range(attribute.size):
            cur_max_p *= CP[label[i]][attribute[j]][x[j]]
        cur_max_p *= P[label[i]]
        if cur_max_p > max_p:
            max_c = str(label[i])
            max_p = cur_max_p
    return [max_c,max_p]

df = pd.read_csv('train_data.csv', encoding='utf-8')
[max_c,max_p] = predicts([2,'S'],df, df.columns.drop('Y').drop('ID'), 'Y', 1)
print(max_c,max_p)
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容