分類

K-近鄰

步驟:
1、初始化距離為最大值
2、計(jì)算未知樣本和每個(gè)訓(xùn)練樣本的距離dist
3、得到目前k個(gè)最鄰近樣本中的最大距離maxdist
4、如果dist小于maxdist,則將該訓(xùn)練樣本作為K-最鄰近樣本
5、重復(fù)步驟2~4,直到未知樣本和所有訓(xùn)練樣本的距離都算完
6、統(tǒng)計(jì)K個(gè)最鄰近樣本中每個(gè)類別出現(xiàn)的次數(shù)
7、選擇出現(xiàn)頻率最大的類別作為未知樣本的類別

貝葉斯分類

貝葉斯定理能夠告訴我們?nèi)绾卫眯伦C據(jù)修改已有看法。
原理:對(duì)于給出的待分項(xiàng),求解在此項(xiàng)出現(xiàn)的條件下各個(gè)類別出現(xiàn)的概率,哪個(gè)最大,就認(rèn)為此待分項(xiàng)屬于哪個(gè)類別。
步驟:
1、設(shè)x = {a1,a2,...am}為一個(gè)待分項(xiàng)類,而每個(gè)a為x的一個(gè)特征屬性
2、有類別集合C = {y1,y2,...yn}
3、計(jì)算P(y1|x),P(y2|x),...P(yn|x)
4、如果P(yk|x) = max{P(y1|x),P(y2|x),...P(yn|x)},則x屬于yk

神經(jīng)網(wǎng)絡(luò)模型

神經(jīng)網(wǎng)絡(luò)通常需要訓(xùn)練,訓(xùn)練的過(guò)程就是網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)的過(guò)程,訓(xùn)練改變了網(wǎng)絡(luò)節(jié)點(diǎn)的連接權(quán)的值使其具有分類功能,經(jīng)過(guò)訓(xùn)練的網(wǎng)絡(luò)就可以用于對(duì)象的識(shí)別。
步驟:
1、令D={(x,y),i=1,2,...n}是訓(xùn)練樣例集。
2、用隨機(jī)值初始化權(quán)值向量w
3、對(duì)每個(gè)訓(xùn)練樣例(x,y)計(jì)算預(yù)測(cè)輸出y
4、對(duì)每個(gè)權(quán)值w更新權(quán)值wj = wj+r(yi-yik)xij
5、重復(fù)步驟3,4直至滿足終止條件

邏輯斯蒂
判別分析原理
支持向量機(jī)

SVM:構(gòu)建了一個(gè)分割兩類的超平面,在構(gòu)建過(guò)程中,SVM算法試圖使兩類之間的分割達(dá)到最大化。

決策樹(shù)
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 待處理統(tǒng)計(jì)學(xué)習(xí)方法:羅杰斯特回歸及Tensorflow入門(mén) 參考閱讀深度學(xué)習(xí)筆記(一):logistic分類Log...
    jiandanjinxin閱讀 8,503評(píng)論 0 3
  • 一、k-最近鄰 1、算法 積極學(xué)習(xí)方法(eager learner):通過(guò)訓(xùn)練樣本建立模型。消極學(xué)習(xí)方法(lazy...
    longgb246閱讀 2,157評(píng)論 0 0
  • 一文搞懂樸素貝葉斯分類 閱讀此文假設(shè)你已經(jīng)具備高中數(shù)學(xué)知識(shí) 什么是樸素貝葉斯 要搞懂樸素貝葉斯分類,首先需要了解什...
    程序員Morgan閱讀 845評(píng)論 1 5
  • 十五、分類 原文:Classification 譯者:飛龍 協(xié)議:CC BY-NC-SA 4.0 自豪地采用谷歌翻...
    布客飛龍閱讀 652評(píng)論 0 4
  • 狗深深地愛(ài)上了狐貍,可他們卻遇到了死神。狗深深地愛(ài)上了狐貍,可他們卻遇到了死神。 死狗深深地愛(ài)上了狐貍,可他們卻遇...
    游戲dgb閱讀 315評(píng)論 0 1

友情鏈接更多精彩內(nèi)容