什么是集成學(xué)習(xí)? 對(duì)于不同的算法,同一個(gè)問題給出的結(jié)果可能不盡相同,這時(shí)我們應(yīng)該如何判斷最為準(zhǔn)確?答案是使用不同算法都進(jìn)行運(yùn)算,最后留一個(gè)投票環(huán)節(jié),這時(shí)多數(shù)算法認(rèn)為的結(jié)果我們...
什么是集成學(xué)習(xí)? 對(duì)于不同的算法,同一個(gè)問題給出的結(jié)果可能不盡相同,這時(shí)我們應(yīng)該如何判斷最為準(zhǔn)確?答案是使用不同算法都進(jìn)行運(yùn)算,最后留一個(gè)投票環(huán)節(jié),這時(shí)多數(shù)算法認(rèn)為的結(jié)果我們...
準(zhǔn)確度陷阱 我們首先看一下這個(gè)例子 何為準(zhǔn)確度陷阱?對(duì)于極度偏斜的數(shù)據(jù),只使用分類準(zhǔn)確度是遠(yuǎn)遠(yuǎn)不夠的,我們很容易完全沒法判斷算法的好壞。 混淆矩陣(二分類問題) 精準(zhǔn)率和召回...
原理 前面我們學(xué)習(xí)了線性回歸,顧明思議,我們擬合的結(jié)果是線性的函數(shù),而對(duì)于有一些數(shù)據(jù),其分布明顯是屬于非線性的,這時(shí)我們應(yīng)該怎么辦呢? 其實(shí)我們整體上還是采用線性回歸的方法,...
理論 線性回歸算法用于解決回歸問題,而前述的knn算法用于解決分類問題 目的是尋找一條直線,最大程度上擬合樣本特征和樣本輸出標(biāo)記之間的關(guān)系 樣本特征只有一個(gè)時(shí)稱為簡(jiǎn)單線性回歸...
在進(jìn)行一些基礎(chǔ)的ML算法學(xué)習(xí)之前,數(shù)據(jù)可視化也是必不可少的一部分,這里甚為疏淺的羅列了部分簡(jiǎn)易知識(shí)點(diǎn),原因在于個(gè)人認(rèn)為這并非ML中需要過于強(qiáng)調(diào)的地方,不過后續(xù)有遇到尚未羅列的...
在學(xué)習(xí)機(jī)器學(xué)習(xí)之前,必不可少的一步便是numpy相關(guān)的學(xué)習(xí),這里我只列出了我目前學(xué)習(xí)ML遇到過的需要注意或者查閱的numpy基礎(chǔ)知識(shí),內(nèi)容也較為粗略,本意是方便本人日后查閱使...