Adaboost 分類(lèi) GBDT(Gradient Boosting Decision Tree) 梯度提升樹(shù) XGBoost XGboost原...
Bagging 隨機(jī)森林 隨機(jī)森林=決策樹(shù)+Bagging Boosting
準(zhǔn)備工作 如果我們要把樣本畫(huà)成一棵樹(shù)(這棵樹(shù)可以用來(lái)查找最近鄰或者是分類(lèi)),那我們最想知道的就是:拿哪個(gè)特征去拆分樣本,并且要具體到拿哪個(gè)特征的...
準(zhǔn)備工作 學(xué)習(xí)決策樹(shù),要先了解信息熵和信息增益等概念。參考:https://blog.csdn.net/zhengudaoer/article/...
KNN(k-NearestNeighbor) 主要做分類(lèi)。也可以做回歸,回歸的是某一個(gè)屬性或特征值。找一下周?chē)泥従觽?,看鄰居們是什么,就大概?..
邏輯回歸 用sigmoid函數(shù),把線(xiàn)性回歸的結(jié)果進(jìn)行壓縮,壓縮到0~1之間。然后,把壓縮結(jié)果和分類(lèi)輸出y(假設(shè)是0和1)對(duì)應(yīng)起來(lái):壓縮結(jié)果>0....
背景 整理一下機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的知識(shí)。記憶力下降的厲害,不整理無(wú)動(dòng)力學(xué)習(xí),寫(xiě)博客大概是自我救贖的好途徑吧。 梯度下降幾句話(huà) 內(nèi)容轉(zhuǎn)載自:htt...
背景 把學(xué)過(guò)的數(shù)學(xué)知識(shí)整理一下,雖然一時(shí)用不到,但相信將來(lái)的某個(gè)時(shí)間點(diǎn),會(huì)有用武之地的。 1 向量,向量的模,數(shù)量積(內(nèi)積,點(diǎn)積),向量積(外積...
1 問(wèn)題 VS2015運(yùn)行一個(gè)工程時(shí)(工程中調(diào)用了一些dll文件),遇到error:無(wú)法啟動(dòng)此程序,因?yàn)橛?jì)算機(jī)中缺失cublas64_100.d...