綜述 GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一種...
綜述 GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一種...
簡介 K均值聚類,也叫做K-Means Clustering,是一種著名的用于分類問題的無監(jiān)督機器學(xué)習(xí)聚類算法。聚類是針對給定的樣本, 依靠它們特征的相似度或者距離,將其歸到...
簡介 Visual Transformer (ViT) 出自于論文《AN IMAGE IS WORTH 16X16 WORDS: TRANSFORMERS FOR IMAGE...
簡介 Transformer出自于Google于2017年發(fā)表的論文《Attention is all you need》[https://arxiv.org/abs/170...
簡介 本文的目的是通過實際代碼編寫來實現(xiàn)ViT模型,進(jìn)一步加對ViT模型的理解,如果還不知道ViT模型的話,可以先看下博客[http://www.itdecent.cn/p...
簡介 集成學(xué)習(xí),顧名思義就是將多種學(xué)習(xí)器或算法結(jié)合在一起,共同做出決策。這符合人類集思廣益的做法,在業(yè)界也是應(yīng)用最為廣泛的方法之一。注意,集成學(xué)習(xí)的本質(zhì)是如何找到不同的模型,...
簡介 大概是今年6月份參加微信大數(shù)據(jù)挑戰(zhàn)賽的時候,我才開始認(rèn)識到特征選擇也是機器學(xué)習(xí)中非常重要的一環(huán)。在諸如CTR等比賽中,原始特征往往是不足以挖掘出數(shù)據(jù)中隱藏的信息的,因此...
簡介 決策樹模型是最常見的機器學(xué)習(xí)方法之一,也是入門機器學(xué)習(xí)必須掌握的知識。決策樹模型呈現(xiàn)樹形結(jié)構(gòu),在分類問題中,表示基于特征對實例進(jìn)行分類的過程。它可以認(rèn)為是if-then...
簡介 特征離散化指的是將連續(xù)特征劃分離散的過程:將原始定量特征的一個區(qū)間一一映射到單一的值。離散化過程也被表述成分箱(Binning)的過程。特征離散化常應(yīng)用于邏輯回歸和金融...