四、LightGBM LightGBM也是常用的GBDT工具包,速度快于XGBoost,精度也還可以,其設(shè)計理念為: -單個機器在不犧牲速度的情況下,盡可能使用上更多...
四、LightGBM LightGBM也是常用的GBDT工具包,速度快于XGBoost,精度也還可以,其設(shè)計理念為: -單個機器在不犧牲速度的情況下,盡可能使用上更多...
@作者: 機器學(xué)習(xí)算法 @迪吉老農(nóng)[http://weibo.com/dijilaonong/] 最近使用GBDT時,想通過分布式進行訓(xùn)練,嘗試了一些框架,但原理不太了解。有...
Attention技術(shù)在 NLP 模型中幾乎已經(jīng)成了不可或缺的重要組成部分,最早Attention主要應(yīng)用在機器翻譯中起到了文本對齊的作用,比如下圖,Attention 矩陣...
@作者: 機器學(xué)習(xí)算法 @迪吉老農(nóng)[http://weibo.com/dijilaonong/] AUC這個指標在排序問題里經(jīng)常用到,之前也有個模糊的印象,就是一個排序正確的...
@作者: 機器學(xué)習(xí)算法 @迪吉老農(nóng)代碼地址:https://github.com/yandili/forge_load 1. 背景需求 最近組內(nèi)的GPU利用率一直被警告,說是...
@零亂徘徊 哈哈你發(fā)了這么多科普文
不正經(jīng)的微博大數(shù)據(jù):論桌上足球的攻防實踐作者:微博研發(fā)中心算法平臺@迪吉老農(nóng) 今天是春節(jié)前一天,作為目前在公司內(nèi)數(shù)一數(shù)二的選手,感覺可以和大家分享一下桌上足球這項運動的精髓。 1. 背景 桌上足球的英文是foosb...
一. 引述 傳統(tǒng)深度網(wǎng)絡(luò):數(shù)據(jù)驅(qū)動大量迭代遇到新數(shù)據(jù)重新訓(xùn)練低效 神經(jīng)圖靈機 (Neural Turing Machine):極少量樣本便可以進行有效學(xué)習(xí)強大的推理能力人類水...
@作者: 研發(fā)中心算法平臺 @迪吉老農(nóng) 假冒大V的頭像識別 一. 問題的定義 熱門微博的評論中出現(xiàn)了一批假冒名人頭像的用戶,在頭像右下角仿造了一個V字圖形。如圖, 熱門微博的...
分布式TensorFlow簡介 參數(shù)服務(wù)器 當(dāng)計算模型越來越大,模型的參數(shù)越來越多,多到模型參數(shù)的更新,一臺機器的性能都不夠時,我們需要將參數(shù)分開到不同的機器去存儲和更新。 ...
MXnet的學(xué)習(xí)筆記,這次主要是MXnet和TensorFlow在自然語言處理(NLP)上的應(yīng)用。關(guān)于MXnet中其他應(yīng)用例子的綜述介紹可以看這里[MXnet] Simple...