寫在前面 有一個多月沒有更新博客了,整個三月份都在忙項目的事,忙著各種掃尾解決一些“歷史遺留問題”。終于到了清明節(jié)假期,可以寫一寫博客了。老實講,一共有好幾篇可以寫,不過想來...
IP屬地:江西
寫在前面 有一個多月沒有更新博客了,整個三月份都在忙項目的事,忙著各種掃尾解決一些“歷史遺留問題”。終于到了清明節(jié)假期,可以寫一寫博客了。老實講,一共有好幾篇可以寫,不過想來...
xgboost 已然火爆機器學習圈,相信不少朋友都使用過。要想徹底掌握xgboost,就必須搞懂其內(nèi)部的模型原理。這樣才能將各個參數(shù)對應到模型內(nèi)部,進而理解參數(shù)的含義,根據(jù)需...
文/pennys 我的男友,是程序猿。 是的,就是你們所認識的那種研究代碼的程序員。 對于這樣一群耀眼的互聯(lián)網(wǎng)寵兒們,最常見的標簽是高智商和低情商。見過不少女孩吐槽程序猿不懂...
「寫在前面」 Hello,World! 這篇文章作為申請了蠻久的賬號的第一篇文章,如果你還沒有開始系統(tǒng)地學習過AI算法相關(guān)知識,它應該能夠讓你對AI有些新的認知和理解,多些...
想要降維,隨意丟棄數(shù)據(jù)顯然不可取,降維可以降低程序計算復雜度,代價是丟棄了原始數(shù)據(jù)一些信息,那么降維的同時,又保留數(shù)據(jù)最多信息呢。 我們希望投影后投影值盡可能分散(不然數(shù)據(jù)都...