半監(jiān)督學習 當我們的訓練集標簽缺失,也就是有訓練集X1=[(x.y)....],X2=[(x)...]。前者數(shù)據(jù)有標簽,后者數(shù)據(jù)無標簽。我們訓練一個模型時,如果只使用前者對后...
半監(jiān)督學習 當我們的訓練集標簽缺失,也就是有訓練集X1=[(x.y)....],X2=[(x)...]。前者數(shù)據(jù)有標簽,后者數(shù)據(jù)無標簽。我們訓練一個模型時,如果只使用前者對后...
kaggle比賽利器stacking 模型疊加 我們以二層疊加為例子理解它 我們有模型model1(可以是GBDT.xgboots等等) 有訓練集500,驗證集200 首先我...
LR+GBDT 在推薦問題中,我們一般都預測用戶是否做某事,是一個二分類問題。 對于二分類問題一般我們使用的是邏輯回歸。邏輯回歸是廣義的線性模型,增加sigma函數(shù)使其輸出值...
矩陣分解funkSVD:該矩陣分解不像是線代中的,他屬于偽分解。其主要思想是,用兩個m*k和k*n的矩陣代替m*n的矩陣。 因為在推薦系統(tǒng)中,矩陣十分稀疏,分解后的矩陣一般是...
我們平時很容易遇到說排序,并取前N個的狀況。我們根據(jù)數(shù)據(jù)類型可以簡單分為重復鍵和不重復鍵的topN MapReduce 對于MR來說,topN代碼比較多一些,在這里我只講講思...
fasttext作為NPL領(lǐng)域中機器學習的優(yōu)秀范例值得研究。 模型架構(gòu) 我對fasttext模型架構(gòu)理解與CBOW很像。在訓練時,通過N-gram把詞向量喂入模型,輸出屬于各...
stocker是基于google時間序列預測模型 - 預測者實現(xiàn)的股票預測。 因為項目要求股票分析,所以使用了該庫,對該庫進行簡短總結(jié)。預測者模型的論文地址https://p...
之前在文章《<模型匯總_1>牛逼的深度卷積神經(jīng)網(wǎng)絡(luò)CNN》詳細介紹了卷積神經(jīng)網(wǎng)絡(luò)的基本原理,以及常見的基本模型,如LeNet,VGGNet,AlexNet,ReseNet,I...