1.ALS 2.基于ALS算法的改進(jìn) 3.實(shí)驗(yàn)結(jié)果分析 4.結(jié)論 1.ALS 1.1ALS算法的基本思想 ALS(交替最小二乘法)將一個(gè)矩陣分解...
1.為什么要矩陣分解 2.矩陣分解的算法 3.矩陣分解算法的應(yīng)用場(chǎng)景 4.評(píng)價(jià)指標(biāo) ------------------------------...
這部分主要對(duì)kaggle的比賽Home Credit Default Risk做的一些探索性數(shù)據(jù)分析(EDA) 讀入數(shù)據(jù) 查看數(shù)據(jù) 查看缺失的數(shù)...
我們將初步了解一下在Kaggle上舉辦的Home Credit Default Risk機(jī)器學(xué)習(xí)競(jìng)賽。這項(xiàng)比賽的目的是利用歷史貸款申請(qǐng)數(shù)據(jù)來(lái)預(yù)測(cè)...
之前有寫(xiě)過(guò)一篇關(guān)于Titanic比賽的簡(jiǎn)書(shū),這幾天上kaggle-Titanic的kernels在MostVost找了一篇排第一的kernels...
第一周 1.單變量線性回歸(Linear Regression with One Variable) 1.1模型表示 單變量線性回歸,這樣子看上...
損失函數(shù) 機(jī)器學(xué)習(xí)模型關(guān)于單個(gè)樣本的預(yù)測(cè)值與真實(shí)值的差稱(chēng)為損失。損失越小,模型越好,如果預(yù)測(cè)值與真實(shí)值相等,就是沒(méi)有損失。損失函數(shù)(Loss f...
特征選擇和降維計(jì)算一樣,都能有效的減輕維數(shù)災(zāi)難問(wèn)題,事實(shí)上,特征選擇和降維計(jì)算是處理高維數(shù)據(jù)的兩大主流技術(shù) 什么是特征選擇 對(duì)于一個(gè)學(xué)習(xí)任務(wù)來(lái)說(shuō)...
什么是聚類(lèi) 聚類(lèi)試圖將數(shù)據(jù)集中的樣本劃分為若干個(gè)通常是不相交的子集,每個(gè)子集成為一個(gè)“簇”。通過(guò)這樣的劃分,每個(gè)簇可能對(duì)應(yīng)于一些潛在的概念(也就...