交叉驗(yàn)證是一種非常常用的對于模型泛化能力進(jìn)行評估 方法,交叉驗(yàn)證既可以解決數(shù)據(jù)集的數(shù)據(jù)量不夠大問題,也可以解決參數(shù)調(diào)優(yōu)的問題。常用的交叉驗(yàn)證方法有:簡單交叉驗(yàn)證(HoldOu...
二維數(shù)組轉(zhuǎn)為一維數(shù)組 1.列表推導(dǎo)式 2. itertools 3.sum小技巧 4. operator 列表推導(dǎo)式參:《Python列表推導(dǎo)式和嵌套的列表推導(dǎo)式》[http...
一、啞變量 關(guān)于啞變量,這篇博文寫的很好,相關(guān)概念可以參閱:《機(jī)器學(xué)習(xí)總結(jié)之——Dummy Coding(啞變量)》[https://blog.csdn.net/weixin...
使用 make_blobs 生成數(shù)據(jù)集,指定樣本數(shù)據(jù)量 n_samples=40,分類 centers=2,隨機(jī)狀態(tài) random_state=50,標(biāo)準(zhǔn)差 cluster_...
引言 使用現(xiàn)成的 MNIST 數(shù)據(jù)集訓(xùn)練圖像識別,包含 70000 個(gè)手寫數(shù)字圖像,其中 60000 個(gè)是訓(xùn)練數(shù)據(jù),另外 10000 個(gè)是測試數(shù)據(jù)。每個(gè)樣本有 784 個(gè)特征...
引言 MLP算法,也叫前饋神經(jīng)網(wǎng)絡(luò)或多層感知器。關(guān)于MLP網(wǎng)上有很多,可以參考,比如《神經(jīng)網(wǎng)絡(luò)基礎(chǔ)-多層感知器(MLP)》[https://blog.csdn.net/wei...
引言 采用波士頓房價(jià)數(shù)據(jù),因?yàn)镾VM算法對數(shù)據(jù)預(yù)處理 要求較高,房價(jià)數(shù)據(jù)特征量級差異大,因此需要進(jìn)行預(yù)處理 代碼 執(zhí)行結(jié)果 注釋: 《Sklearn之?dāng)?shù)據(jù)預(yù)處理——Stand...
引言 SVM的基本概念 分隔超平面:將數(shù)據(jù)集分割開來的直線叫做分隔超平面。超平面:如果數(shù)據(jù)集是N維的,那么就需要N-1維的某對象來對數(shù)據(jù)進(jìn)行分割。該對象叫做超平面,也就是分類...
引言 ?隨機(jī)森林的原理網(wǎng)上有一大堆,作為入門小白,下面來根據(jù)教材敲兩個(gè)隨機(jī)森林的代碼。隨機(jī)森林有兩個(gè)比較重要的參數(shù):max_features 和 n_estimators。m...
引言 ?樸決策樹的原理可以參考我的另一篇<決策樹是什么東東?>[http://www.itdecent.cn/p/433e2de1785d]?采用紅酒的數(shù)據(jù)進(jìn)行建模,并繪制...
引言 使用威斯康星乳腺腫瘤數(shù)據(jù),用高斯樸素貝葉斯進(jìn)行建模。數(shù)據(jù)集包括569個(gè)兵力的數(shù)據(jù)樣本,每個(gè)樣本有30個(gè)特征值,樣本分為兩類:惡性(Malignant)和良性(Benig...
引言 ?在scikit-learn中,樸素貝葉斯有三種方法:貝努利樸素貝葉斯(BernoulliNB)、高斯樸素貝葉斯(GaussianNB)和多項(xiàng)式樸素貝葉斯(Multin...
一、線性模型基本概念 ?線性模型不是指某一個(gè)模型,而是一類模型。在機(jī)器學(xué)習(xí)領(lǐng)域,常用的線性模型包括,線性回歸、嶺回歸、套索回歸、邏輯回歸和線性SVC等。 1.線性模型的圖形表...
一、概述 數(shù)據(jù)集:數(shù)據(jù)集來自 scikit-learn 內(nèi)置的紅酒數(shù)據(jù)集,包括數(shù)據(jù) 'data', 目標(biāo)分類 'target', 目標(biāo)分類名'target_names', 數(shù)...
一、K最近鄰算法的原理 原理部分直接看我另一篇《KNN是什么東東?》,本文主要針對如何應(yīng)用。?K這個(gè)字母的含義就是最近鄰的個(gè)數(shù)。在scikit-learn中,K最近鄰算法的K...
引言 一、概念 1.貝葉斯定理關(guān)于[隨機(jī)]事件A和B的[條件概率](或[邊緣概率])的一則定理,為了解決一個(gè)“逆概率”的問題。貝葉斯公式是在條件概率和全概率公式的基礎(chǔ)上得來的...