0. 背景 日常日報(bào)、月報(bào)、季度報(bào)等中的主要內(nèi)容都離不開核心指標(biāo)的變化。除了展示指標(biāo)變化的事實(shí)情況外,ld更關(guān)心指標(biāo)變化背后的原因:什么因素改變導(dǎo)致了指標(biāo)的變動(dòng)?這個(gè)...
0. 背景 日常日報(bào)、月報(bào)、季度報(bào)等中的主要內(nèi)容都離不開核心指標(biāo)的變化。除了展示指標(biāo)變化的事實(shí)情況外,ld更關(guān)心指標(biāo)變化背后的原因:什么因素改變導(dǎo)致了指標(biāo)的變動(dòng)?這個(gè)...
@Zc_c 更更更,這周就更
使用gspread讀寫google spreadsheets (1)0.0 前言 使用Python操作micrsoft offce實(shí)現(xiàn)辦公自動(dòng)化能夠極大的提高工作效率,包括 excel、word、powerpoint等。Google提...
0.0 前言 使用Python操作micrsoft offce實(shí)現(xiàn)辦公自動(dòng)化能夠極大的提高工作效率,包括 excel、word、powerpoint等。Google提...
上一篇討論了線性回歸和邏輯回歸的模型結(jié)構(gòu),以及從線性回歸到邏輯回歸的推導(dǎo)過程,這一篇將進(jìn)一步比較兩者的損失函數(shù)的異同。 1.0 線性回歸 1.1 平方和損失函數(shù)&一般...
線性回歸和邏輯回歸在統(tǒng)計(jì)上都屬于Conditional models(沒找到標(biāo)準(zhǔn)中文譯名),并且在sklearn中線性回歸類LinearRegression 和邏輯回...
0.0 描述統(tǒng)計(jì)學(xué)和推斷統(tǒng)計(jì)學(xué) 統(tǒng)計(jì)學(xué)是一門圍繞數(shù)據(jù)展開的科學(xué)。從應(yīng)用上看,可分為描述統(tǒng)計(jì)(descriptive statistics)和推斷統(tǒng)計(jì)(inferent...
1.0 重識(shí)決策樹 決策樹是在已知各種情況發(fā)生概率的基礎(chǔ)上,通過構(gòu)成預(yù)測點(diǎn),判斷其是否會(huì)發(fā)生的分析方法,是直觀運(yùn)用概率分析的一種圖解法。由于這種決策樹分支的圖形很像樹的枝干,...
1.0 假設(shè)檢驗(yàn) 假設(shè)檢驗(yàn)是建立在否定式邏輯上的一類概率驗(yàn)證方法。 1.1 否定式邏輯 否定式邏輯:若 AB,則 ~B~A。舉個(gè)例子,一般情況下若一個(gè)人性別為男性(A...
1.0 SVM解決回歸問題 SVM思想也可以解決回歸問題?;貧w問題的本質(zhì)就是找到一根能夠很好地?cái)M合數(shù)據(jù)點(diǎn)的線(直線、曲線)。但不同回歸算法對(duì)于擬合好壞的定義不同,比如線性回歸...
SVM的本質(zhì)上是一個(gè)線性分類器,并且引入了Margin區(qū)間的概念,保證Margin最大進(jìn)而提高模型的準(zhǔn)確性。Soft Margin對(duì)于SVM改善了模型泛化能力不足的問題,允許...
1.0 Soft Margin 1.1 Soft Margin的作用 在線性可分問題中,對(duì)于樣本點(diǎn)來說,存在一根直線可以將樣本點(diǎn)劃分,就稱之為Hard Margin SVM;...
1.0 什么是SVM 1.1 分類中的不適定問題 簡單的分類問題例子:在二維的特征平面中,已有一條決策邊界將所有的數(shù)據(jù)點(diǎn)分兩類,即藍(lán)色圓形和黃色三角。 但實(shí)際上,可以...
1.0高維數(shù)據(jù)向低維數(shù)據(jù)映射 僅僅提取一個(gè)數(shù)據(jù)集的n個(gè)主成分并沒有對(duì)數(shù)據(jù)維度造成改變。但利用提取出的主成分能夠選出使樣本方差最大的(小于n個(gè)數(shù)的)維度,以此實(shí)現(xiàn)對(duì)數(shù)據(jù)...
1.0 梯度求解PCA 在求極值的問題中,有梯度上升和梯度下降兩種最優(yōu)化方法。梯度上升用于求最大值,梯度下降用于求最小值。在線性回歸時(shí),為找到是損失函數(shù)最小的參數(shù)值使用了梯度...
1.0 PCA簡介 PCA(Principal Component Analysis),即主成分分析方法,是一種使用最廣泛的數(shù)據(jù)降維算法,也是一種非監(jiān)督的機(jī)器學(xué)習(xí)方法...
一類特殊的決策樹算法——CART,Classification And Regression Tree。 1.0 CART簡介 顧名思義,CART算法既可以用于創(chuàng)建分...
決策樹是完全利用現(xiàn)有數(shù)據(jù)信息的分類擬合,為了避免過擬合、提高模型泛化能力,需要對(duì)建立好的樹進(jìn)行剪枝。尤其是當(dāng)訓(xùn)練數(shù)據(jù)量大、特征數(shù)量較多時(shí),所構(gòu)建的決策樹可能很龐大且復(fù)...
上一篇介紹了決策樹中涉及的各分類依據(jù)指標(biāo)的概念,信息增益、信息增益率和基尼系數(shù)。在構(gòu)建樹模型時(shí)選擇的分類指標(biāo)不同,就有不同的決策樹構(gòu)建方法,如本篇將要介紹的最經(jīng)典決策樹...
構(gòu)建決策樹的關(guān)鍵步驟在于特征的選擇和劃分,那么究竟如何選擇最優(yōu)的劃分特征?又如何確定最合適的分割閾值?這些問題是基于信息論中的幾個(gè)概念解決的,信息熵(informati...
0.0 初識(shí)決策樹 決策樹的思路非常簡單,就是描述了人腦做決策的過程,整個(gè)決策過程使用樹形結(jié)構(gòu)進(jìn)行描繪。樹的每個(gè)內(nèi)部節(jié)點(diǎn)為一個(gè)決策點(diǎn),每個(gè)葉節(jié)點(diǎn)則為一個(gè)標(biāo)簽,即最后的決...