決策樹是機器學習中應(yīng)用很廣泛的算法,它不僅可以處理分類和回歸問題,還可以產(chǎn)出特征重要性、連續(xù)變量分箱等副產(chǎn)物。決策樹有著可解釋性強、原理簡單、效率高的特點。在決策樹算法的發(fā)展...
決策樹是機器學習中應(yīng)用很廣泛的算法,它不僅可以處理分類和回歸問題,還可以產(chǎn)出特征重要性、連續(xù)變量分箱等副產(chǎn)物。決策樹有著可解釋性強、原理簡單、效率高的特點。在決策樹算法的發(fā)展...
服從多項式分布的隨機向量 滿足如下條件: 1),且; 2)設(shè) 為任意非負整數(shù),且 ; 事件 發(fā)生的概率為: 其中,,。 【舉例】一個6面的均勻骰子,投擲6次,投擲結(jié)果為...
在上一篇文章中,我們介紹了如何用梯度下降法進行神經(jīng)網(wǎng)絡(luò)的訓(xùn)練與優(yōu)化。現(xiàn)在我們用一個實際的數(shù)據(jù)集:FashionMNIST,完整的實現(xiàn)構(gòu)建神經(jīng)網(wǎng)絡(luò)并訓(xùn)練優(yōu)化,在這一過程中,我們...
在前面的文章中,我們介紹了為線性回歸、二分類、三分類神經(jīng)網(wǎng)絡(luò)的優(yōu)化選取適當?shù)膿p失函數(shù)。我們知道,當損失函數(shù)的值越小,代表神經(jīng)網(wǎng)絡(luò)預(yù)測值與真實值之間的差異越小,模型效果越好。對...
當構(gòu)建 prior distribution 時,若沒有足夠的群體信息支持,我們通常希望構(gòu)建的 prior 在我們的 posterior 中影響越小越好,即,posterio...
張量Tensor是深度學習框架Pytorch中的基礎(chǔ)數(shù)據(jù)結(jié)構(gòu)。類似于Array是Numpy中的基礎(chǔ)數(shù)據(jù)結(jié)構(gòu)一樣,tensor及其對應(yīng)的方法函數(shù),為在Pytorch上進行深度學...
本文主要參考B站UP主GRNovmbrain的推導(dǎo)視頻,鏈接如下:https://www.bilibili.com/video/BV1xk4y1B7RQ/?vd_source...
最小二乘法可以用來求解線性回歸模型中權(quán)重參數(shù)的最優(yōu)解,本文將對這一求解過程做簡要概述。 線性回歸模型 對于第 個樣本 (),我們有:其中,為樣本 的標簽, 為樣本 的 ...
本文將從一個簡單的線性回歸問題出發(fā),構(gòu)建單層神經(jīng)網(wǎng)絡(luò),并手動實現(xiàn)它的正向傳播。同時,我們將介紹如何使用PyTorch中的核心模塊torch.nn來構(gòu)建該線性回歸的神經(jīng)網(wǎng)絡(luò)。最...