決策樹是機器學習中應用很廣泛的算法,它不僅可以處理分類和回歸問題,還可以產(chǎn)出特征重要性、連續(xù)變量分箱等副產(chǎn)物。決策樹有著可解釋性強、原理簡單、效率高的特點。在決策樹算法的發(fā)展...
決策樹是機器學習中應用很廣泛的算法,它不僅可以處理分類和回歸問題,還可以產(chǎn)出特征重要性、連續(xù)變量分箱等副產(chǎn)物。決策樹有著可解釋性強、原理簡單、效率高的特點。在決策樹算法的發(fā)展...
服從多項式分布的隨機向量 滿足如下條件: 1),且; 2)設 為任意非負整數(shù),且 ; 事件 發(fā)生的概率為: 其中,,。 【舉例】一個6面的均勻骰子,投擲6次,投擲結果為...
在上一篇文章中,我們介紹了如何用梯度下降法進行神經(jīng)網(wǎng)絡的訓練與優(yōu)化?,F(xiàn)在我們用一個實際的數(shù)據(jù)集:FashionMNIST,完整的實現(xiàn)構建神經(jīng)網(wǎng)絡并訓練優(yōu)化,在這一過程中,我們...
在前面的文章中,我們介紹了為線性回歸、二分類、三分類神經(jīng)網(wǎng)絡的優(yōu)化選取適當?shù)膿p失函數(shù)。我們知道,當損失函數(shù)的值越小,代表神經(jīng)網(wǎng)絡預測值與真實值之間的差異越小,模型效果越好。對...
在前面的文章中,我們介紹了單層和多層神經(jīng)網(wǎng)絡的正向傳播過程,同時也使用了torch.nn來實現(xiàn)這一過程。不難發(fā)現(xiàn),模型中的權重對模型輸出的預測結果起著很重要的作用。而前面我們...
本文將通過一個例子,使用torch.nn中Module類的繼承來完整實現(xiàn)一個多層神經(jīng)網(wǎng)絡的正向傳播過程。此外,文中將介紹類繼承過程中定義init()函數(shù)時super()的用法...
本文主要以異或門問題為例子,介紹多層神經(jīng)網(wǎng)絡。我們將從上一篇文章中介紹的單層神經(jīng)網(wǎng)絡出發(fā),學習或門、非與門、異或門問題,了解單層神經(jīng)網(wǎng)絡在面對非線性問題(e.g. 異或門問題...
本文將從一個簡單的線性回歸問題出發(fā),構建單層神經(jīng)網(wǎng)絡,并手動實現(xiàn)它的正向傳播。同時,我們將介紹如何使用PyTorch中的核心模塊torch.nn來構建該線性回歸的神經(jīng)網(wǎng)絡。最...
最小二乘法可以用來求解線性回歸模型中權重參數(shù)的最優(yōu)解,本文將對這一求解過程做簡要概述。 線性回歸模型 對于第 個樣本 (),我們有:其中,為樣本 的標簽, 為樣本 的 ...
本文主要參考B站UP主GRNovmbrain的推導視頻,鏈接如下:https://www.bilibili.com/video/BV1xk4y1B7RQ/?vd_source...
張量Tensor是深度學習框架Pytorch中的基礎數(shù)據(jù)結構。類似于Array是Numpy中的基礎數(shù)據(jù)結構一樣,tensor及其對應的方法函數(shù),為在Pytorch上進行深度學...
當構建 prior distribution 時,若沒有足夠的群體信息支持,我們通常希望構建的 prior 在我們的 posterior 中影響越小越好,即,posterio...