(1)條件概率公式 設(shè)A,B是兩個事件,且P(B)>0,則在事件B發(fā)生的條件下,事件A發(fā)生的條件概率(conditional proba...
Mini-batch 梯度下降 如果訓(xùn)練集較小,直接使用 batch 梯度下降法,樣本集較小就沒必要使用 mini-batch 梯度下降法,你可...
大數(shù)據(jù)時代,我們現(xiàn)在的數(shù)據(jù)量可能是百萬級別,那么驗證集和測試集占數(shù)據(jù)總量的比例會趨向于變得更小。因為驗證集的目的就是驗證不同的算法,檢驗?zāi)姆N算法...
為避免隱層神經(jīng)元的作用完全一樣,我們可以隨機初始化參數(shù),例如:把??[1] 設(shè)為np.random.randn(2,2)(生成高斯分布),通常再乘...
為什么relu這種“看似線性”(分段線性)的激活函數(shù)所形成的網(wǎng)絡(luò),居然能夠增加非線性的表達能力。 1、首先什么是線性的網(wǎng)絡(luò),如果把線性網(wǎng)絡(luò)看成一...
VS Code中開啟筆記本模式,代碼前加一行#%%就可以了。 Code Runner中打開Run in terminal設(shè)置即可支持conda虛...
計算圖:TODO Session Where we launch the graph. A Session object is the part...
泛化(generalization) 正則化(regularization): 歸一化(normalization):