業(yè)界通常認為第一層是隱藏層的第一層
AI會遇上工程類問題
Padding補零操作,可以保證卷積核在每塊區(qū)域都進行卷積,迭代次數(shù)越多,更有效果,提取特征更好
生成器和迭代器,存在的意義,一般我們需要對一個數(shù)組進行操作的時候,我們要遍歷出來操作,比如一億個參數(shù),我們不可能一次性全部取出來,一個一個的去取,這就是生成器存在的意義。
Dataloader加載數(shù)據(jù)到內(nèi)存
Next(iter(a))
轉(zhuǎn)換成0,1 轉(zhuǎn)換成正態(tài)分布
化為標準正態(tài)分布之后,學習率是最高的
One-hot torch.scatter() 起到填充的效果
One-hot編碼
豬【1,0,0】 狗【0,1,0】 ?!?,0,1】
因為標簽是單一的一個啊,所以我們需要轉(zhuǎn)化我們的標簽為獨熱編碼。
當我們網(wǎng)絡跑出【0.1,0.7,0.3】該值與狗最相近
為了生成one-hot
需要零矩陣
Torch.zeros()//幫我們生成了零陣
反向求導,就是做梯度更新的意思
關(guān)于激活函數(shù)
激活函數(shù)都是高度非線性的,會有一個陡增的變化趨勢,從中其實我們可以得知,需要擬合度越高越好。擬合我們的訓練數(shù)據(jù)。

圖片1.png