deep-learning(1) - 隨手記錄的知識點

業(yè)界通常認為第一層是隱藏層的第一層

AI會遇上工程類問題

Padding補零操作,可以保證卷積核在每塊區(qū)域都進行卷積,迭代次數(shù)越多,更有效果,提取特征更好

生成器和迭代器,存在的意義,一般我們需要對一個數(shù)組進行操作的時候,我們要遍歷出來操作,比如一億個參數(shù),我們不可能一次性全部取出來,一個一個的去取,這就是生成器存在的意義。

Dataloader加載數(shù)據(jù)到內(nèi)存

Next(iter(a))

轉(zhuǎn)換成0,1 轉(zhuǎn)換成正態(tài)分布

化為標準正態(tài)分布之后,學習率是最高的

One-hot torch.scatter() 起到填充的效果

One-hot編碼

豬【1,0,0】 狗【0,1,0】 ?!?,0,1】

因為標簽是單一的一個啊,所以我們需要轉(zhuǎn)化我們的標簽為獨熱編碼。

當我們網(wǎng)絡跑出【0.1,0.7,0.3】該值與狗最相近

為了生成one-hot

需要零矩陣

Torch.zeros()//幫我們生成了零陣

反向求導,就是做梯度更新的意思

關(guān)于激活函數(shù)

激活函數(shù)都是高度非線性的,會有一個陡增的變化趨勢,從中其實我們可以得知,需要擬合度越高越好。擬合我們的訓練數(shù)據(jù)。


圖片1.png
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關(guān)閱讀更多精彩內(nèi)容

  • 莫煩Pytorch代碼筆記 pytorch已經(jīng)是非常流行的深度學習框架了,它的動態(tài)計算圖特性在NLP領(lǐng)域是非常有用...
    雪離開的地方閱讀 5,306評論 0 7
  • 本文是Deep Learning Course總結(jié)系列的第五篇,本文的主要內(nèi)容是對生成模型PixelCNN,Pix...
    舒也ella閱讀 3,542評論 0 4
  • 女性必須學會欣賞同性,必須要有可以相濡以沫的女朋友。 不妒忌,不猜忌,并且懂得不用道德枷鎖和有色眼鏡來綁架你的同性...
    陳妥閱讀 989評論 0 3
  • 所慕山河遇城雨,輕紙傘,拈葉玉珠,萬般朦朧靜 步履塵寰經(jīng)世事,易紙筆,難言聲色,付悅他人顏
    臨窗雨幕閱讀 33評論 0 1
  • 十一月 一個我無法定義的季節(jié) 充滿了 粉紅色的幻想和欣喜 似乎 真的是驗證未知 就在剛剛 滿心歡喜憧憬十一月 ...
    平步青云V閱讀 320評論 0 2

友情鏈接更多精彩內(nèi)容