我想說:
可能一直關(guān)注我更新文章的童鞋,可能看出我的布局,基本是先搭一個框架然后挖坑去填,這可能是我做事情一個優(yōu)點,當(dāng)接觸到新事物總是能快速建立一個框架,然后去慢慢填,可能剛開始建立的框架是錯的,但是沒關(guān)系,后面隨著認(rèn)知的加深慢慢去改,這可能與我數(shù)學(xué)比較好有點關(guān)系(又開始了...對你無語?。。。?,跟著清華寧向東老師學(xué)習(xí)管理學(xué)半年,感覺在寧老師上課方式跟我學(xué)習(xí)知識有點相似(當(dāng)然應(yīng)該是我跟寧老師相似),框架搭好挖坑去填,然后多問為什么?另外我也一直反對老師上課用ppt,為什么不用板書,由以前的事半功倍,變成現(xiàn)在事倍功半,反而讓學(xué)生課后要花更多時間去自己琢磨學(xué)習(xí),愛學(xué)習(xí)的還好,就像我這種不愛學(xué)習(xí)的簡直是大坑。清華老校長梅貽琦先生的話:大學(xué)者,非有大樓之謂也,而有大師之謂也。
今天我們來研究cnn的源碼,不用dl框架,前邊文章已經(jīng)對卷積、池化、全連結(jié)、前向傳播、后向傳播等做了鋪墊,還少了激活函數(shù)(稍微提一下,使解決非線性成為可能,同時選擇不當(dāng)會導(dǎo)致梯度后向傳播失敗的問題)、BN(解決訓(xùn)練過程中數(shù)據(jù)彌散、加速訓(xùn)練,抗過擬合、彌補激活函數(shù)造成梯度后向傳播失敗的問題)等文章,后面會慢慢填起來。
又是截圖哈哈,個人觀點:好代碼是敲出來的;從來不是搬出來的;
開始順代碼:
推薦閱讀:
機器學(xué)習(xí)-1:MachineLN之三要素
機器學(xué)習(xí)-2:MachineLN之模型評估
機器學(xué)習(xí)-3:MachineLN之dl
機器學(xué)習(xí)-4:DeepLN之CNN解析
機器學(xué)習(xí)-5:DeepLN之CNN權(quán)重更新(筆記)
機器學(xué)習(xí)-6:DeepLN之CNN源碼
機器學(xué)習(xí)-7:MachineLN之激活函數(shù)
機器學(xué)習(xí)-8:DeepLN之BN
機器學(xué)習(xí)-9:MachineLN之?dāng)?shù)據(jù)歸一化
機器學(xué)習(xí)-10:MachineLN之樣本不均衡
機器學(xué)習(xí)-11:MachineLN之過擬合
機器學(xué)習(xí)-12:MachineLN之優(yōu)化算法
機器學(xué)習(xí)-13:MachineLN之kNN
機器學(xué)習(xí)-14:MachineLN之kNN源碼
機器學(xué)習(xí)-15:MachineLN之感知機
機器學(xué)習(xí)-16:MachineLN之感知機源碼
機器學(xué)習(xí)-17:MachineLN之邏輯回歸
機器學(xué)習(xí)-18:MachineLN之邏輯回歸源碼
版權(quán)聲明:本文為博主原創(chuàng)文章,未經(jīng)博主允許不得轉(zhuǎn)載。有問題可以加微信:lp9628(注明CSDN)。
最后編輯于 :
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。