LearnFromPapers系列——標簽增強技術(shù)(Label Enhancement) 作者:郭必揚 時間:2020.12.29 前言:我們...
投稿
LearnFromPapers系列——標簽增強技術(shù)(Label Enhancement) 作者:郭必揚 時間:2020.12.29 前言:我們...
前言: PyTorch的torch.nn中包含了各種神經(jīng)網(wǎng)絡層、激活函數(shù)、損失函數(shù)等等的類。我們通過torch.nn來創(chuàng)建對象,搭建網(wǎng)絡。PyT...
他山之玉——窺探CNN經(jīng)典模型 上一篇文章介紹了CNN的基礎(chǔ)知識以及它的優(yōu)勢,今天這篇文章主要來看一看一些著名的卷積神經(jīng)網(wǎng)絡的結(jié)構(gòu)特點,以便我們...
初識卷積神經(jīng)網(wǎng)絡(CNN) 從今天起,正式開始講解卷積神經(jīng)網(wǎng)絡。這是一種曾經(jīng)讓我無論如何也無法弄明白的東西,主要是名字就太“高級”了,網(wǎng)上的各種...
使用TensorFlow搭建神經(jīng)網(wǎng)絡——手寫數(shù)字識別 之前又有很長一段時間在講理論,上次實踐還是用python實現(xiàn)Logistic regres...
深度學習中的正則化(Regularization) 一、Bias(偏差) & Variance(方差) 在機器學習中,這兩個名詞經(jīng)常讓我們傻傻分...
深度學習中的的超參數(shù)調(diào)節(jié) 我們平時一直都在說“調(diào)參、調(diào)參”,但實際上,不是調(diào)“參數(shù)”,而是調(diào)“超參數(shù)”。 一、參數(shù)(Parameter)和超參數(shù)...
神經(jīng)網(wǎng)絡的每一層基本都是在一個線性運算后面來一個非線性激活函數(shù)(Activation function),再把值傳給下一層的。激活函數(shù)有多種,這...
好久沒寫了,之前是每周都會寫一兩篇,前段時候回家陪爸媽旅游了 ̄▽ ̄,這段時候又在學習keras并復現(xiàn)一些模型,所以一直沒寫。今天8月第一天,趕緊...
窮學生學習神經(jīng)網(wǎng)絡一定體會過“等待”的痛苦。。。循環(huán)一次epoch急死人,但是有幾十個上百個循環(huán)等著你!你盯著屏幕看著進度條像蝸牛一樣推進,真是...