深度學(xué)習(xí): 看這個(gè)就知道池化的減小幅度了。 將上一次的輸出和當(dāng)前的輸入綜合分析。 剛開(kāi)始傳入的值會(huì)隨著程序的進(jìn)行對(duì)決測(cè)值的影響會(huì)越來(lái)越小。 這個(gè)是輸入門(mén),輸出門(mén),忘記門(mén)共同控...
深度學(xué)習(xí): 看這個(gè)就知道池化的減小幅度了。 將上一次的輸出和當(dāng)前的輸入綜合分析。 剛開(kāi)始傳入的值會(huì)隨著程序的進(jìn)行對(duì)決測(cè)值的影響會(huì)越來(lái)越小。 這個(gè)是輸入門(mén),輸出門(mén),忘記門(mén)共同控...
深度學(xué)習(xí): 最后一個(gè)值和第一個(gè)值是固定值。 這里是直接求總和,然后偏置值只加了一個(gè)。 一共有 16 個(gè)這樣的卷積核,說(shuō)明卷積操作后輸出圖片的深度是 16。 第一個(gè)是四個(gè)里面選...
深度學(xué)習(xí): 把它變?yōu)楦↑c(diǎn)數(shù)區(qū)間為0到1的數(shù)。 這里他是將訓(xùn)練集還有測(cè)試集的啥的按照他的格式去保存,存儲(chǔ)下來(lái)后可以解壓他成為有圖片有標(biāo)簽?zāi)欠N數(shù)據(jù)集。 每次從總量中抽取1000張...
深度學(xué)習(xí): 這里衰減率就是比值和一串英文字母中更小的那個(gè)值,其他計(jì)算參考公式就行。 注意看最后一個(gè)函數(shù)里面會(huì)用到。 這個(gè)函數(shù)可以把所有待訓(xùn)練的參數(shù)匯總成列表。 對(duì)括號(hào)內(nèi)的參數(shù)...
深度學(xué)習(xí) 主要看第一句概括三句話(huà) 主要看下面四行。 這里的網(wǎng)絡(luò)結(jié)合下面的代碼看就懂了,y_是標(biāo)準(zhǔn)標(biāo)簽。然后他把x輸入搞一波得到一個(gè)輸出y。y就是理想中的最優(yōu)值,在這里面可以當(dāng)...
深度學(xué)習(xí) Tensorflow在取名字時(shí)可以與命名空間重名。 這里講的是可視化: 在可視化的操作中,如果遇到InvalidArgumentError這種錯(cuò)誤需要添加tf.re...
深度學(xué)習(xí) 這里有兩個(gè)乘號(hào)意思就是幾次方。 學(xué)習(xí)率是學(xué)習(xí)率,優(yōu)化率是優(yōu)化率。這里是優(yōu)化完學(xué)習(xí)率參數(shù)的: 他能到98.你調(diào)節(jié)lr就可以變自調(diào) 更換節(jié)點(diǎn)使用率的實(shí)驗(yàn)結(jié)果:對(duì)比之下相...
深度學(xué)習(xí) 紀(jì)念自己的計(jì)算機(jī)跑累死4層網(wǎng)路千個(gè)節(jié)點(diǎn)的算法??! 這一次在改代碼時(shí)如果遇到啥系統(tǒng)的問(wèn)題或者bug報(bào)錯(cuò)是幾千行然后說(shuō)系統(tǒng)的原因一般就沒(méi)啥事。改一兩行。 標(biāo)準(zhǔn)的缺點(diǎn):時(shí)...
深度學(xué)習(xí) z的那個(gè)求導(dǎo)是他自己給的 那里注意如果是線(xiàn)性的則二次代價(jià)函數(shù)更適合,如果是S型函數(shù)則交叉熵更好。 Tensorflow這個(gè)軟件需要一層一層地去執(zhí)行代碼! 而且這里做...
深度學(xué)習(xí) 這里的主要原因不知道病人的各個(gè)信息。感覺(jué)和監(jiān)督學(xué)習(xí)很像有具體分配好的例子但是一旦沒(méi)有就很難去精準(zhǔn)分配。 最后: 注意看清權(quán)值w和偏置b,然后判斷他們和激活函數(shù)的關(guān)系...
這里就是再給一個(gè)分類(lèi)這樣子的 嵌套是一種相對(duì)低維的空間,您可以將高維矢量映射到這種低維空間里。通過(guò)使用嵌套,可以讓在大型輸入(比如代表字詞的稀疏矢量,這里就是更加)上進(jìn)行機(jī)器...
從各種數(shù)據(jù)源中提取數(shù)據(jù) 這里可以得出當(dāng)X3>0時(shí),X1和X2要么都為正要么都為負(fù),這樣就可以取出藍(lán)點(diǎn)。 當(dāng)X3<0時(shí),要么是X1>0,X2<0。要么是X1<0,X2>0。所以...
谷歌機(jī)器學(xué)習(xí): 因?yàn)檫@幾節(jié)谷歌的機(jī)器學(xué)習(xí)講的很通俗易懂,我這里就以截圖的形式發(fā)出來(lái),方便大家理解。
紀(jì)念自己第一次跑訓(xùn)練集?。。。。。。?train_step = tf.train.GradientDescentOptimizer(0.1)這里的0.1是收斂率。 這里的通過(guò)...
發(fā)現(xiàn)自己深度學(xué)習(xí)基礎(chǔ)不夠好后開(kāi)始補(bǔ)充。。。。。深度學(xué)習(xí): 監(jiān)督學(xué)習(xí)(supervisedlearning): 通過(guò)已有的訓(xùn)練樣本(即已知數(shù)據(jù)及其對(duì)應(yīng)的輸出)去訓(xùn)練得到一個(gè)最優(yōu)...
TensorFlow學(xué)習(xí) 這里的10是個(gè)10個(gè)標(biāo)簽,每個(gè)圖片都有一個(gè)標(biāo)簽。 這里指的是數(shù)據(jù)集有6W張圖片,784是每一張圖片的長(zhǎng)度。 這里的softmax就是用作求概率。 M...
接上一次的運(yùn)行結(jié)果: TensorFlow該開(kāi)始學(xué)習(xí)到的基本操作: 1.先導(dǎo)入需要使用的python庫(kù)。 #coding=utf-8import tensorflow as ...
TensorFlow學(xué)習(xí) 第六課: 注意:這里使用placeholder時(shí),其實(shí)是與feed_dict綁定的,這里的feed_dict是傳值的代碼。 W是我們需要的參數(shù),x是...