卷積神經(jīng)網(wǎng)絡(luò):圖片之間是沒有關(guān)系的 遞歸神經(jīng)網(wǎng)絡(luò):語音文字不能單獨分析,需要連起來分析,這一次的輸入是上一次的輸出
多個卷積核的作用卷積核就是濾波器,經(jīng)過卷積操作會得到不同的特征圖。對不同的特征進行采樣。
增加隱藏層的方法 1.復(fù)制粘貼第一個隱藏層 2.更改每一個隱藏層的矩陣為度,行是前一層神經(jīng)元個數(shù),列是本層神經(jīng)元個數(shù) 3.如果有Dropout操...
看loss代價函數(shù)求導(dǎo)=f(激活函數(shù)求導(dǎo)),確定loss函數(shù)變化速度與激活函數(shù)的變化速度什么正反比關(guān)系,能否滿足激活函數(shù)越接近結(jié)果值(1/0)時...
函數(shù)變化率、梯度、方向?qū)?shù) 1.損失函數(shù)需要越變越小 2.損失函數(shù)在某一個方向的的方向?qū)?shù)越大,在這一個方向的變化率越大 3.損失函數(shù)在沿著梯度...
1.Tensorflow的使用:先羅列,后操作 2.關(guān)于權(quán)重矩陣: a.定義每一層,就是定義 “這一層->這一層的前一層” 之間的“實線”...
1.Tensorflow的使用:先羅列,后操作(損失函數(shù)->優(yōu)化器->訓(xùn)練函數(shù)) 2.使用優(yōu)化器的方法來優(yōu)化代價函數(shù):優(yōu)化器.func(代價函數(shù)...
1.Tensorflow的使用:先羅列,后操作 2.Fetch-運行多個OP:Run([op1,op2,op3]) 3.Feed-給OP傳入?yún)?shù)...
1.Tensorflow的使用:先羅列,后操作 2.賦值不能使用=,要使用賦值op 3.使用到變量,需要執(zhí)行初始化op 4.print(op)的...