想問(wèn)一下,預(yù)訓(xùn)練第二層網(wǎng)絡(luò)參數(shù)所用的數(shù)據(jù)集是什么,是不是將訓(xùn)練集輸入預(yù)訓(xùn)練好的input-Feature1,然后產(chǎn)生feature1層的輸出,就可以用來(lái)預(yù)訓(xùn)練第二層了?
棧式自編碼器的無(wú)監(jiān)督逐層貪婪預(yù)訓(xùn)練(greedy layer-wise pre training)對(duì)于深層模型的訓(xùn)練,通常采用BP算法來(lái)更新網(wǎng)絡(luò)參數(shù)。但是需要對(duì)網(wǎng)絡(luò)參數(shù)進(jìn)行很小心的初始化,以免網(wǎng)絡(luò)陷入局部最小點(diǎn)。當(dāng)然,現(xiàn)在已經(jīng)有了很多網(wǎng)絡(luò)參數(shù)初始化的辦法,或者其他的深度網(wǎng)...