@流浪魚_da2a 沒看懂你的意思。逐層訓(xùn)練就是每次只訓(xùn)練一層。
棧式自編碼器的無監(jiān)督逐層貪婪預(yù)訓(xùn)練(greedy layer-wise pre training)對于深層模型的訓(xùn)練,通常采用BP算法來更新網(wǎng)絡(luò)參數(shù)。但是需要對網(wǎng)絡(luò)參數(shù)進(jìn)行很小心的初始化,以免網(wǎng)絡(luò)陷入局部最小點(diǎn)。當(dāng)然,現(xiàn)在已經(jīng)有了很多網(wǎng)絡(luò)參數(shù)初始化的辦法,或者其他的深度網(wǎng)...