任務(wù) RNN的結(jié)構(gòu)。循環(huán)神經(jīng)網(wǎng)絡(luò)的提出背景、優(yōu)缺點(diǎn)。著重學(xué)習(xí)RNN的反向傳播、RNN出現(xiàn)的問題(梯度問題、長期依賴問題)、BPTT算法。 雙向RNN 遞歸神經(jīng)網(wǎng)絡(luò) LSTM、...
任務(wù) RNN的結(jié)構(gòu)。循環(huán)神經(jīng)網(wǎng)絡(luò)的提出背景、優(yōu)缺點(diǎn)。著重學(xué)習(xí)RNN的反向傳播、RNN出現(xiàn)的問題(梯度問題、長期依賴問題)、BPTT算法。 雙向RNN 遞歸神經(jīng)網(wǎng)絡(luò) LSTM、...
任務(wù): 卷積運(yùn)算的定義、動(dòng)機(jī)(稀疏權(quán)重、參數(shù)共享、等變表示)。一維卷積運(yùn)算和二維卷積運(yùn)算。 反卷積(tf.nn.conv2d_transpose) 池化運(yùn)算的定義、種類(最大...
任務(wù) 前饋神經(jīng)網(wǎng)絡(luò)、網(wǎng)絡(luò)層數(shù)、輸入層、隱藏層、輸出層、隱藏單元、激活函數(shù)的概念。 感知機(jī)相關(guān);定義簡單的幾層網(wǎng)絡(luò)(激活函數(shù)sigmoid),遞歸使用鏈?zhǔn)椒▌t來實(shí)現(xiàn)反向傳播。 ...
任務(wù) 樸素貝葉斯 樸素貝葉斯的原理 利用樸素貝葉斯模型進(jìn)行文本分類 SVM模型 SVM的原理 利用SVM模型進(jìn)行文本分類 LDA主題模型 pLSA、共軛先驗(yàn)分布 LDA 使用...
IMDB數(shù)據(jù)集下載和探索 根據(jù)TensorFlow官方教程實(shí)現(xiàn): THUCNews數(shù)據(jù)集下載和探索 根據(jù)githut進(jìn)行復(fù)現(xiàn) 對(duì)于函數(shù)batch_iter(x, y)的使用還...