時間序列預(yù)測任務(wù)(附代碼+數(shù)據(jù)集+原理介紹)

所有項目已全部上傳至Github,小伙伴可以前往學(xué)習(xí):

深度學(xué)習(xí)時間序列預(yù)測方法案例

??『目錄』

?? 數(shù)據(jù)集介紹

  • (一):深度學(xué)習(xí)時間序列預(yù)測項目案例數(shù)據(jù)集介紹

?? RNN篇

  • (一):GRU實現(xiàn)時間序列預(yù)測(PyTorch版)

  • (二):LSTM實現(xiàn)時間序列預(yù)測(PyTorch版)

  • (三):RNN實現(xiàn)時間序列預(yù)測(PyTorch版)

  • (四):BiLSTM(雙向LSTM)實現(xiàn)時間序列預(yù)測(PyTorch版)


?? CNN篇

  • (一):CNN(一維卷積Conv1D)實現(xiàn)時間序列預(yù)測(PyTorch版)

  • (二):CNN(二維卷積Conv2D)實現(xiàn)時間序列預(yù)測(PyTorch版)


?? 模型融合篇

  • (一):LSTM+CNN實現(xiàn)時間序列預(yù)測(PyTorch版)

  • (二):LSTM+注意力機制(Attention)實現(xiàn)時間序列預(yù)測(PyTorch版)

  • (三):CNN+注意力機制(Attention)實現(xiàn)時間序列預(yù)測(PyTorch版)

  • (四):CNN+LSTM+Attention實現(xiàn)時間序列預(yù)測(PyTorch版)


?? MLP篇

  • (一):MLP(ANN)實現(xiàn)時間序列預(yù)測(PyTorch版)

?? 注意力篇

  • (一):注意力機制(Attention)實現(xiàn)時間序列預(yù)測(PyTorch版)

?? 時間卷積網(wǎng)絡(luò)篇

  • (一):TCN(時間卷積網(wǎng)絡(luò))實現(xiàn)時間序列預(yù)測(PyTorch版)

?? 其它模型篇

  • (一):Transformer實現(xiàn)時間序列預(yù)測(PyTorch版)

?? 注意信息

  • (一):時間序列數(shù)據(jù)預(yù)測結(jié)果為一條直線原因總結(jié)

?? 單變量、多變量篇

  • (一):LSTM實現(xiàn)單變量時間序列預(yù)測(PyTorch版)

  • (二):LSTM實現(xiàn)多變量時間序列預(yù)測(PyTorch版)


?? 多步預(yù)測篇

  • (一):時間序列多步預(yù)測經(jīng)典方法總結(jié)

  • (二):LSTM實現(xiàn)多變量輸入多步預(yù)測時間序列預(yù)測(PyTorch版) —— 直接多輸出

  • (三):LSTM實現(xiàn)多變量輸入多步預(yù)測時間序列預(yù)測(PyTorch版) —— 遞歸多步預(yù)測(單步滾動預(yù)測)

  • (四):LSTM實現(xiàn)多變量輸入多步預(yù)測時間序列預(yù)測(PyTorch版) —— 直接多步預(yù)測(多模型單步預(yù)測)

  • (五):LSTM實現(xiàn)多變量輸入多步預(yù)測時間序列預(yù)測(PyTorch版) —— 直接遞歸混合預(yù)測(多模型滾動預(yù)測)

  • (六):LSTM實現(xiàn)多變量輸入多步預(yù)測時間序列預(yù)測(PyTorch版) —— Seq2Seq多步預(yù)測

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容