@虛胖一場 自回歸我能理解,那這樣在預測的時候效率就低好多的樣子?
時間序列預測方法之 Transformer本文鏈接:個人站 | 簡書 | CSDN版權聲明:除特別聲明外,本博客文章均采用 BY-NC-SA 許可協(xié)議。轉載請注明出處。 最近打算分享一些基于深度學習的時間序列預測方法...
@虛胖一場 自回歸我能理解,那這樣在預測的時候效率就低好多的樣子?
時間序列預測方法之 Transformer本文鏈接:個人站 | 簡書 | CSDN版權聲明:除特別聲明外,本博客文章均采用 BY-NC-SA 許可協(xié)議。轉載請注明出處。 最近打算分享一些基于深度學習的時間序列預測方法...
請問博主大大一個問題,知道未來的信息了,decoder部分應該不需要mask吧? 并且這里沒有encoder,不太明白這個咋考慮歷史信息?
時間序列預測方法之 Transformer本文鏈接:個人站 | 簡書 | CSDN版權聲明:除特別聲明外,本博客文章均采用 BY-NC-SA 許可協(xié)議。轉載請注明出處。 最近打算分享一些基于深度學習的時間序列預測方法...
請問群主大大,這個不是應該還要有個預測步嗎,把上一步輸出的mu采樣結果放進下一步的輸入?
時間序列預測方法之 DeepAR本文鏈接:個人站 | 簡書 | CSDN版權聲明:除特別聲明外,本博客文章均采用 BY-NC-SA 許可協(xié)議。轉載請注明出處。 最近打算分享一些基于深度學習的時間序列預測方法...