@虛胖一場(chǎng) 自回歸我能理解,那這樣在預(yù)測(cè)的時(shí)候效率就低好多的樣子?
時(shí)間序列預(yù)測(cè)方法之 Transformer本文鏈接:個(gè)人站 | 簡(jiǎn)書(shū) | CSDN版權(quán)聲明:除特別聲明外,本博客文章均采用 BY-NC-SA 許可協(xié)議。轉(zhuǎn)載請(qǐng)注明出處。 最近打算分享一些基于深度學(xué)習(xí)的時(shí)間序列預(yù)測(cè)方法...
@虛胖一場(chǎng) 自回歸我能理解,那這樣在預(yù)測(cè)的時(shí)候效率就低好多的樣子?
時(shí)間序列預(yù)測(cè)方法之 Transformer本文鏈接:個(gè)人站 | 簡(jiǎn)書(shū) | CSDN版權(quán)聲明:除特別聲明外,本博客文章均采用 BY-NC-SA 許可協(xié)議。轉(zhuǎn)載請(qǐng)注明出處。 最近打算分享一些基于深度學(xué)習(xí)的時(shí)間序列預(yù)測(cè)方法...
請(qǐng)問(wèn)博主大大一個(gè)問(wèn)題,知道未來(lái)的信息了,decoder部分應(yīng)該不需要mask吧? 并且這里沒(méi)有encoder,不太明白這個(gè)咋考慮歷史信息?
時(shí)間序列預(yù)測(cè)方法之 Transformer本文鏈接:個(gè)人站 | 簡(jiǎn)書(shū) | CSDN版權(quán)聲明:除特別聲明外,本博客文章均采用 BY-NC-SA 許可協(xié)議。轉(zhuǎn)載請(qǐng)注明出處。 最近打算分享一些基于深度學(xué)習(xí)的時(shí)間序列預(yù)測(cè)方法...
請(qǐng)問(wèn)群主大大,這個(gè)不是應(yīng)該還要有個(gè)預(yù)測(cè)步嗎,把上一步輸出的mu采樣結(jié)果放進(jìn)下一步的輸入?
時(shí)間序列預(yù)測(cè)方法之 DeepAR本文鏈接:個(gè)人站 | 簡(jiǎn)書(shū) | CSDN版權(quán)聲明:除特別聲明外,本博客文章均采用 BY-NC-SA 許可協(xié)議。轉(zhuǎn)載請(qǐng)注明出處。 最近打算分享一些基于深度學(xué)習(xí)的時(shí)間序列預(yù)測(cè)方法...