論文提出二值化多任務(wù)密集預(yù)測(cè)器 Bi-MTDP,通過(guò)二值神經(jīng)網(wǎng)絡(luò)(BNNs)顯著加速多任務(wù)密集預(yù)測(cè)模型,同時(shí)保持甚至提高模型性能。為了避免信息嚴(yán)...
作者發(fā)現(xiàn)深層ViT出現(xiàn)的注意力崩潰問(wèn)題,提出了新穎的Re-attention機(jī)制來(lái)解決,而且計(jì)算量和內(nèi)存開(kāi)銷都很少。通過(guò)Re-attention...
DPP能夠?qū)δ繕?biāo)檢測(cè)proposal進(jìn)行非統(tǒng)一處理,根據(jù)proposal選擇不同復(fù)雜度的算子,加速整體推理過(guò)程。從實(shí)驗(yàn)結(jié)果來(lái)看,效果非常不錯(cuò)來(lái)源...
論文主要處理Vision Transformer中的性能問(wèn)題,采用推理速度不同的級(jí)聯(lián)模型進(jìn)行速度優(yōu)化,搭配層級(jí)間的特征復(fù)用和自注意力關(guān)系復(fù)用來(lái)提...
論文提出了經(jīng)典的Vision Transormer模型Swin Transformer,能夠構(gòu)建層級(jí)特征提高任務(wù)準(zhǔn)確率,而且其計(jì)算復(fù)雜度經(jīng)過(guò)各種...
論文設(shè)計(jì)了用于密集預(yù)測(cè)任務(wù)的純Transformer主干網(wǎng)絡(luò)PVT,包含漸進(jìn)收縮的特征金字塔結(jié)構(gòu)和spatial-reduction atten...
論文基于改進(jìn)訓(xùn)練配置以及一種新穎的蒸餾方式,提出了僅用ImageNet就能訓(xùn)練出來(lái)的Transformer網(wǎng)絡(luò)DeiT。在蒸餾學(xué)習(xí)時(shí),DeiT以...
論文直接將純Trasnformer應(yīng)用于圖像識(shí)別,是Trasnformer在圖像領(lǐng)域正式挑戰(zhàn)CNN的開(kāi)山之作。這種簡(jiǎn)單的可擴(kuò)展結(jié)構(gòu)在與大型數(shù)據(jù)集...
論文提出能夠適配硬件加速的動(dòng)態(tài)網(wǎng)絡(luò)DS-Net,通過(guò)提出的double-headed動(dòng)態(tài)門控來(lái)實(shí)現(xiàn)動(dòng)態(tài)路由?;谡撐奶岢龅母咝阅芫W(wǎng)絡(luò)設(shè)計(jì)和IEB...