以前好久的論文,這幾天整理資料也翻出來了。應(yīng)該是CVPR19的論文,講的是同時做出來det和des。特征點定位精度不高,速度也很慢,不過對光照等魯棒性非常高,如下圖所示。

但是這個方法的弱點非常明顯,定位精度不高,如下圖紅色圈出的地方,其實非常低的精度了。

實際上用這個進行重建的實驗結(jié)果表示還不如SIFT好。
總結(jié):坦白說這個方法幾乎沒有實際應(yīng)用的場景,因為速度極其緩慢,而且精度很低,進行圖像檢索有更好的(DELF等),進行定位也有更快更好的(SIFT、ORB)。但是他有個特別好的地方是跳出了傳統(tǒng)特征檢測的范式,直接得到了det和des,從此以后很多工作都不會再專門學習一個keypoint detection去檢測關(guān)鍵點位置尺度角度等等內(nèi)容,而且這肯定也是必然趨勢。另外還有很多其他類型的探索工作,推薦看看【Matching Features without Descriptors:Implicitly Matched Interest Points】【Long-term Visual Localization using Semantically Segmented Images】等挺多種的,不過D2Net屬于其中結(jié)果最好的。