[論文解讀]D2-Net: A Trainable CNN for Joint Description and Detection of Local Features

以前好久的論文,這幾天整理資料也翻出來了。應(yīng)該是CVPR19的論文,講的是同時做出來det和des。特征點定位精度不高,速度也很慢,不過對光照等魯棒性非常高,如下圖所示。


但是這個方法的弱點非常明顯,定位精度不高,如下圖紅色圈出的地方,其實非常低的精度了。

實際上用這個進行重建的實驗結(jié)果表示還不如SIFT好。
總結(jié):坦白說這個方法幾乎沒有實際應(yīng)用的場景,因為速度極其緩慢,而且精度很低,進行圖像檢索有更好的(DELF等),進行定位也有更快更好的(SIFT、ORB)。但是他有個特別好的地方是跳出了傳統(tǒng)特征檢測的范式,直接得到了det和des,從此以后很多工作都不會再專門學習一個keypoint detection去檢測關(guān)鍵點位置尺度角度等等內(nèi)容,而且這肯定也是必然趨勢。另外還有很多其他類型的探索工作,推薦看看【Matching Features without Descriptors:Implicitly Matched Interest Points】【Long-term Visual Localization using Semantically Segmented Images】等挺多種的,不過D2Net屬于其中結(jié)果最好的。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容