Stereo matching 雙目立體匹配

深度學習開創(chuàng)了3D真實場景下,獲取深度的新道路。

分享一下CVPR2019的文章:Group-wise Correlation Stereo Network

X. Guo, K. Yang, W. Yang, X. Wang and H. Li:?Group-wise correlation stereo network. CVPR 2019.

? ? ?立體匹配估計一對矯正過的圖像之間的視差(disparity),這對深度感知、自動駕駛和其它相關(guān)任務(wù)非常重要。之前的學術(shù)工作主要是算出代價量(cost volume),通過交叉相關(guān)或者是在所有的視差層級上進行左右特征的 concat,然后用一個 2D或3D的卷積網(wǎng)絡(luò)來回歸出視差圖。這篇論文中,我們提出要通過分組相關(guān)(group-wise correlation)來算出代價量。沿著通道維度將左、右特征劃分為若干組,然后在每組中計算相關(guān)圖,進而得到多個匹配代價 proposals,然后打包到代價量中。分組相關(guān)為特征的相似度的計算提供了有效的表示,而不會像完全相關(guān)(full correlation)一樣造成過多的信息丟失。和之前的方法相比,它在降低參數(shù)個數(shù)的同時也可以保持原先的性能。這篇論文也改進了 3D stacked Hourglass 網(wǎng)絡(luò),提升性能,降低推理計算成本。我們在 Scene Flow, KITTI2012 和 KITTI2015 數(shù)據(jù)集上進行了實驗,證明該方法的性能。

? ? ? ?一個像素點的視差d 可以通過Fl/d 轉(zhuǎn)換為深度值,F(xiàn) FF表示相機的焦距,l ll是兩個相機中心點的距離。因此,深度的精度隨著視差預測的精度而提升。

? ? ? ?傳統(tǒng)的立體方法通常由以下四個步驟組成,匹配代價計算、代價聚合、視差優(yōu)化、和后處理。匹配代價計算為左圖像塊和可能對應(yīng)的右圖像塊提供初始相似性度量,這一步對立體匹配很關(guān)鍵。一些常用的匹配代價包括絕對差值(SAD)、平方差之和(SSD)、歸一化相關(guān)系數(shù)(NCC)。cost aggregation和optimization steps則結(jié)合了上下文匹配代價、正則化項來得到更強大的視差預測.?

? ? ? ?基于深度學習的方法

用神經(jīng)網(wǎng)絡(luò)來計算matching cost,視差優(yōu)化,匹配代價聚合,還有一些后處理過程。GC-NET,PSM-NET(spatial parmaid pooling model,

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容