最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

多視圖立體匹配論文分享CasMVSNet

2020-12-07 20:34 作者:3D視覺工坊  | 我要投稿

來源:公眾號|3D視覺工坊

作者:Todd-Qi

「3D視覺工坊」技術(shù)交流群已經(jīng)成立,目前大約有12000人,方向主要涉及3D視覺、CV&深度學習、SLAM、三維重建、點云后處理、自動駕駛、CV入門、三維測量、VR/AR、3D人臉識別、醫(yī)療影像、缺陷檢測、行人重識別、目標跟蹤、視覺產(chǎn)品落地、視覺競賽、車牌識別、硬件選型、學術(shù)交流、求職交流、ORB-SLAM系列源碼交流、深度估計等。工坊致力于干貨輸出,不做搬運工,為計算機視覺領(lǐng)域貢獻自己的力量!歡迎大家一起交流成長~

添加小助手微信:CV_LAB,備注學校/公司+姓名+研究方向即可加入工坊一起學習進步。

QQ群「3D視覺研習社」,群號:574432628

論文題目:Cascade Cost Volume for High-Resolution Multi-View Stereo and Stereo Matching

代碼地址:在公眾號「3D視覺工坊」,后臺回復「CasMVSNet」,即可直接下載。

0、引言

CasMVSNet[1]是CVPR2020的工作,在開始介紹這篇文章之前,我們首先回顧一下之前的工作。基于學習的MVS算法可以分為四個模塊:

·特征提取模塊

·特征匹配和代價聚合模塊

·深度圖回歸模塊

·深度圖細化模塊[可選項]


圖 1 MVSNet網(wǎng)絡架構(gòu)圖

以ECCV2018的MVSNet[2]為例,這里簡單介紹每個模塊的實現(xiàn)方式,具體細節(jié)可參考論文或之前的推文。

·特征提取模塊:8層的2D卷積操作,除最后一層外,卷積操作后跟隨BatchNorm層和ReLU;

·特征匹配和代價聚合模塊:

※特征匹配:通過單應變換將源圖像的特征圖變換到參考視圖下,并基于方差指標將多視圖的特征體聚合為一個代價體。

※代價聚合:4個尺度的3DCNN網(wǎng)絡

·深度圖回歸:soft-argmin操作。

1、文章動機

基于學習的MVS算法因為受到顯存的限制,輸出的深度圖的空間分辨率只有輸入圖像的1/16大?。ㄩL寬均為輸入圖像的1/4大?。R訫VSNet為例,對于1600×1184大小的輸入圖像,需要構(gòu)建h×w×D×F=400×296×256×8大小的代價體,16GB的顯卡才可以勝任。之前的方法限制了高分辨率MVS算法的發(fā)展。

那么問題來了,為什么要得到高分辨率的深度圖呢?我們知道,MVS算法的評測是對最后生成的點云進行評測。同等情況下,深度圖分辨率越高,得到的空間3D點數(shù)目越多,那么點云的完整性會更高,重建質(zhì)量則更佳。


圖 2 代價體,其中H和W為空間分辨率,D為平面假設數(shù),I為深度間隔

關(guān)于代價體:代價體(Cost Volume)是三維的,存儲時為4D的tensor。我們可以理解為:代價體每一個位置存儲的是一個F維的向量而不是標量。如圖2所示,空間分辨率H×W越高,平面假設數(shù)D越多,深度間隔I越小,那么得到的深度圖質(zhì)量越高;同時顯存占用越大、耗時越長。那么,有沒有一種可以權(quán)衡精度和效率的方法呢?

2. 方法


圖 3 CasMVSNet網(wǎng)絡架構(gòu)圖

整體思路:CasMVSNet使用級聯(lián)的代價體來實現(xiàn)coarse-to-fine的深度估計。具體地,首先通過一個較小的代價體估計低分辨率的深度圖,然后我們可以根據(jù)上一級輸出的深度圖,縮減當前尺度的深度假設范圍。CasMVSNet使用3級的代價體來實現(xiàn)深度圖估計,包括兩級的中間結(jié)果和一個最終的深度輸出。

· 特征提取模塊:CasMVSNet需要在每個尺度上都進行特征提取和代價體構(gòu)建,所以需要輸入圖像的多尺度特征。文章使用了三個尺度的FPN(Feature Pyramid Network)網(wǎng)絡。三個尺度的特征圖空間分辨率分別為輸入圖像的{1/16, 1/4, 1}大小。和之前的方法一樣,不同輸入圖像之間共享權(quán)重。

·特征匹配和代價聚合:同MVSNet

·深度圖回歸:同MVSNet


圖 4 深度范圍的確定

·深度范圍的確定:



3、實驗結(jié)果

3.1 DTU數(shù)據(jù)集

CasMVSNet在DTU[3]數(shù)據(jù)集的實驗結(jié)果如表1所示,和Baseline方法MVSNet相比,重建質(zhì)量有35.6% 的提升,顯存占用降低了50.6%,運行時間有59.3%的提升。點云重建質(zhì)量也超過了2019年的R-MVSNet、P-MVSNet和Point-MVSNet等方法。

圖5中(a)~(d)是不同方法的DTU scan9的可視化結(jié)果,我們可以看到CasMVSNet重建的點云更加稠密,點云質(zhì)量更佳,這也說明了高分辨深度估計的優(yōu)勢所在。圖5中(e)為不同方法的GPU占用和精度對比圖;圖5中(f)為不同方法的運行時間和精度對比圖。

表 1 DTU數(shù)據(jù)集實驗結(jié)果



圖 5 與SOTA方法的實驗效果對比圖

3.2 Tanks and Temples 數(shù)據(jù)集

CasMVSNet在Tanks and Temple[4]數(shù)據(jù)集的實驗結(jié)果如圖2所示,重建點云的可視化結(jié)果如圖6所示。

表 2 Tanks and Temples數(shù)據(jù)集實驗結(jié)果



圖 6 Tanks and Temples數(shù)據(jù)集的重建點云

參考文獻

1.Gu X, Fan Z, Zhu S, et al. Cascade cost volume for high-resolution multi-view stereo and stereo matching[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2020: 2495-2504.

2.Yao Y, Luo Z, Li S, et al. Mvsnet: Depth inference for unstructured multi-view stereo[C]//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 767-783.

3.Aan?s H, Jensen R R, Vogiatzis G, et al. Large-scale data for multiple-view stereopsis[J]. International Journal of Computer Vision, 2016, 120(2): 153-168.

4.Knapitsch A, Park J, Zhou Q Y, et al. Tanks and temples: Benchmarking large-scale scene reconstruction[J]. ACM Transactions on Graphics (ToG), 2017, 36(4): 1-13.

本文僅做學術(shù)分享,如有侵權(quán),請聯(lián)系刪文。


多視圖立體匹配論文分享CasMVSNet的評論 (共 條)

分享到微博請遵守國家法律
石泉县| 旺苍县| 洱源县| 尤溪县| 乾安县| 鄂托克前旗| 芜湖县| 海门市| 阳曲县| 延安市| 蒙阴县| 卓资县| 平利县| 孝昌县| 南宫市| 宾阳县| 保德县| 桂林市| 陇川县| 礼泉县| 吉安市| 临江市| 神池县| 嘉峪关市| 宜川县| 平山县| 重庆市| 栖霞市| 岗巴县| 江西省| 凌云县| 威海市| 沂水县| 友谊县| 隆昌县| 固安县| 日喀则市| 永顺县| 沁源县| 荥阳市| 玉门市|