最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊

多視圖立體匹配MVSNet網(wǎng)絡(luò)解析:保姆級教程

2021-05-09 21:43 作者:3D視覺工坊  | 我要投稿

論文題目:MVSNet: Depth Inference for Unstructured Multi-view Stereo, (ECCV2018 Oral)

注1:文末附【三維重建】交流群

注2:計(jì)算機(jī)視覺書籍匯總

注3:整理不易,請點(diǎn)贊支持!

作者:Todd-Qi ?| 來源:3D視覺工坊微信公眾號

摘要:作者提出MVSNet,基于多視圖圖像的深度估計(jì)網(wǎng)絡(luò)。在網(wǎng)絡(luò)中,首先在2D圖像上進(jìn)行特征提取得到特征圖,然后通過可微分的單應(yīng)變換,基于參考視圖的相機(jī)視錐體構(gòu)建3D代價(jià)體。然后使用3D卷積對代價(jià)體進(jìn)行正則化,回歸得到初始的深度圖;初始的深度圖通過參考圖像優(yōu)化得到最后的深度圖。

MVSNet可以靈活地處理任意數(shù)量視圖,因?yàn)榛诜讲畹拇鷥r(jià)指標(biāo)可將多個(gè)特征代價(jià)提融合為一個(gè)特征代價(jià)體。MVSNet在大規(guī)模室內(nèi)數(shù)據(jù)集DTU上進(jìn)行驗(yàn)證。通過簡單的后處理,不僅有顯著的性能,還有更快的運(yùn)行速度。同時(shí)也在更加復(fù)雜的室外數(shù)據(jù)集Tanks and Temples上進(jìn)行評測。無需任何微調(diào),MVSNet在排行榜上位列第一,證明了網(wǎng)絡(luò)具有良好的泛化性能。

關(guān)鍵詞:多視圖立體匹配;深度估計(jì);深度學(xué)習(xí)

開源代碼(tensorflow、PyTorch)地址:在公眾號「3D視覺工坊」,后臺(tái)回復(fù)「MVSNet網(wǎng)絡(luò)」,即可直接下載。

一、引言

多視圖立體匹配(Multi-view Stereo, MVS)是計(jì)算機(jī)領(lǐng)域中一個(gè)核心問題。多視圖立體匹配重建可以當(dāng)做對確定場景進(jìn)行拍攝照片的逆過程。拍照通過相機(jī)把三維場景映射為二維,而多視圖立體匹配重建則剛好相反,其目的是通過不同視點(diǎn)拍攝的圖像,恢復(fù)出真實(shí)的三維場景。

傳統(tǒng)的方法使用手工設(shè)計(jì)的相似性度量指標(biāo)和正則化方法計(jì)算場景的稠密對應(yīng)關(guān)系(比如使用歸一化互相關(guān)Normalized Cross-Correlation和半全局匹配semi-global matching)。這些方法在非朗伯體表面、無弱紋理區(qū)域的場景可以達(dá)到很好的效果。但是在弱紋理區(qū)域,人工設(shè)計(jì)的相似性指標(biāo)變得不可信,因此導(dǎo)致重建結(jié)果不完整。由MVS數(shù)據(jù)集的排行榜可知,這些方法具有很高的精度,然而在重建的完整度方法還有很大的空間可以提升。

卷積神經(jīng)網(wǎng)絡(luò)的研究的最新進(jìn)展引發(fā)了人們對改善立體匹配重建的興趣。從概念上講,基于學(xué)習(xí)的方法可以學(xué)習(xí)到全局的語義信息,比如說有高光和反射的先驗(yàn)可以得到更加魯棒的匹配效果。目前已經(jīng)有一些兩視圖立體匹配的嘗試,用神經(jīng)網(wǎng)絡(luò)替換手工設(shè)計(jì)的相似性度量或正則化方法。這些方法展現(xiàn)出更好的結(jié)果,并且逐步超過立體匹配領(lǐng)域的傳統(tǒng)方法。事實(shí)上,立體匹配任務(wù)完全適合使用CNN,因?yàn)閳D像對是已經(jīng)過修正過的,因此立體匹配問題轉(zhuǎn)化為水平方向上逐像素的視差估計(jì)。

與雙目立體匹配不同的是,MVS的輸入是任意數(shù)目的視圖,這是深度學(xué)習(xí)方法需要解決的一個(gè)棘手的問題。而且只有很少的工作意識(shí)到該問題,比如SurfaceNet事先重建彩色體素立方體,將所有像素的顏色信息和相機(jī)參數(shù)構(gòu)成一個(gè)3D代價(jià)體,所構(gòu)成的3D代價(jià)體即為網(wǎng)絡(luò)的輸入。然而受限于3D代價(jià)體巨大的內(nèi)存消耗,SurfaceNet網(wǎng)絡(luò)的規(guī)模很難增大:SurfaceNet運(yùn)用了一個(gè)啟發(fā)式的“分而治之”的策略,對于大規(guī)模重建場景則需要花費(fèi)很長的時(shí)間。

為此,作者提出端到端的多視圖深度預(yù)測網(wǎng)絡(luò)MVSNet,和其他基于深度圖的MVS方法類似,MVSNet將一張參考圖像和多張?jiān)磮D像作為輸入,為參考圖像預(yù)測深度圖,而不是整個(gè)3D場景。網(wǎng)絡(luò)的關(guān)鍵之處在于可微分的單應(yīng)變換操作,在從2D特征圖構(gòu)建3D代價(jià)體的過程中,網(wǎng)絡(luò)將相機(jī)參數(shù)隱式地將編碼入網(wǎng)絡(luò)。為使網(wǎng)絡(luò)能夠適應(yīng)任意數(shù)目的輸入視圖數(shù),提出基于方差的指標(biāo),該指標(biāo)將多個(gè)特征體映射為一個(gè)代價(jià)體。對代價(jià)體進(jìn)行多尺度的3D卷積可以回歸出一個(gè)初始的深度圖。最后使用參考圖像對深度圖進(jìn)行優(yōu)化以提升邊界區(qū)域的精度。我們的方法與之前基于學(xué)習(xí)方法有兩個(gè)明顯的不同。第一點(diǎn),基于深度圖估計(jì)的目的,本文的3D代價(jià)體的構(gòu)建是基于相機(jī)視錐體而不是規(guī)整的歐式空間。第二點(diǎn),本文方法將MVS重建劃分為逐視圖的深度估計(jì)問題,使得大規(guī)模的重建成為可能。

本文在DTU數(shù)據(jù)集上對所提出的MVSNet進(jìn)行訓(xùn)練和評測。實(shí)驗(yàn)表明通過簡單的后處理,MVSNet在完整度和總分上都要比其他方法要好。除此之外,還在室外數(shù)據(jù)集Tanks and Temples上驗(yàn)證了網(wǎng)絡(luò)的泛化性能,MVSNet在榜單上排名第一(截止至2018年4月18號),無需任何調(diào)整,MVSNet的效果比開源MVS方法(COLMAP)和商業(yè)軟件(Pixel4D)要好。同樣值得注意的是,在運(yùn)行速度方面MVSNet比之前最好的方法要快幾倍甚至幾個(gè)數(shù)量級。

二、相關(guān)工作

多視圖立體匹配重建可以當(dāng)做對確定場景進(jìn)行拍攝照片的逆過程。拍照通過相機(jī)把三維場景映射到二維,而多視圖立體匹配重建正好相反,其目標(biāo)是借助從不同視點(diǎn)拍攝的圖像,恢復(fù)真實(shí)的三維場景。



在立體匹配算法研究中關(guān)鍵的一個(gè)組成部分是匹配不同視點(diǎn)拍攝的圖像中相似點(diǎn),即找到某一空間點(diǎn)A在不同圖像中的投影位置,也就是找到所對應(yīng)的點(diǎn),。該匹配的準(zhǔn)則在多視圖立體匹配重建領(lǐng)域及其他計(jì)算機(jī)視覺相關(guān)領(lǐng)域中都是至關(guān)重要的存在。其中有一個(gè)簡單的準(zhǔn)則,該準(zhǔn)則根據(jù)比較像素的亮度和顏色來確定其相似度,然而這樣的準(zhǔn)則對光照的改變十分敏感。為了使圖像匹配更加魯棒,一些新的度量評價(jià)指標(biāo)逐漸被提出:歸一化互相關(guān)(Normalized Cross-Correlation, NCC),關(guān)鍵點(diǎn)描述符(SIFT描述符)。基于這些基本方法,立體匹配算法逐步進(jìn)行改進(jìn)。

匹配圖像相似點(diǎn)的最終目的是得到圖像的一致性。圖像一致性的評定是多視圖立體匹配的關(guān)鍵點(diǎn)之一,評定圖像一致性的方法是比較圖像中的像素點(diǎn),比較的過程中可能用到三維的信息,包括體元,物體表面或是三角面片。評定匹配程度的指標(biāo)一般有如下幾種:亮度平方差之和(Sum of Squared difference, SSD);亮度絕對值差之和(Sum of absolute difference, SAD)等。

基于投影的技術(shù)也在深度圖的重建中廣泛應(yīng)用。其中代表的方法就是平面掃描算法(Plane-Sweep)。平面掃描算法的發(fā)明者是Collins,他在1996年提出了這個(gè)算法,并且用于在輸入圖片上過濾檢測到的邊緣,以便于用這些灰度圖片對場景進(jìn)行立體三維重建。平面掃描的輸入數(shù)據(jù)是一系列經(jīng)過校準(zhǔn)的照片。與其他的重建方法一樣,平面掃描方法也假設(shè)場景中所有物體只有漫反射。平面掃描虛構(gòu)了一個(gè)虛擬的攝像機(jī),在面對這個(gè)虛擬攝像機(jī)的空間中選定一個(gè)遠(yuǎn)平面以及一個(gè)近平面,需要重建的場景的物體要位于這兩個(gè)平面之間。

三、MVSNet

本章節(jié)對所提出的MVSNet進(jìn)行詳細(xì)的描述,MVSNet的設(shè)計(jì)遵循了相機(jī)幾何原理,并且借鑒了傳統(tǒng)MVS方法的一些觀點(diǎn)。在接下來的部分,將網(wǎng)絡(luò)中的每個(gè)模塊與傳統(tǒng)的MVS方法進(jìn)行對比,以此驗(yàn)證基于深度學(xué)習(xí)MVS方法的優(yōu)勢。MVSNet的網(wǎng)絡(luò)架構(gòu)如圖1所示。



圖 1 MVSNet網(wǎng)絡(luò)架構(gòu)圖

3.1 圖像特征提取



2D卷積神經(jīng)網(wǎng)絡(luò)的輸出為N個(gè)32通道的特征圖。與原圖相比,在每個(gè)維度上進(jìn)行了4倍的下采樣。值得注意的是,雖然特征圖經(jīng)過了下采樣,但被保留下來像素的鄰域信息已經(jīng)被編碼保存至32通道的特征描述子中,這些特征描述子為匹配提供了豐富的語義信息。與在原始圖像上進(jìn)行特征匹配對比,使用提取的特征圖進(jìn)行匹配顯著提高了重建質(zhì)量。

3.2 代價(jià)體

接下來是基于提取的特征圖和相機(jī)參數(shù)構(gòu)建3D代價(jià)體。之前的空間劃分的方法是基于規(guī)整的網(wǎng)格,但是對于深度預(yù)測的任務(wù)而言,我們是基于參考相機(jī)視錐體進(jìn)行代價(jià)體的構(gòu)建。



圖 2 相機(jī)視錐體示意圖



3.2.1單應(yīng)矩陣

單應(yīng)矩陣(Homography)H用于描述兩個(gè)平面之間的映射關(guān)系。若場景中的特征點(diǎn)都落在同一平面上(比如墻,地面等),則可以通過單應(yīng)矩陣來進(jìn)行運(yùn)動(dòng)估計(jì)。



3.2.2 可微分的單應(yīng)變換



3.2.3 代價(jià)指標(biāo)(Cost Metric)



3.2.4 代價(jià)體正則化

從圖像特征圖計(jì)算得到的初始代價(jià)體很有可能是包含噪聲的(由于非朗伯體表面的存在或者視線遮擋的問題),為了預(yù)測深度圖還需要進(jìn)行光滑處理。正則化的步驟是對上面的代價(jià)體進(jìn)行優(yōu)化(refine)以得到概率體。受SurfaceNet等工作的啟發(fā),我們使用一個(gè)多尺度的3D-CNN網(wǎng)絡(luò)用于代價(jià)體正則化。4個(gè)尺度的網(wǎng)絡(luò)類似于3D版本的UNet,使用編碼-解碼的結(jié)構(gòu)方式,以相對較小的存儲(chǔ)/計(jì)算代價(jià)在一個(gè)大的感受野范圍內(nèi)進(jìn)行鄰域信息聚合。為了減輕網(wǎng)絡(luò)的計(jì)算代價(jià),在第一個(gè)3D卷積層后,我們將32通道的代價(jià)體縮減為為8通道,將每個(gè)尺度的卷積從3層降為2層。最后卷積層的輸出為1通道的體(Volume)。最終在深度方向上使用softmax操作進(jìn)行概率值的歸一化。

產(chǎn)生的概率體可很好適合于深度值預(yù)測,不僅可以用于逐像素的深度預(yù)測,還可以用來衡量估計(jì)的置信度。

3.3 深度圖

3.3.1 初始深度估計(jì)

概率體中恢復(fù)深度圖最簡單的方式是采用“贏者通吃”的策略(比如argmax)。但是argmax操作不能夠產(chǎn)生亞像素級的估計(jì),而且由于不可微分不能在網(wǎng)絡(luò)中進(jìn)行反向傳播。所以我們采用在深度方向上計(jì)算期望,即所有假設(shè)深度值的加權(quán)和:



3.3.2 概率圖

沿深度方向上的概率分布還可以反映了深度估計(jì)的質(zhì)量。盡管多尺度的3D CNN有一定的正則化能力,可以將概率分布調(diào)整為單峰分布,我們也應(yīng)注意到由于錯(cuò)誤匹配的出現(xiàn),使得深度的概率分布散亂,不能集中在一個(gè)峰值處。如圖3所示,參考視圖(a)的概率概率圖為圖(d)。



圖 3 參考圖像、預(yù)測的深度圖、概率分布、概率圖

因?yàn)樯疃燃僭O(shè)在相機(jī)視錐體內(nèi)離散采樣得到的,簡單地將四個(gè)最近深度假設(shè)的概率求和得到最后的估計(jì)質(zhì)量。注意其他的統(tǒng)計(jì)指標(biāo)(比如標(biāo)準(zhǔn)差或熵)也可以用在這里,但在我們的實(shí)驗(yàn)中我們觀察到這些指標(biāo)對于后續(xù)的深度圖過濾沒有顯著的提升。除此之外,我們的概率和公式可以在后續(xù)的外點(diǎn)剔除過程中起到閾值參數(shù)的作用。

3.3.3 深度圖優(yōu)化

盡管從概率體恢復(fù)出深度圖是一個(gè)直接而合理的過程,但還是會(huì)存在一些問題。由于正則化過程中較大的感受野造成重建深度圖邊界過平滑的現(xiàn)象,這些問題也是在語義分割和圖像摳圖(Image Matting)中存在的。

我們注意到參考圖像是包含圖像邊界信息的,因此可以將參考圖像作為引導(dǎo)來優(yōu)化預(yù)測的深度圖。受到圖像摳圖算法的啟發(fā),我們在MVSNet的末端添加了一個(gè)深度殘差學(xué)習(xí)的網(wǎng)絡(luò)。

預(yù)測的深度圖和被resized的參考圖像被連接在一起構(gòu)成一個(gè)4通道的輸入,被送入三個(gè)32通道的2D卷積層和一個(gè)1通道的卷積層,來學(xué)習(xí)得到深度的殘差值。為了可以學(xué)習(xí)到負(fù)的殘差,最后一層網(wǎng)絡(luò)沒有使用BN層和ReLU單元。同樣地,為避免在某一特定深度值上存在偏差,將初始深度幅值縮放至范圍[0, 1]內(nèi),在深度圖優(yōu)化完成之后轉(zhuǎn)換回來。

3.4 損失函數(shù)

初始深度值和優(yōu)化深度值的損失都被考慮在內(nèi)了。我們使用真實(shí)深度圖與所估計(jì)深度的L1損失作為我們的訓(xùn)練損失??紤]到真實(shí)深度圖并不是每個(gè)像素點(diǎn)都有值的,因此我們只考慮那些有效的像素點(diǎn),即存在Ground Truth標(biāo)簽的像素。

損失函數(shù)定義如下:



四、網(wǎng)絡(luò)的實(shí)現(xiàn)

4.1 訓(xùn)練

4.1.1 數(shù)據(jù)準(zhǔn)備

目前MVS數(shù)據(jù)集提供的Ground Truth數(shù)據(jù)是以點(diǎn)云或三角面片(mesh)的格式呈現(xiàn)的,所以我們需要自己使用這些數(shù)據(jù)產(chǎn)生深度圖。DTU數(shù)據(jù)集包含了128個(gè)場景,數(shù)據(jù)集提供了帶有法向信息的點(diǎn)云。我們使用泊松表面重建獲得三角網(wǎng)格表面,將三維網(wǎng)格投影至每個(gè)視點(diǎn)以得到我們需要的深度圖。

為獲取更好質(zhì)量的三維網(wǎng)格,我們將泊松表面重建中樹的深度(depth-of-tree)設(shè)為11;同時(shí),為減輕表面邊緣處的人工痕跡,我們將修剪因子(trimming-factor)設(shè)為9.5。為了公平地與其他深度學(xué)習(xí)的方法進(jìn)行對比, DTU數(shù)據(jù)集的劃分同SurfaceNet一樣。

根據(jù)文獻(xiàn)[7],將DTU數(shù)據(jù)集劃分訓(xùn)練集、驗(yàn)證集和測試集。驗(yàn)證集中場景序列號包括{3, 5, 17, 21, 28, 35, 37, 38, 40, 43, 56, 59, 66, 67, 82, 86, 106, 117};測試集中場景序列號包括{1, 4, 9, 10, 11, 12, 13, 15, 23, 24, 29, 32, 33, 34, 48, 49, 65, 75, 77, 110, 114, 118};訓(xùn)練集為其余79個(gè)場景。

訓(xùn)練集包括79個(gè)場景,每個(gè)場景包含49張圖,有7組不同光照的圖。將每張圖作為參考圖像,DTU數(shù)據(jù)集總共有27097個(gè)訓(xùn)練樣本。

4.1.2 視圖選擇



注意到圖像尺寸在特征提取階段會(huì)被下采樣,再加上3D正則化部分的4層編碼-解碼結(jié)構(gòu),輸入的圖像尺寸必須能被32整除。同時(shí)考慮到GPU顯存的限制,我們將圖像分辨率從1600×1200降至800×600,然后在圖像中心處截取640×480大小的圖像塊作為網(wǎng)絡(luò)訓(xùn)練的輸入。輸入的相機(jī)參數(shù)也隨之改變。深度假設(shè)在425mm~935mm范圍內(nèi)以2mm的分辨率均勻采樣(采樣數(shù)D=256)。

4.2 后處理

4.2.1 深度圖過濾



4.2.2 深度圖融合



五、實(shí)驗(yàn)結(jié)果

基于深度學(xué)習(xí)的多視圖立體重建一般由兩部分組成,深度圖重建、深度圖融合為點(diǎn)云。

5.1 DTU數(shù)據(jù)集評測

在DTU數(shù)據(jù)集中22個(gè)測試場景進(jìn)行評測,輸入視圖數(shù),圖像寬度,圖像高度和深度采樣數(shù)分別設(shè)置為N=5,W=1600,H=1184,D=256?;贒TU提供的MATLAB腳本對重建點(diǎn)云的精度(accuracy)和完整度(completeness)進(jìn)行評測。同時(shí)也定義了一個(gè)“總分”的評價(jià)指標(biāo)用于衡量重建的質(zhì)量,即精度和完整度的平均數(shù)。實(shí)驗(yàn)結(jié)果的定量結(jié)果如表1所示。點(diǎn)云的重建結(jié)果如圖4所示。

表 1 DTU數(shù)據(jù)集實(shí)驗(yàn)結(jié)果





圖 4 點(diǎn)云重建對比圖

5.2 消融分析(Ablations Study)

本節(jié)對MVSNet網(wǎng)絡(luò)中的若干組成部分進(jìn)行分析,在接下來的實(shí)驗(yàn)中,我們使用驗(yàn)證集的深度值損失來衡量重建質(zhì)量。

5.2.1 視圖數(shù)量

首先研究輸入視圖數(shù)N對重建結(jié)果的影響,此實(shí)驗(yàn)也同時(shí)說明了模型可以適用于任意視圖的輸入。如4.1小節(jié)說明的,訓(xùn)練時(shí)視圖數(shù)N=3,本實(shí)驗(yàn)測試時(shí)模型視圖使用了N=2, 3, 5。結(jié)果如圖5所示。



圖 5 視圖數(shù)對驗(yàn)證損失的影響

5.2.2 圖像特征

我們研究發(fā)現(xiàn),基于深度學(xué)習(xí)的特征可以顯著提升MVS重建質(zhì)量,為了在MVSNet建模出傳統(tǒng)的基于圖像塊的圖像特征,我們將網(wǎng)絡(luò)中的特征提取部分替換為一32通道的卷積層。卷積核的大小設(shè)定為7×7,步長為4。由圖6可知,2D特征提取的網(wǎng)絡(luò)在驗(yàn)證損失上比單層網(wǎng)絡(luò)效果更好。

5.2.3 代價(jià)指標(biāo)

我們還比較了基于平均的代價(jià)指標(biāo)和基于方差的代價(jià)指標(biāo)。如圖6所示,逐元素的方差操作可以達(dá)到更快的收斂速度,同時(shí)也驗(yàn)證了使用顯式差異指標(biāo)去計(jì)算多視圖間的相似性是合理的。



圖 6 對2D圖像特征、代價(jià)指標(biāo)和深度優(yōu)化的消融分析圖

5.2.4 深度圖優(yōu)化

對有深度圖優(yōu)化、沒有深度圖優(yōu)化的MVSNet兩種情況進(jìn)行訓(xùn)練,深度圖優(yōu)化基本上對驗(yàn)證集損失沒有影響,但是深度圖優(yōu)化步驟可以提高點(diǎn)云重建結(jié)果。在小于1mm條件下f-score從75.58提高為75.69;2mm條件下f-score從79.98提高為80.25。

5.3 部分深度圖重建結(jié)果

部分場景的重建深度圖如圖7~10所示。在每一幅圖中,左子圖為參考圖像,右子圖為重建的深度圖,深度圖以彩虹圖的形式呈現(xiàn)。







參考文獻(xiàn)

1.Furukawa Y, Hernández C. Multi-view stereo: A tutorial[J]. Foundations and Trends? in Computer Graphics and Vision, 2015, 9(1-2): 1-148.

2.Yao Y, Luo Z, Li S, et al. Mvsnet: Depth inference for unstructured multi-view stereo[C]//Proceedings of the European Conference on Computer Vision (ECCV). 2018: 767-783.

3.Yao Y, Luo Z, Li S, et al. Recurrent mvsnet for high-resolution multi-view stereo depth inference[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2019: 5525-5534.

4.Cui Z, Gu J, Shi B, et al. Polarimetric multi-view stereo[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2017: 1558-1567.

5.Sch?nberger J L, Zheng E, Frahm J M, et al. Pixelwise view selection for unstructured multi-view stereo[C]//European Conference on Computer Vision. Springer, Cham, 2016: 501-518.

6.Xu Q, Tao W. Multi-Scale Geometric Consistency Guided Multi-View Stereo[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2019: 5483-5492.

7.Ji M, Gall J, Zheng H, et al. Surfacenet: An end-to-end 3d neural network for multiview stereopsis[C]//Proceedings of the IEEE International Conference on Computer Vision. 2017: 2307-2315.

8.王躍嵩. 多視圖立體匹配三維重建方法[D].華中科技大學(xué),2015.

9.Kendall A, Martirosyan H, Dasgupta S, et al. End-to-end learning of geometry and context for deep stereo regression[C]//Proceedings of the IEEE International Conference on Computer Vision. 2017: 66-75.

10.Ronneberger O, Fischer P, Brox T. U-net: Convolutional networks for biomedical image segmentation[C]//International Conference on Medical image computing and computer-assisted intervention. Springer, Cham, 2015: 234-241.

備注:作者也是我們「3D視覺從入門到精通」特邀嘉賓:一個(gè)超干貨的3D視覺學(xué)習(xí)社區(qū)

本文僅做學(xué)術(shù)分享,如有侵權(quán),請聯(lián)系刪文。

3D視覺工坊-三維重建交流群

已建立3D視覺工坊-三維重建微信交流群!想要進(jìn)三維重建學(xué)習(xí)交流群的同學(xué),可以直接加微信號:CV_LAB。加的時(shí)候備注一下:三維重建+學(xué)校+昵稱,即可。然后就可以拉你進(jìn)群了。

強(qiáng)烈推薦大家關(guān)注3D視覺工坊知乎賬號和3D視覺工坊微信公眾號,可以快速了解到最新優(yōu)質(zhì)的3D視覺與SLAM論文。


多視圖立體匹配MVSNet網(wǎng)絡(luò)解析:保姆級教程的評論 (共 條)

分享到微博請遵守國家法律
陆川县| 姚安县| 永康市| 南部县| 乌拉特中旗| 淮南市| 东源县| 桃园市| 星子县| 永吉县| 达日县| 合阳县| 广南县| 灵川县| 新竹县| 阿鲁科尔沁旗| 红原县| 佛山市| 探索| 台中市| 民乐县| 二连浩特市| 若羌县| 邹平县| 泰宁县| 陵水| 吉林市| 菏泽市| 邓州市| 开鲁县| 台山市| 九龙县| 天柱县| 玉龙| 池州市| 安泽县| 九龙城区| 博乐市| 阳城县| 延川县| 彭阳县|