最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會員登陸 & 注冊

論文解讀 | ScanNet:室內(nèi)場景的豐富注釋3D重建

2023-08-25 11:29 作者:BFT白芙堂機器人  | 我要投稿

原創(chuàng) | 文 BFT機器人


大型的、有標(biāo)記的數(shù)據(jù)集的可用性是為了利用做有監(jiān)督的深度學(xué)習(xí)方法的一個關(guān)鍵要求。但是在RGB-D場景理解的背景下,可用的數(shù)據(jù)非常少,通常是當(dāng)前的數(shù)據(jù)集覆蓋了一小范圍的場景視圖,并且具有有限的語義注釋。


為了解決這個問題,本文介紹了一個ScanNet的大規(guī)模室內(nèi)場景3D重建和語義分割數(shù)據(jù)集。該數(shù)據(jù)集包含1513個室內(nèi)場景的2.5M視角,具有3D相機姿態(tài)、表面重建和語義分割的注釋。并且為了收集這些數(shù)據(jù),設(shè)計了一個易于使用和可伸縮的RGB-D捕獲系統(tǒng),其中包括自動表面重建和眾包語義注釋。實驗結(jié)果表明使用這些數(shù)據(jù)有助于在幾個三維場景理解任務(wù)上實現(xiàn)最先進的性能,表現(xiàn)在三維對象分類、語義體素標(biāo)記和CAD模型檢索幾個方面。



背景
BACKDROP


隨著RGB-D傳感器的引入以來,3D幾何捕獲領(lǐng)域獲得了廣泛的關(guān)注,并開辟了廣泛的新應(yīng)用。在三維重建算法上已經(jīng)有了大量的努力,但利用RGB-D數(shù)據(jù)進行的一般三維場景理解最近才開始流行起來。隨著現(xiàn)代機器學(xué)習(xí)方法的快速發(fā)展,如神經(jīng)網(wǎng)絡(luò)模型,也大大促進了對語義理解的研究。


本文建立了一個來幫助初學(xué)者獲得語義標(biāo)記的場景3D模型。人們使用安裝有深度攝像頭的iPad上的一個應(yīng)用程序來獲取RGB-D視頻,然后后臺離線處理數(shù)據(jù),并返回一個完整的語義標(biāo)記的場景3D重建。確實開發(fā)這樣一個框架的挑戰(zhàn)是眾多的,包括如何穩(wěn)健地執(zhí)行三維表面重建,以及如何眾包語義標(biāo)記。對這些問題的研究,并記錄了在擴大RGB-D掃描收集(20人)和注釋(500名人群工作者)方面的經(jīng)驗。




研究
STUDY


RGB-D重建和語義注釋框架的概述。左圖:一個新手用戶使用一個手持RGB-D設(shè)備與我們的掃描界面來掃描一個環(huán)境。中間:RGB-D序列被上傳到一個處理服務(wù)器,該服務(wù)器生成三維表面網(wǎng)格重建及其表面分割。右圖為發(fā)布語義注釋任務(wù)進行眾包,獲得實例級對象類別注釋和三維CAD模型對齊重建。使用ScanNet提供的數(shù)據(jù)對三維深度網(wǎng)絡(luò)進行了訓(xùn)練,并測試了它們在幾個場景理解任務(wù)上的性能,包括三維對象分類、語義體素標(biāo)記和CAD模型檢索。對于語義體素標(biāo)記任務(wù),本文引入了一種新的體積CNN架構(gòu)。


在校準(zhǔn)時,本文使用RGB-D傳感器需要解除深度數(shù)據(jù)的扭曲和深度和顏色數(shù)據(jù)的對齊。先前的研究工作主要集中在具有更精確設(shè)備的控制實驗室條件上,以告知商品傳感器的校準(zhǔn)。然而這對于新手用戶來說是不實用的。因此,用戶只需要打印出一個棋盤圖案,將它放在一個大的、平坦的表面上,并捕獲一個從近距離觀察表面的RGB-D序列。這個序列,以及一組查看棋盤格的紅外線和彩色幀對,由用戶上傳作為校準(zhǔn)的輸入,我們的系統(tǒng)運行一個校準(zhǔn)程序,以獲得深度和顏色傳感器的內(nèi)在參數(shù),以及深度到顏色的外部轉(zhuǎn)換。


我們發(fā)現(xiàn),這種校準(zhǔn)程序易于用戶,結(jié)果改善數(shù)據(jù),從而提高重建質(zhì)量。本文研究選擇了捆綁融合(BundleFusion)系統(tǒng),因為它是設(shè)計和評估類似的傳感器設(shè)置,并提供實時速度,同時相當(dāng)穩(wěn)健的給定手持RGBD視頻數(shù)據(jù)。在驗證過程時候,當(dāng)掃描上傳到處理服務(wù)器并在無監(jiān)督下運行時,將自動觸發(fā)此重建過程。為了建立一個干凈的快照來構(gòu)建本文報道的ScanNet數(shù)據(jù)集,自動丟棄了較短、殘差重建誤差高或?qū)R幀比例低的掃描序列。然后我們手動檢查和丟棄有明顯失調(diào)的重建。



結(jié)論
CONCLUSION


文中還討論了如何在可擴展的流水線中進行3D表面重建和如何進行眾包語義標(biāo)注的問題,并介紹了使用ScanNet數(shù)據(jù)進行3D場景理解任務(wù)的最新技術(shù)和結(jié)果。文章中在可擴展的流水線中使用一種新的體積卷積神經(jīng)網(wǎng)絡(luò)架構(gòu),用于解決語義體素標(biāo)注任務(wù)。結(jié)果表明,使用ScanNet數(shù)據(jù)可以獲得比現(xiàn)有數(shù)據(jù)集更好的性能,這證明了ScanNet數(shù)據(jù)集的重要性和實用性,該數(shù)據(jù)集還包括紋理網(wǎng)格、密集的物體級別語義分割和對齊的CAD模型。3D模型是使用RGB-D捕捉系統(tǒng)重建的,其中包括自動表面重建和眾包語義注釋。


語義分割比任何先前的RGB-D數(shù)據(jù)集都要大一個數(shù)量級。模型使用估計的校準(zhǔn)參數(shù)、相機姿態(tài)、3D表面重建、紋理網(wǎng)格、密集的物體級別語義分割和對齊的CAD模型進行注釋。這使得ScanNet成為場景理解研究的寶貴資源。。此外還提供了新的RGB-D基準(zhǔn)和改進的結(jié)果,這些結(jié)果可以用于3D對象分類、語義體素標(biāo)注和CAD模型檢索等場景理解任務(wù)。




END


作者 |?ZZY

排版?|?春花

審核?|?貓


若您對該文章內(nèi)容有任何疑問,請于我們聯(lián)系,將及時回應(yīng)。如果想要了解更多的前沿資訊,記得點贊關(guān)注哦~



論文解讀 | ScanNet:室內(nèi)場景的豐富注釋3D重建的評論 (共 條)

使用qq登录你需要登录后才可以评论。
保德县| 吉木乃县| 肇庆市| 高唐县| 公主岭市| 通化县| 博乐市| 永泰县| 大洼县| 定边县| 潼南县| 望奎县| 抚顺县| 明水县| 万载县| 隆昌县| 满城县| 大同县| 湘潭县| 泰来县| 融水| 会同县| 龙门县| 梧州市| 罗田县| 安丘市| 寿光市| 四会市| 辽中县| 彭阳县| 彭山县| 改则县| 崇阳县| 金乡县| 拉孜县| 江油市| 琼海市| 汕头市| 祁东县| 乌拉特后旗| 六枝特区|