做自動(dòng)駕駛的同學(xué)看過(guò)來(lái):場(chǎng)景理解、輔助功能、導(dǎo)航、尋路、避障數(shù)據(jù)集
SANPO:第一個(gè)具有大規(guī)模密集全景分割和深度注釋的人類以自我中心的視頻數(shù)據(jù)集,有助于推動(dòng)視頻分割、深度估計(jì)、多任務(wù)視覺(jué)建模和合成到真實(shí)域適應(yīng)任務(wù)發(fā)展,同時(shí)支持人類導(dǎo)航系統(tǒng), SANPO:一個(gè)大規(guī)模的以自我為中心的視頻數(shù)據(jù)集,專注于戶外環(huán)境中的密集預(yù)測(cè)。 它包含在不同的戶外環(huán)境中收集的立體視頻會(huì)話,以及渲染的合成視頻會(huì)話。 (合成數(shù)據(jù)由 Parallel Domain 提供。)所有會(huì)話都有(密集)深度和里程計(jì)標(biāo)簽。 所有合成會(huì)話和真實(shí)會(huì)話的子集都具有時(shí)間一致的密集全景分割標(biāo)簽。 據(jù)我們所知,這是第一個(gè)具有大規(guī)模密集全景分割和深度注釋的人類自我中心視頻數(shù)據(jù)集。 除了數(shù)據(jù)集之外,我們還為未來(lái)的研究提供零樣本基線和 SANPO 基準(zhǔn)。 我們希望 SANPO 的挑戰(zhàn)性將有助于推動(dòng)視頻分割、深度估計(jì)、多任務(wù)視覺(jué)建模和合成到真實(shí)領(lǐng)域適應(yīng)的最先進(jìn)水平,同時(shí)支持人類導(dǎo)航系統(tǒng)。
論文地址:https://arxiv.org/abs/2309.12172 代碼地址:https://github.com/google-research-datasets/sanpo_dataset 需要進(jìn)論文創(chuàng)新點(diǎn)群的,關(guān)注我私信我,進(jìn)論文創(chuàng)新點(diǎn)群?