以色列海法大學(xué)開源水下雙目慣性數(shù)據(jù)集!

以下內(nèi)容來自小六的機器人SLAM學(xué)習(xí)圈知識星球每日更新內(nèi)容
點擊領(lǐng)取學(xué)習(xí)資料 → 機器人SLAM學(xué)習(xí)資料大禮包
#論文##開源數(shù)據(jù)集# ?FLSea: Underwater Visual-Inertial and Stereo-Vision Forward-Looking Datasets
論文地址:https://arxiv.org/abs/2302.12772
作者單位:以色列海法大學(xué)
數(shù)據(jù)集地址:https://www.kaggle.com/datasets/viseaonlab/flsea-vi
? ?水下的能見度是具有挑戰(zhàn)性的,隨著拍攝對象和相機之間距離的增加,能見度會降低。這就是為什么前瞻方向的水下計算機視覺任務(wù)難度更大。我們在地中海和紅海用兩個水下成像平臺、一個雙目相機平臺和一個ROV收集了水下前視雙目和視覺慣性成像組。據(jù)我們所知,在水下環(huán)境中,只有一個公開的數(shù)據(jù)集具有這種相機-傳感器方向。這些數(shù)據(jù)集對于開發(fā)幾種水下應(yīng)用至關(guān)重要,包括自主避障、視覺里程計、3D跟蹤、同步定位和建圖(SLAM)以及通過深度學(xué)習(xí)進(jìn)行深度估計。
? ?雙目數(shù)據(jù)集包括動態(tài)水下環(huán)境中具有已知大小的物體的同步立體圖像。視覺慣性數(shù)據(jù)集包含單目圖像和IMU測量,與放置在場景中的毫秒分辨率時間戳和已知大小的對象對齊。這兩種傳感器配置都允許進(jìn)行比例估計,在雙目設(shè)置中使用標(biāo)定的基線,在視覺慣性設(shè)置中使用IMU。使用商業(yè)攝影測量軟件(Agisft Metashape)為這兩種數(shù)據(jù)集類型離線創(chuàng)建了地面真實深度圖。地面真實情況通過在整個成像環(huán)境中放置的多個已知測量來驗證。
? ? 總共有5個立體數(shù)據(jù)集和8個視覺慣性數(shù)據(jù)集,每個數(shù)據(jù)集包含數(shù)千張圖像,其中包括一系列不同的水下能見度和環(huán)境光條件、自然和人造結(jié)構(gòu)以及動態(tài)相機運動。相機的前瞻性定位使這些數(shù)據(jù)集獨一無二,非常適合測試水下障礙物避免算法,以及在動態(tài)環(huán)境中接近海底的導(dǎo)航。通過我們的數(shù)據(jù)集,我們希望促進(jìn)水下機器人在動態(tài)和/或淺水環(huán)境中自主功能的進(jìn)步。






以上內(nèi)容來自小六的機器人SLAM學(xué)習(xí)圈 每日更新內(nèi)容