單目視覺慣性深度估計:融合多傳感器實現(xiàn)高精度定位

以下內(nèi)容來自小六的機器人SLAM學(xué)習(xí)圈知識星球每日更新內(nèi)容
點擊領(lǐng)取學(xué)習(xí)資料 → 機器人SLAM學(xué)習(xí)資料大禮包
#論文# Monocular Visual-Inertial Depth Estimation
論文地址:https://arxiv.org/abs/2303.12134
作者單位:英特爾
我們提出了一種視覺-慣性深度估計方法,它結(jié)合了單目深度估計和視覺慣性里程計,以產(chǎn)生稠密的公制尺度的深度估計。我們的方法針對稀疏度量深度執(zhí)行全局尺度和移位對齊,然后進行基于學(xué)習(xí)的稠密對齊。我們在TartanAir和VOID數(shù)據(jù)集上進行了評估,觀察到與僅執(zhí)行全局比對相比,密集比對的反向RMSE減少了30%。我們的方法在低密度下尤其具有競爭力;僅有150個稀疏度量深度點,我們的稠密到稠密深度對齊方法比KBNet的稀疏到稠密深度對齊方法實現(xiàn)了50%以上的iRMSE降低,這是目前關(guān)于VOID的最先進水平。我們成功地演示了從合成TartanAir到真實世界空洞數(shù)據(jù)的零激發(fā)轉(zhuǎn)換,并在NYUv2和VCU-RVI上進行了泛化測試。我們的方法是模塊化的,并且與各種單目深度估計模型兼容。
我們的方法執(zhí)行單目深度估計與稀疏度量深度的最小二乘擬合,然后學(xué)習(xí)每像素的局部調(diào)整。這種全局和局部深度對齊的組合成功地校正了公制尺度,稠密對齊始終優(yōu)于純粹的全局對齊基線。僅需150米深度錨點就可成功對齊,并且對零激發(fā)交叉數(shù)據(jù)集傳輸具有很強的健壯性。我們的流程是模塊化的,與所使用的單目深度估計模型和VIO系統(tǒng)無關(guān);






以上內(nèi)容來自小六的機器人SLAM學(xué)習(xí)圈知識星球每日更新內(nèi)容