悉尼大學(xué)最新工作:深度學(xué)習(xí)虛擬數(shù)據(jù)集,單目VO也能獲得絕對尺度

以下內(nèi)容來自從零開始機器人SLAM知識星球 每日更新內(nèi)容
點擊領(lǐng)取學(xué)習(xí)資料 → 機器人SLAM學(xué)習(xí)資料大禮包
#論文# Towards Scale Consistent Monocular Visual Odometry by Learning from the Virtual World
論文地址:https://arxiv.org/pdf/2203.05712.pdf
作者單位:悉尼大學(xué)
?單目視覺里程計(VO)通過從高性價比的相機圖像中提供實時的車輛運動,引起了廣泛的研究關(guān)注。然而,目前最先進的基于優(yōu)化的單目VO方法在長期預(yù)測時存在尺度不一致的問題。最近,深度學(xué)習(xí)被引入來解決這個問題,通過在訓(xùn)練數(shù)據(jù)集中利用雙目序列或運動真值。然而,這需要額外的數(shù)據(jù)成本,而且這樣的訓(xùn)練數(shù)據(jù)可能不是在所有數(shù)據(jù)集中都可用。在本文中,我們提出了一種新的VRVO框架,該框架可以從現(xiàn)代仿真環(huán)境中容易獲得的虛擬數(shù)據(jù)中檢索絕對尺度,而在真實領(lǐng)域中,無論是訓(xùn)練階段還是推理階段都不需要雙目數(shù)據(jù)或地面運動真值。具體地說,我們首先使用單目真實圖像和雙目虛擬數(shù)據(jù)訓(xùn)練一個尺度感知的視差網(wǎng)絡(luò)。利用對抗訓(xùn)練策略將兩個領(lǐng)域的圖像映射到一個共享的特征空間,彌合了虛擬和現(xiàn)實領(lǐng)域的差距。然后,通過構(gòu)建一個虛擬目標(biāo)來確保長軌跡上的尺度一致性,從而將得到的尺度一致性差異與直接VO系統(tǒng)集成。此外,為了解決優(yōu)化后端和學(xué)習(xí)過程分離導(dǎo)致的次優(yōu)問題,我們進一步提出了一個相互強化的管道,允許學(xué)習(xí)和優(yōu)化之間的雙向信息流,提高了彼此的魯棒性和準(zhǔn)確性。我們在KITTI數(shù)據(jù)集上驗證了我們的框架的有效性。






以上內(nèi)容來自從零開始機器人SLAM知識星球 每日更新內(nèi)容