薩拉戈薩大學(xué)提出了一種基于神經(jīng)網(wǎng)絡(luò)深度預(yù)測的直接單目里程計

薩拉戈薩大學(xué)提出了一種基于神經(jīng)網(wǎng)絡(luò)深度預(yù)測的直接單目里程計,將多視點深度預(yù)測和光度殘差結(jié)合在一個優(yōu)化中使尺度客觀,消除尺度漂移。
以下內(nèi)容來自小六的機器人SLAM學(xué)習(xí)圈知識星球每日更新內(nèi)容
點擊領(lǐng)取學(xué)習(xí)資料 → 機器人SLAM學(xué)習(xí)資料大禮包
#論文# Scale-aware direct monocular odometry
論文地址:https://arxiv.org/abs/2109.10077
作者單位:西班牙薩拉戈薩大學(xué)
我們提出了一種基于深度神經(jīng)網(wǎng)絡(luò)的深度預(yù)測的尺度感知直接單目里程計的框架。與以往的深度信息只被部分利用的方法不同,我們提出了一種新的深度預(yù)測殘差,它允許我們結(jié)合多個視角的深度信息。此外,我們建議使用截斷的代價函數(shù),以防止考慮不一致的深度估計。光度測量和深度預(yù)測測量被集成到一個緊耦合的優(yōu)化中,從而產(chǎn)生一個不會累積尺度漂移的尺度感知單目系統(tǒng)。
我們的建議不專門針對具體的神經(jīng)網(wǎng)絡(luò),能夠與現(xiàn)有的絕大多數(shù)深度預(yù)測解決方案一起工作。我們使用兩個公開可用的神經(jīng)網(wǎng)絡(luò)在Kitti里程計數(shù)據(jù)集上驗證了我們的建議的有效性和一般性,并將其與類似的方法以及單目和立體SLAM的最新技術(shù)進行了比較。實驗表明,我們的方法在很大程度上超過了經(jīng)典的單目SLAM,精度是傳統(tǒng)單目SLAM的5到9倍,擊敗了類似的方法,并且具有接近雙目系統(tǒng)的精度。
本文貢獻如下:
1、一種新的用于光度和深度預(yù)測測量的緊耦合優(yōu)化。與以前的工作相比,深度預(yù)測殘差獨立于強度圖像而被表達,并且被包括在所有觀測幀中,而不僅僅是第一個觀測幀。這使我們可以使用具有較低強度梯度的圖像點,并充分利用深度預(yù)測測量,而不會增加計算成本。
2、利用截斷最小二乘(TLS)進行深度預(yù)測殘差的穩(wěn)健優(yōu)化。這避免了在優(yōu)化過程中考慮不一致的深度測量。
3、一個可以與任何現(xiàn)有或未來的深度預(yù)測神經(jīng)網(wǎng)絡(luò)一起使用的通用系統(tǒng),如結(jié)果所示,比類似的解決方案DF-VO性能更好。






以上內(nèi)容來自小六的機器人SLAM學(xué)習(xí)圈?每日更新內(nèi)容