【開源代碼】基于相機-激光雷達融合的三維實時跟蹤框架

以下內(nèi)容來自從零開始機器人SLAM知識星球 每日更新內(nèi)容
點擊領(lǐng)取學(xué)習資料 → 機器人SLAM學(xué)習資料大禮包
#論文# DeepFusionMOT: A 3D Multi-Object Tracking Framework Based onCamera-LiDAR Fusion with Deep Association
論文地址:[2202.12100] DeepFusionMOT: A 3D Multi-Object Trac...
作者單位:重慶大學(xué)
開源代碼:GitHub - wangxiyang2022/DeepFusionMOT: Code for RA... ?
在最近的文獻中,一方面,許多三維多目標跟蹤(MOT)的工作都關(guān)注于跟蹤精度而忽略了計算速度,通常通過設(shè)計相當復(fù)雜的代價函數(shù)和特征提取器。另一方面,有些方法過于注重計算速度,而犧牲了跟蹤精度。針對這些問題,本文提出了一種魯棒、快速的基于相機-激光雷達融合的MOT方法,該方法在精度和速度之間取得了良好的平衡?;谙鄼C和激光雷達傳感器的特點,設(shè)計了一種有效的深度關(guān)聯(lián)機制,并將其嵌入到MOT方法中。該關(guān)聯(lián)機制實現(xiàn)了當物體距離較遠且僅被相機檢測到時,在二維域內(nèi)對物體進行疊加;當物體出現(xiàn)在激光雷達視場內(nèi)時,用獲得的三維信息更新二維軌跡,實現(xiàn)了二維和三維軌跡的平滑融合?;诘湫蛿?shù)據(jù)集的大量實驗表明,該方法在跟蹤精度和處理速度方面均優(yōu)于現(xiàn)有的MOT方法。 本文貢獻如下: 1、提出了一種基于相機-激光雷達融合的三維實時跟蹤框架,在典型的跟蹤數(shù)據(jù)集上實現(xiàn)了優(yōu)異的運動性能。 2、提出了一種新的深度關(guān)聯(lián)機制,該機制充分利用了相機和LiDAR的特點。這種機制不涉及任何復(fù)雜的成本函數(shù)或特征提取網(wǎng)絡(luò),同時有效地融合了2D和3D軌跡。 3、提出的跟蹤框架具有快速的計算速度和易于實時實現(xiàn)。 4、提出的跟蹤框架可以與任意2D和3D檢測器結(jié)合使用,這使得它廣泛適用于各種場景。






以上內(nèi)容來自從零開始機器人SLAM知識星球 每日更新內(nèi)容