加州大學提出激光雷達與相機的同步時空參數(shù)標定法
以下內(nèi)容來自小六的機器人SLAM學習圈知識星球每日更新內(nèi)容
點擊領取學習資料 → 機器人SLAM學習資料大禮包#論文# SST-Calib: Simultaneous Spatial-Temporal Parameter Calibration between LIDAR and Camera 論文地址:https://arxiv.org/abs/2207.03704作者單位:加州大學 ?借助多種輸入模態(tài)的信息,基于傳感器融合的算法通常優(yōu)于單模態(tài)。具有互補語義和深度信息的相機和激光雷達是復雜駕駛環(huán)境中的典型傳感器配置。然而,對于大多數(shù)相機和激光雷達融合的算法,傳感器的標定將極大地影響性能。具體來說,檢測算法通常需要多個傳感器之間的精確幾何關系作為輸入,并且默認傳感器的時間戳是同步的。配準這些傳感器需要精心設計的標定裝置和精確的同步機制,并且標定通常是離線完成的。在這項工作中,提出了一種基于分割的框架來聯(lián)合估計相機激光雷達套件校準中的幾何參數(shù)和時間參數(shù)。
?首先將語義分割掩模應用于兩種傳感器模態(tài),并通過逐像素雙向損失來優(yōu)化校準參數(shù)。我們特別結合了來自光流的速度信息作為時間參數(shù)。由于監(jiān)督僅在分割級別執(zhí)行,因此在框架內(nèi)不需要校準標簽。所提出的算法在KITTI數(shù)據(jù)集上進行了測試,結果表明幾何參數(shù)和時間參數(shù)都得到了準確的實時校準。 ?這項工作提出了一個自動駕駛平臺上激光雷達和相機之間的聯(lián)合時空校準框架。所提出的框架的輸入是相機和激光雷達幀的序列。這里,每個傳感器模態(tài)都通過任意的語義分割網(wǎng)絡進行處理,可以根據(jù)可用的訓練數(shù)據(jù)進行選擇。其次,將分割的LIDAR點云投影到語義圖像上,計算新設計的雙向對準損失,用于幾何參數(shù)回歸。不僅限于點對像素的損失,我們還對語義像素進行了點對點損失的下采樣。估計兩者之間的時間延遲,我們從兩個連續(xù)的圖像中估計視覺里程計,并預測用于匹配的偏移點云。 本文貢獻如下: 1、為激光雷達相機傳感器套件提出了一種聯(lián)合時空標定算法; 2、設計雙向損失是為了在幾何參數(shù)回歸中獲得更穩(wěn)健的性能; 3、將時間參數(shù)與視覺里程計相結合,以估計傳感器之間的時間延遲。






以上內(nèi)容來自小六的機器人SLAM學習圈知識星球每日更新內(nèi)容