上海科技大學提出相機定位增強實現視覺LiDAR點云對齊,適用大規(guī)模點云重建!

以下內容來自小六的機器人SLAM學習圈知識星球每日更新內容
點擊領取學習資料 → 機器人SLAM學習資料大禮包
#論文# CP+: Camera Poses Augmentation with Large-scale LiDAR Maps
論文地址:https://arxiv.org/abs/2302.12198
作者單位:上海科技大學
??大型彩色點云在導航或場景顯示方面具有許多優(yōu)勢。依靠現在廣泛用于重建任務的相機和激光雷達,有可能獲得這樣的彩色點云。然而,來自這兩種傳感器的信息在許多現有框架中沒有很好地融合,導致著色結果不佳,從而導致不準確的相機姿態(tài)和受損的點著色結果。我們提出了一種稱為相機姿態(tài)增強(CP+)的新框架,以改進相機姿態(tài),并將其與基于LiDAR的點云直接對齊。
? 初始粗略相機姿態(tài)由激光雷達慣性或激光雷達慣性視覺里程計給出,具有近似的外部參數和時間同步。改進圖像對齊的關鍵步驟包括選擇與每個相機視圖中的感興趣區(qū)域相對應的點云,從該點云提取可靠的邊緣特征,并導出用于迭代最小化重投影誤差的2D-3D線對應關系。
本文貢獻如下:
1、我們提出并實施了一種改進現有LiDAR地圖中單目相機位姿的新方法,該方法能夠處理大規(guī)模場景中的重建任務。
2、該框架采用多層體素化。在LiDAR處理流程的每一步,包括動態(tài)對象移除、ROI過濾和3D線提取,多層體素圖數據結構作為一個整體用于輸入和輸出,而不是初始點云,這簡化并加快了算法。
3、我們仔細研究和分析了許多降級優(yōu)化情況和重定位失敗案例。
4、已經進行了各種實驗來測試我們的方法,這表明了我們系統(tǒng)的魯棒性和準確性。





以上內容來自小六的機器人SLAM學習圈 每日更新內容