最美情侣中文字幕电影,在线麻豆精品传媒,在线网站高清黄,久久黄色视频

歡迎光臨散文網(wǎng) 會(huì)員登陸 & 注冊(cè)

Super odometry:以IMU為核心的激光雷達(dá)視覺(jué)慣性融合框架(ICRA2021)

2021-07-26 20:59 作者:3D視覺(jué)工坊  | 我要投稿

Super Odometry: IMU-centric LiDAR-Visual-Inertial Estimator for Challenging Environments

作者:Shibo Zhao,Hengrui Zhang, Peng Wang, Lucas Nogueira,Sebastian Scherer

論文地址:https://arxiv.org/pdf/2104.14938.pdf

視頻:https://sites.google.com/view/superodometry.



該里程計(jì)不同于傳統(tǒng)的方案,主線(xiàn)程為IMU線(xiàn)程;結(jié)合了松耦合,緊耦合的優(yōu)點(diǎn)。由視覺(jué)-慣性、雷達(dá)-慣性提供先驗(yàn)信息解決bias的估計(jì)問(wèn)題,并且為IMU 里程計(jì)提供運(yùn)動(dòng)信息;并且該方案建立了一種八叉樹(shù)代替靜態(tài) KD-tree來(lái)管理空間3D點(diǎn)。

摘要: 我們提出了 Super Odometry,一種高精度多模態(tài)傳感器融合框架,提供了一種簡(jiǎn)單而有效的方法來(lái)融合多個(gè)傳感器,例如 LiDAR、camera和 IMU 傳感器,并在感知退化的環(huán)境中實(shí)現(xiàn)穩(wěn)健的狀態(tài)估計(jì)。與傳統(tǒng)的傳感器融合方法不同,Super Odometry 采用以 IMU 為中心的數(shù)據(jù)處理方案,它結(jié)合了松耦合和緊耦合的優(yōu)點(diǎn),并以粗到細(xì)的方式恢復(fù)運(yùn)動(dòng)。所提出的框架由三部分組成:IMU 里程計(jì)、視覺(jué)慣性里程計(jì)和激光慣性里程計(jì)。視覺(jué)慣性里程計(jì)和激光慣性里程計(jì)在約束 IMU 偏差之前提供位姿,并從 IMU 里程計(jì)接收運(yùn)動(dòng)預(yù)測(cè)。為了確保實(shí)時(shí)的高性能,我們應(yīng)用了一個(gè)動(dòng)態(tài)八叉樹(shù),與靜態(tài) KD-tree相比,它只消耗了 10% 的運(yùn)行時(shí)間。提出的系統(tǒng)部署在無(wú)人機(jī)和地面機(jī)器人上,作為探索者團(tuán)隊(duì)為 DARPA 地下挑戰(zhàn)所做努力的一部分,該團(tuán)隊(duì)分別在隧道和城市賽道 1 中獲得了第一和第二名。

作者:chaochaoSEU|微信公眾號(hào):3D視覺(jué)工坊注1:文末附有【視覺(jué)SLAM、激光SLAM】交流群加入方式 3D視覺(jué)精品課程推薦: 注2:自動(dòng)駕駛系統(tǒng)課程:https://mp.weixin.qq.com/s/0-mb6M6HvKU3Uau0a4taTw 注3:視覺(jué)SLAM(vins-fusion):https://mp.weixin.qq.com/s/L3YkFH7JSAhM4rDam7mdWg 注4:三維重建系統(tǒng)課程:https://mp.weixin.qq.com/s/9gtdrloSWR2kJlYk5CnWIQ 注5:三維點(diǎn)云系統(tǒng)課程:https://mp.weixin.qq.com/s/uJ34xjWjAFCzDDduoo0ixA 注6:激光SLAM系統(tǒng)教程:https://mp.weixin.qq.com/s/lfA-xwPNvR3-laemEGBAqQ 注7:結(jié)構(gòu)光系統(tǒng)教程:https://mp.weixin.qq.com/s/WLyuE3ByntGA-Y0w8GZ29A

1 引言

多模態(tài)傳感器融合對(duì)于自主機(jī)器人完成復(fù)雜和危險(xiǎn)的任務(wù)至關(guān)重要,例如在地下環(huán)境中感知、工業(yè)檢查和搜救。在這些 無(wú)GPS 的場(chǎng)景中,黑暗、空氣中的模糊條件(灰塵、霧和煙霧)和缺乏感知特征是目前阻礙我們采用機(jī)器人系統(tǒng)實(shí)現(xiàn)長(zhǎng)期自主的主要挑戰(zhàn)。為了在這種環(huán)境中實(shí)現(xiàn)定位,基于激光雷達(dá)的里程計(jì) [1]-[3] 似乎是機(jī)器人的合適選擇,因?yàn)榧す饫走_(dá)傳感器可以提供高保真 3D 測(cè)量。然而,在無(wú)結(jié)構(gòu)的環(huán)境中,例如長(zhǎng)隧道或存在遮擋物(例如霧、灰塵、煙霧),由于退化和異常值,基于激光雷達(dá)的方法難以提供可靠的運(yùn)動(dòng)估計(jì)。為了處理這些情況,還需要集成額外的傳感器,尤其是camera。盡管如此,視覺(jué)相機(jī)的用例很大程度上僅限于光線(xiàn)不足的條件。因此,我們認(rèn)為基于激光雷達(dá)的 [1]-[3]、基于視覺(jué)的 [4]、[5] 或基于激光雷達(dá)的視覺(jué)的 [6]、[7] SLAM 方法都不是具有挑戰(zhàn)性的環(huán)境中的最佳選擇。由于這些傳感器是環(huán)境相關(guān)的,如果將它們用作主要傳感器來(lái)構(gòu)建 SLAM 系統(tǒng),則很難實(shí)現(xiàn)穩(wěn)健的性能。

在過(guò)去的十年中,多模態(tài)傳感器融合非常流行,可以分為松耦合或緊耦合方法。如表 I 所示,松耦合方法 [1]、[3]、[8] 因其簡(jiǎn)單性、可擴(kuò)展性和低計(jì)算成本而更受青睞。相比之下,緊耦合的方法 [2] 已證明其準(zhǔn)確性和穩(wěn)健的性能具有優(yōu)勢(shì)。然而,緊耦合的方法通常難以擴(kuò)展其他傳感器并實(shí)現(xiàn)傳感模式之間的切換方案以應(yīng)對(duì)各種環(huán)境。此外,緊密耦合的方法可能容易應(yīng)對(duì)潛在的傳感器故障,因?yàn)樗鼈冎械拇蠖鄶?shù)只使用單個(gè)估計(jì)引擎 [8]。相比之下,松耦合的方法利用多個(gè)估計(jì)引擎之間分配傳感器故障風(fēng)險(xiǎn),并且應(yīng)該具有更穩(wěn)健的性能。然而,由于大多數(shù)松耦合方法采用幀到幀估計(jì),它們?cè)跍?zhǔn)確性和魯棒性上仍然存在局限性。



受上述討論的啟發(fā),我們提出了一個(gè)以 IMU 為中心的 SLAM 系統(tǒng),它結(jié)合了緊耦合和松耦合的優(yōu)點(diǎn)。系統(tǒng)設(shè)計(jì)遵循一個(gè)關(guān)鍵理解:IMU產(chǎn)生帶有噪聲的平滑測(cè)量,但很少有異常值,只要其他傳感器可以很好地約束偏置漂移,就可以使其估計(jì)非常準(zhǔn)確。因此,Super Odometry 是圍繞 IMU 作為主要傳感器而設(shè)計(jì)的。本文主要貢獻(xiàn)如下:

1)我們提出了第一個(gè)以 IMU 為中心的傳感器融合方案,可在極端和感知挑戰(zhàn)的環(huán)境中實(shí)現(xiàn)準(zhǔn)確的實(shí)時(shí)狀態(tài)估計(jì)。

2)提議的方案結(jié)合了緊耦合和松耦合的優(yōu)點(diǎn),提供了一種簡(jiǎn)單但有效的方法來(lái)融合多個(gè)傳感器。

3)我們建議使用有效的 3D 點(diǎn)組織(動(dòng)態(tài)八叉樹(shù)),顯著提高掃描匹配的實(shí)時(shí)性能。

4)提議的方法已部署在包括無(wú)人機(jī)和地面機(jī)器人在內(nèi)的多個(gè)物理系統(tǒng)上,并已在各種具有挑戰(zhàn)性的場(chǎng)景中進(jìn)行了廣泛評(píng)估,這些場(chǎng)景包括劇烈運(yùn)動(dòng)、低光、長(zhǎng)走廊,甚至在重塵環(huán)境中。

2 相關(guān)文獻(xiàn)

近年來(lái),人們對(duì)laser-visual-inertial估計(jì)器進(jìn)行了許多努力,可以將其分為松耦合方法或緊耦合方法。

A. Loosely Coupled Laser-Visual-Inertial Odometry

Zhang 和 Singh [9] 提出了 V-LOAM 算法,該算法采用順序數(shù)據(jù)處理方案,并使用視覺(jué)-慣性里程計(jì)為激光掃描匹配提供運(yùn)動(dòng)預(yù)測(cè)。然而,由于該方案仍執(zhí)行逐幀運(yùn)動(dòng)估計(jì),并且當(dāng)前估計(jì)完全基于上次估計(jì),因此如果上次估計(jì)出錯(cuò),則難以實(shí)現(xiàn)恢復(fù)機(jī)制。為了解決這個(gè)問(wèn)題,Super Odometry 采用因子圖優(yōu)化,當(dāng)前估計(jì)是基于滑動(dòng)窗口內(nèi)的歷史幀。因此,Super Odometry對(duì)于單個(gè)故障是安全的。為了提高魯棒性,一些工作將其他約束納入laser-visual-inertial估計(jì)器并獲得非常有希望的結(jié)果,例如添加thermal-inertial先驗(yàn) [10]、leg odometry先驗(yàn) [11] 或閉環(huán) [12]。然而,由于這些方法仍然執(zhí)行幀到幀的運(yùn)動(dòng)估計(jì),它們與 V-LOAM 有類(lèi)似的局限性。

B. Tightly Coupled Laser-Visual-Inertial Odometry

為了執(zhí)行聯(lián)合狀態(tài)優(yōu)化,Shao 提出了 VILSLAM [13],它在圖優(yōu)化中有效地融合了視覺(jué)-慣性里程計(jì)和激光雷達(dá)掃描匹配。Zuo[14] 介紹了 LIC-Fusion,它通過(guò)使用 MSCKF 框架 [15] 將激光雷達(dá)邊緣特征緊耦合,將視覺(jué)特征和平面特征保留在一起。David [16] 提出了一種統(tǒng)一的多傳感器里程計(jì),它聯(lián)合優(yōu)化了 3D 基元,例如線(xiàn)和平面。然而,由于這些方法的測(cè)量高度緊耦合,它們很難擴(kuò)展到其他傳感器。此外,由于這些方法通常使用單個(gè)狀態(tài)估計(jì)引擎,因此當(dāng)傳感器損壞時(shí)它們可能具有更高的故障率。相比之下,Super Odometry是一個(gè)以 IMU 為中心的傳感器融合方案,它只接收來(lái)自其他里程計(jì)的位姿約束。因此,很容易融合其他傳感器。此外,由于它具有多個(gè)狀態(tài)估計(jì)引擎,因此能夠克服潛在的傳感器故障。

C. Method Highlights

與之前的作品相比,Super Odometry 的優(yōu)勢(shì)在于:

穩(wěn)健性和可擴(kuò)展性:我們以 IMU 為中心的傳感器融合架構(gòu)(見(jiàn)圖 2)使我們能夠?qū)崿F(xiàn)高精度并以低故障率運(yùn)行,因?yàn)?IMU 傳感器與環(huán)境無(wú)關(guān)。該系統(tǒng)包括故障安全機(jī)制,并提供一種更簡(jiǎn)單靈活的方式來(lái)融合多個(gè)傳感器,如 GPS、車(chē)輪里程計(jì)等。

簡(jiǎn)單但有效:Super Odometry避免了融合多個(gè)傳感器的復(fù)雜推導(dǎo),因?yàn)?IMU 具有簡(jiǎn)單而準(zhǔn)確的概率模型。只要其他傳感器能夠在約束 IMU 預(yù)積分因子之前提供相對(duì)位姿,這些傳感器就會(huì)成功地融合到系統(tǒng)中。特別是,作為 Team Explorer 為 DARPA 地下挑戰(zhàn)所做的努力的一部分,它在具有挑戰(zhàn)性的環(huán)境中得到了廣泛的評(píng)估。

低 CPU 使用率和高實(shí)時(shí)性能:由于 Super Odometry 沒(méi)有將所有傳感器數(shù)據(jù)組合成一個(gè)完整的因子圖,而是將大因子圖劃分為多個(gè)“子因子圖”和每個(gè)“子因子圖”接收來(lái)自 IMU 預(yù)積分因子的預(yù)測(cè)(見(jiàn)圖 2)。因此,每個(gè)里程計(jì)因子的運(yùn)動(dòng)從粗到細(xì)并行恢復(fù),顯著提高了實(shí)時(shí)性能。此外,Super Odometry 采用動(dòng)態(tài)八叉樹(shù)來(lái)組織 3D 點(diǎn),這使得掃描匹配非常高效。



圖2. Super Odometry算法概述。IMU 里程計(jì)利用視覺(jué)-慣性里程計(jì)和 LiDAR -慣性里程計(jì)提供的觀測(cè)來(lái)限制 IMU 偏差。作為回報(bào),受約束的 IMU 里程計(jì)為視覺(jué)里程計(jì)和激光里程計(jì)提供了預(yù)測(cè).

3 系統(tǒng)概述

我們首先定義我們?cè)谡撐闹惺褂玫目蚣芎头?hào),它們?cè)趫D 4(e)中指定。我們將世界坐標(biāo)系表示為 W,IMU坐標(biāo)系為 B,激光雷達(dá)坐標(biāo)系為 L,相機(jī)坐標(biāo)系為 C。為簡(jiǎn)單起見(jiàn),我們將 IMU 坐標(biāo)系視為我們的機(jī)器人載體坐標(biāo)系,我們的目標(biāo)是估計(jì) IMU 載體的位置相對(duì)于固定世界坐標(biāo)系 W 的坐標(biāo)系。機(jī)器人狀態(tài) xk 可以寫(xiě)為:



提出的系統(tǒng)的概述如圖2(b)所示。它由三個(gè)模塊組成:IMU 里程計(jì)、視覺(jué)-慣性里程計(jì) (VIO) 和 LiDAR -慣性里程計(jì) (LIO)。我們的系統(tǒng)設(shè)計(jì)遵循一個(gè)關(guān)鍵見(jiàn)解:只要偏置漂移受到其他傳感器的良好約束,IMU 及其狀態(tài)估計(jì)就可以非常準(zhǔn)確。因此,Super Odometry 使用 IMU 作為主要傳感器。它使用視覺(jué)-慣性里程計(jì) (VIO) 和 LiDAR -慣性里程計(jì) (LIO) 提供的觀測(cè)值來(lái)約束加速度計(jì)偏差 ba 和陀螺儀偏差 bg。作為回報(bào),受約束的 IMU 里程計(jì)為 VIO 和 LIO 提供預(yù)測(cè),它們以粗到細(xì)的方式恢復(fù)運(yùn)動(dòng)。此外,對(duì) IMU 的關(guān)注使方案對(duì)狀態(tài)估計(jì)中與環(huán)境相關(guān)的問(wèn)題(例如幾何或視覺(jué)退化)更加穩(wěn)健。最后,算法架構(gòu)允許以簡(jiǎn)單靈活的方式結(jié)合其他里程計(jì)源,例如 GPS 和車(chē)輪里程計(jì)。

4 數(shù)學(xué)模型

Super Odometry是使用因子圖建模的。這里我們主要介紹三種用于因子圖構(gòu)建的里程計(jì)因子,即:(a)IMU;(b) LiDAR-慣性;(c) 視覺(jué)-慣性里程計(jì)因子。

A. IMU Odometry Factors

IMU里程計(jì)因子的結(jié)構(gòu)如圖2(a)所示,類(lèi)似于傳統(tǒng)的位姿圖結(jié)構(gòu)。位姿圖中的每個(gè)節(jié)點(diǎn)都與一個(gè)狀態(tài)相關(guān)聯(lián)。節(jié)點(diǎn)的密度由最低頻率里程計(jì)確定。兩個(gè)連續(xù)節(jié)點(diǎn)之間的邊代表通過(guò) IMU 預(yù)積分方法獲得的相對(duì)載體運(yùn)動(dòng)。其他邊緣可以是局部約束或全局約束,這取決于傳感器的類(lèi)型。由于相機(jī)和 LiDAR 不是全局參考的,它們的里程計(jì)是基于機(jī)器人的第一個(gè)位姿,我們只使用它們的相對(duì)狀態(tài)估計(jì)作為局部約束來(lái)糾正 IMU 預(yù)積分的偏差。

1) IMU Preintegration Factor:



2) IMU Odometry Optimization



請(qǐng)注意,在不失一般性的情況下,IMU 里程計(jì)還可以結(jié)合來(lái)自其他傳感器(例如 GPS 和車(chē)輪里程計(jì))的測(cè)量值。

B. Laser-Inertial Odometry Factors

激光-慣性測(cè)距因子的結(jié)構(gòu)如圖2(c)所示。由于IMU里程計(jì)計(jì)算效率高,輸出頻率非常高,所以它的IMU預(yù)積分因子可以很自然地加入到Laser-Inertial里程計(jì)的因子圖中。IMU 重新集成因子將用作當(dāng)前掃描圖匹配的運(yùn)動(dòng)預(yù)測(cè),并連接因子圖中的連續(xù)激光雷達(dá)幀。

掃描地圖匹配過(guò)程的流程可以分為三個(gè)步驟,即:(a) 基于 PCA 的特征提取 (b) 多度量線(xiàn)性平方 ICP (c) 激光慣性測(cè)距因子 (d) 動(dòng)態(tài)八叉樹(shù)。

1) PCA Based Feature Extraction:當(dāng)系統(tǒng)接收到新的激光雷達(dá)掃描時(shí),將進(jìn)行特征提取。使用主成分分析(PCA)方法提取點(diǎn)、線(xiàn)和平面特征。

2) Multi-metric ICP Factors:在提取出可靠的幾何特征后,我們使用 IMU 里程計(jì)提供的運(yùn)動(dòng)預(yù)測(cè),將 Fi+1 從 B 轉(zhuǎn)換為 W。然后,我們使用所提出的動(dòng)態(tài)八叉樹(shù)在地圖中找到它的點(diǎn)、線(xiàn)和平面對(duì)應(yīng)關(guān)系。為簡(jiǎn)潔起見(jiàn),詳細(xì)過(guò)程將在下一節(jié)中描述。

為了提高Super Odometry的魯棒性,我們期望估計(jì)聯(lián)合最小化點(diǎn)對(duì)點(diǎn)、點(diǎn)對(duì)線(xiàn)和點(diǎn)對(duì)平面距離誤差度量的最佳變換,可以使用以下等式計(jì)算:



3) Laser-inertial Odometry Optimization: 然后使用 levenberg-marquardt 方法通過(guò)最小化來(lái)求解最優(yōu)變換:



4) Dynamic Octree: 掃描到地圖匹配完成后,需要在地圖上配準(zhǔn)新的掃描。因此,地圖將在每個(gè) LiDAR 配準(zhǔn)步驟后通過(guò)添加或刪除點(diǎn)來(lái)更新。通常,大多數(shù)激光 SLAM 方法采用 KD-tree 方法來(lái)組織 3D 點(diǎn)并完成數(shù)據(jù)關(guān)聯(lián)。然而,我們認(rèn)為傳統(tǒng)的 KD-tree不是組織 3D 點(diǎn)的最佳選擇,尤其是在地圖頻繁更新時(shí)。

Motivation:圖3(a)顯示了在全局地圖(紫色塊)中添加新點(diǎn)的過(guò)程。地圖上的點(diǎn)保持在體素中,黃色塊表示添加新點(diǎn)時(shí)更新的體素。由于傳統(tǒng)的KD-tree只用一棵樹(shù)來(lái)組織所有的點(diǎn),我們需要重新創(chuàng)建KD-tree,每次添加點(diǎn)時(shí)KD-tree的結(jié)構(gòu)都會(huì)改變,如圖3(b)所示。我們發(fā)現(xiàn)這個(gè)過(guò)程非常耗時(shí),而且計(jì)算效率不高。



圖 3:3D KD 樹(shù)和動(dòng)態(tài)八叉樹(shù)的比較。(a,b) 顯示了添加新點(diǎn)云(灰色圓圈)時(shí) 3D KD-tree 的構(gòu)建過(guò)程,需要改變整個(gè)樹(shù)的結(jié)構(gòu)。(c,d) 展示了動(dòng)態(tài)八叉樹(shù)添加新點(diǎn)云(灰色圓圈)時(shí)的構(gòu)建過(guò)程,只需要改變子樹(shù)的結(jié)構(gòu)即可。

Key Insight:我們沒(méi)有改進(jìn)三維點(diǎn)集中的鄰居搜索,而是在如何重用現(xiàn)有樹(shù)的結(jié)構(gòu)并避免在地圖更新時(shí)重新創(chuàng)建新樹(shù)上做出更多努力。為了實(shí)現(xiàn)這一點(diǎn),我們提出了一種更有效的 3D 點(diǎn)組織,稱(chēng)為動(dòng)態(tài)八叉樹(shù),以促進(jìn)數(shù)據(jù)關(guān)聯(lián)。

Method Description:動(dòng)態(tài)八叉樹(shù)基于 Behley [19] 的工作。它將映射存儲(chǔ)為哈希表,如圖 3(d)所示。世界由體素表示,體素可以使用體素世界坐標(biāo)的散列函數(shù)從哈希表中訪問(wèn)。3D 點(diǎn)根據(jù)它們的位置坐標(biāo)存儲(chǔ)在不同的體素中。不是只構(gòu)建一棵樹(shù),每個(gè)體素都有自己的八叉樹(shù)來(lái)組織點(diǎn),每個(gè)八叉樹(shù)都可以通過(guò)哈希表訪問(wèn)。由于我們只需要更新特定的八叉樹(shù)而不是整棵樹(shù),因此數(shù)據(jù)關(guān)聯(lián)的實(shí)時(shí)性能得到了顯著提高。更詳細(xì)的說(shuō)明可以在算法 1 中找到。



C. Visual-Inertial Odometry Factors

為了充分利用視覺(jué)和激光雷達(dá)傳感模式的融合,我們?cè)谙鄼C(jī)視野內(nèi)跟蹤單目視覺(jué)特征和激光點(diǎn),并使用它們?yōu)橐曈X(jué)特征提供深度信息。

1) Visual-inertial Odometry Optimization。


圖片上傳失敗

重試




5 實(shí)驗(yàn)分析

我們使用 Team Explorer 的 DS 無(wú)人機(jī)(圖 4(e))收集了我們的測(cè)試數(shù)據(jù)集,部署在 DARPA 地下挑戰(zhàn)中。它具有多傳感器設(shè)置,包括 Velodyne VLP-16 LiDAR、Xsens IMU、帶有廣角魚(yú)眼鏡頭的 uEye 攝像頭和英特爾 NUC 板載計(jì)算機(jī)。數(shù)據(jù)序列旨在包括視覺(jué)和幾何退化的場(chǎng)景,這對(duì)于基于相機(jī)和激光雷達(dá)的狀態(tài)估計(jì)尤其麻煩。



圖 5 顯示了算法輸出軌跡與來(lái)自全站儀的真值軌跡的比較。慮到表 II 中顯示的絕對(duì)軌跡誤差 (ATE),我們看到純基于視覺(jué)的方法在這種情況下的性能最差,正如預(yù)期的那樣。我們的Super Odometry 以 0.174m 的最低 ATE 優(yōu)于上述方法。我們還在數(shù)據(jù)集部分提到的白墻數(shù)據(jù)序列上評(píng)估了我們的方法。每種方法的 ATE 可以在表 II 中找到。



結(jié)構(gòu)可能會(huì)導(dǎo)致基于激光雷達(dá)的算法出現(xiàn)問(wèn)題。圖 6 顯示了該數(shù)據(jù)序列中 LOAM、LIO-SAM 和 Super Odometry 的結(jié)果圖。一方面,我們觀察到錯(cuò)位和顯著漂移,如 LIO-SAM 和 LOAM 圖中的黃色圓圈所示。另一方面,超級(jí)里程計(jì)優(yōu)于前兩種方法,并提供準(zhǔn)確的地圖和里程計(jì)結(jié)果。我們還在類(lèi)似的幾何退化情況下評(píng)估我們的方法,包括數(shù)據(jù)集部分中提到的長(zhǎng)走廊和受限環(huán)境數(shù)據(jù)序列。每種方法的 ATE 可以在表 II 中找到。



從圖 7 中,我們可以看到 LOAM 和 LIO-SAM 都無(wú)法創(chuàng)建準(zhǔn)確的場(chǎng)景地圖。在圖 7(a)中,我們可以觀察到 LOAM 生成的地圖有明顯的錯(cuò)位,如黃色圓圈所示。這主要是因?yàn)?LOAM 嚴(yán)重依賴(lài)于 LiDAR 測(cè)量,而 IMU 僅用于初始化激光掃描匹配。在灰塵較多的情況下,由于噪聲返回,掃描匹配很可能會(huì)失敗。LIO-SAM 的性能優(yōu)于 LOAM,這得益于其緊耦合的 LiDAR-IMU 架構(gòu)和減少對(duì) LiDAR 測(cè)量的依賴(lài),盡管我們?nèi)匀豢梢杂^察到圖 7(b) 中黃色圓圈中的地圖未對(duì)準(zhǔn)。在這個(gè)實(shí)驗(yàn)中,Super Odometry 優(yōu)于 LOAM 和 LIO-SAM。它給出了一個(gè)準(zhǔn)確且對(duì)齊良好的地圖,如圖 7(c) 所示。取得優(yōu)異結(jié)果的主要原因是 Super Odometry 采用基于主成分分析的特征提取方法,并對(duì)每個(gè)特征的質(zhì)量進(jìn)行評(píng)估。因此,如果一個(gè)特征質(zhì)量低,它將被視為噪聲,而不用于狀態(tài)估計(jì)



實(shí)時(shí)評(píng)估

我們展示了 Super Odometry 的實(shí)時(shí)性能及其在輕量級(jí)車(chē)載系統(tǒng)上高效運(yùn)行的能力。我們?cè)?8 核 Intel Core i7-4790K CPU 上對(duì)算法進(jìn)行了基準(zhǔn)測(cè)試。首先,我們?cè)u(píng)估使用動(dòng)態(tài)八叉樹(shù)代替?zhèn)鹘y(tǒng) KD -tree的影響。然后,我們?cè)u(píng)估每個(gè)子模塊的處理時(shí)間。

正如圖 8 中看到的,雖然動(dòng)態(tài)八叉樹(shù)和 KD-tree的查詢(xún)時(shí)間保持相似,但建樹(shù)時(shí)間明顯不同,KD-tree的運(yùn)行時(shí)間隨著幀數(shù)呈指數(shù)增長(zhǎng),而動(dòng)態(tài)八叉樹(shù)的運(yùn)行時(shí)間幾乎保持不變。這是因?yàn)閯?dòng)態(tài)八叉樹(shù)可以避免重建整棵樹(shù),只通過(guò)哈希映射查找更新相關(guān)的子樹(shù)。


圖片上傳失敗

重試


我們?cè)u(píng)估了 Super Odometry 的每個(gè)子模塊處理時(shí)間,并將我們的 Lidar-inertial Odometry 與流行的 LIO-SAM 算法在各種數(shù)據(jù)集中進(jìn)行了比較,如表 III 所示??偟膩?lái)說(shuō),Super Odometry可以實(shí)現(xiàn)非常高頻的狀態(tài)估計(jì),因?yàn)樗凶幽K并行運(yùn)行。IMU Odometry 可以直接輸出 1000 Hz 的狀態(tài)估計(jì)。Super Odometry 的 LiDAR 過(guò)程模塊比 LIO-SAM 花費(fèi)的時(shí)間更短。差異在 Dust 數(shù)據(jù)集中更為顯著,其中 LIO-SAM 平均為 102 ms,而 Super Odometry 平均為 21 ms。這是因?yàn)樵趬m土飛揚(yáng)的環(huán)境中,LiDAR 掃描匹配收斂速度較慢,而 Super Odometry 可以拒絕一些不可靠的約束,更好地利用動(dòng)態(tài)八叉樹(shù)的更快插入和查詢(xún)。



6 總結(jié)

由于缺乏可靠的測(cè)量,在感知退化的環(huán)境中進(jìn)行穩(wěn)健的狀態(tài)估計(jì)非常具有挑戰(zhàn)性。為了解決這個(gè)問(wèn)題,我們提出了 Super Odometry,一種以 IMU 為中心的數(shù)據(jù)處理方案,結(jié)合了松耦合和緊耦合的優(yōu)點(diǎn)。為了提高實(shí)時(shí)性能,我們建議使用顯著提高實(shí)時(shí)性能的動(dòng)態(tài)八叉樹(shù)。所提出的方法已經(jīng)在視覺(jué)和幾何退化的環(huán)境中進(jìn)行了測(cè)試。結(jié)果表明,我們的框架對(duì)單個(gè)傳感器故障具有魯棒性,并且能夠在具有挑戰(zhàn)性的現(xiàn)實(shí)世界場(chǎng)景中實(shí)現(xiàn)高精度和彈性的運(yùn)動(dòng)估計(jì)。

備注:作者也是我們「3D視覺(jué)從入門(mén)到精通」特邀嘉賓:一個(gè)超干貨的3D視覺(jué)學(xué)習(xí)社區(qū)

原創(chuàng)征稿

初衷3D視覺(jué)工坊是基于優(yōu)質(zhì)原創(chuàng)文章的自媒體平臺(tái),創(chuàng)始人和合伙人致力于發(fā)布3D視覺(jué)領(lǐng)域最干貨的文章,然而少數(shù)人的力量畢竟有限,知識(shí)盲區(qū)和領(lǐng)域漏洞依然存在。為了能夠更好地展示領(lǐng)域知識(shí),現(xiàn)向全體粉絲以及閱讀者征稿,如果您的文章是3D視覺(jué)、CV&深度學(xué)習(xí)、SLAM、三維重建、點(diǎn)云后處理、自動(dòng)駕駛、三維測(cè)量、VR/AR、3D人臉識(shí)別、醫(yī)療影像、缺陷檢測(cè)、行人重識(shí)別、目標(biāo)跟蹤、視覺(jué)產(chǎn)品落地、硬件選型、求職分享等方向,歡迎砸稿過(guò)來(lái)~文章內(nèi)容可以為paper reading、資源總結(jié)、項(xiàng)目實(shí)戰(zhàn)總結(jié)等形式,公眾號(hào)將會(huì)對(duì)每一個(gè)投稿者提供相應(yīng)的稿費(fèi),我們支持知識(shí)有價(jià)!

投稿方式

郵箱:vision3d@yeah.net 或者添加小助理微信:CV_LAB,另請(qǐng)注明原創(chuàng)投稿。

微信交流群:

歡迎加入「3D視覺(jué)工坊」交流群,方向涉及3D視覺(jué)、計(jì)算機(jī)視覺(jué)、深度學(xué)習(xí)、vSLAM、激光SLAM、立體視覺(jué)、自動(dòng)駕駛、點(diǎn)云處理、三維重建、多視圖幾何、結(jié)構(gòu)光、多傳感器融合、VR/AR、學(xué)術(shù)交流、求職交流等。工坊致力于干貨輸出,為3D領(lǐng)域貢獻(xiàn)自己的力量!歡迎大家一起交流成長(zhǎng)~

添加小助手微信:CV_LAB,備注學(xué)校/公司+姓名+研究方向即可加入工坊一起學(xué)習(xí)進(jìn)步。


Super odometry:以IMU為核心的激光雷達(dá)視覺(jué)慣性融合框架(ICRA2021)的評(píng)論 (共 條)

分享到微博請(qǐng)遵守國(guó)家法律
万荣县| 昌图县| 宜良县| 枣庄市| 靖江市| 焉耆| 镇平县| 壤塘县| 昌都县| 榆树市| 五指山市| 玛多县| 象山县| 读书| 丹阳市| 荣成市| 陇南市| 庐江县| 江孜县| 昆山市| 北川| 邹平县| 绥江县| 九龙城区| 株洲市| 九江市| 长宁区| 余干县| 辽阳县| 郯城县| 墨竹工卡县| 隆德县| 海城市| 淮阳县| 武平县| 五家渠市| 岑巩县| 济宁市| 淮滨县| 眉山市| 太康县|