ICRA2022:空中作業(yè)時目標被遮擋怎么辦?
背景
隨著無人機技術(shù)的逐漸成熟,我們希望賦予無人機更加豐富的作業(yè)能力??罩凶鳂I(yè)機器人便是一種新型的機器人,將無人機與作業(yè)機構(gòu)結(jié)合起來,使其兼具無人機的快速空間移動能力和機械臂的精確操縱能力。
為了提高機器人的自主作業(yè)能力,視覺等傳感器往往必不可少。在空中操作機器人中,視覺傳感器通常安裝在機械臂末端或無人機本體上。視覺傳感器安裝在機械臂末端時,由于無人機的抖動,作業(yè)目標很容易在圖像畫面中消失;安裝在無人機本體上時,作業(yè)目標又很容易被機械臂遮擋(如圖1所示)。這些問題限制了空中操作機器人進行高精度的作業(yè)活動。本文將介紹一種新穎的目標定位方法解決上述問題,相關(guān)工作發(fā)表于期刊IEEE Robotics and Automation Letters 并將在會議IEEE International Conference on Robotics and Automation (ICRA) 2022上報告[1]。
論文鏈接:
https://shiyuzhao.westlake.edu.cn/style/2022RAL_XiaoyuZhang.pdf
介紹視頻:
https://www.bilibili.com/video/BV11T4y1m7tN?spm_id_from=333.999.0.0

方法
該目標定位方法的核心思想是觀測到目標時,保存目標與周圍特征點的空間距離;沒有觀測到目標時,利用匹配的特征點與目標點的空間距離計算目標點的位置。因為距離是與坐標系無關(guān)的,因此在進行目標定位的過程中不需要同時估計相機的自身位姿,使定位精度更高?;诰嚯x的目標定位類似于GPS等定位系統(tǒng)的四點定位的原理,也就是在空間中,已知不在同一平面上的四個點,以及它們到目標點的距離,即可計算出唯一的目標點位置。該定位方法的系統(tǒng)流程圖如圖2所示。

這里我們使用了RGB-D相機,但也可以拓展到雙目相機。在每幀圖像中我們提取了ORB特征點,因此根據(jù)相機模型,可以得到特征點在相機坐標系中的空間位置:

當觀測到目標時,以及計算特征點到目標點的空間距離,并保存該距離:

當觀測不到目標時,通過特征點匹配可以找到之前保存的特征點及其到目標點的距離,每個匹配的特征點可以提供一個約束。我們將這一約束定義為一個誤差項:

因此,求解如下優(yōu)化方程便可得到最終的目標點位置:

整個定位系統(tǒng)仿照經(jīng)典的視覺SLAM系統(tǒng)進行搭建,分為建圖和定位兩部分。建圖中,我們僅保存并更新特征點到目標點的距離,并不保存點的三維坐標,該地圖被稱為target-centered range-only map。定位中,實現(xiàn)的是求解目標點在當前相機坐標系中的相對位置,核心是構(gòu)建上述的優(yōu)化方程。
實驗
ICL-NUIM 數(shù)據(jù)集
我們首先在ICL-NUIM數(shù)據(jù)集中驗證了我們的算法。如圖3所示,在第一幀圖像中指定目標,并在后續(xù)圖像中持續(xù)定位目標,隨著相機移動,目標會移出畫面,但我們的算法依然能夠進行定位。

這一過程中特征點到目標的距離如下所示:

video1因為使用SLAM算法可以構(gòu)建全局地圖,而目標位置可從地圖中獲得,因此我們將兩種算法進行了比較,統(tǒng)計如圖4所示,其中Em表示觀測到目標時的目標定位誤差,Eu表示沒有觀測到目標時的目標定位誤差??梢钥闯觯覀兊姆椒ㄈ〉昧烁叩亩ㄎ痪?,因為在SLAM中目標定位精度同時受到相機自身定位精度的影響。比較Em和Eu可以看出,即使不能直接觀測到目標,仍能實現(xiàn)其較高的定位精度。

真實場景實驗
此外,我們在不同的真實場景中,在真實無人機上進行了定位實驗,如圖5所示。

在實驗過程視頻如下:

在真實場景中實驗的定位誤差及與SLAM算法的比較如圖6所示,我們的方法同樣取得了更高的定位精度。

運行速度
我們的算法運行效率較高,在配有i7-7700HQ 2.80GHz CPU的筆記本電腦上,每幀處理耗時約42毫秒,即每秒鐘可處理約24幀,能夠滿足無人機的任務(wù)需求。
總結(jié)與展望
在該工作中,我們提出了一種新型的目標定位方法,能夠應(yīng)對空中操作機器人中難免的目標遮擋等問題。該方法在數(shù)據(jù)集與真實環(huán)境中都取得了較好的實驗結(jié)果。未來我們將進一步拓展該算法,并將其與實際的空中作業(yè)任務(wù)相結(jié)合,賦予空中機器人更強大的自主作業(yè)能力。
參考資料
[1] X. Zhang, Y. Zhang, P. Liu, and S. Zhao, “Robust Localization of Occluded Targets in Aerial Manipulation Via Range-Only Mapping,” IEEE Robotic and Automation Letters, vol. 7, no. 2, pp. 2921–2928, 2022.

本文共1484字
由西湖大學(xué)智能無人系統(tǒng)實驗室張嘯宇原創(chuàng)
申請文章授權(quán)請聯(lián)系后臺相關(guān)運營人員
▌微信公眾號:空中機器人前沿
▌知乎:空中機器人前沿(本文鏈接:https://zhuanlan.zhihu.com/p/479390553)
▌Youtube:Aerial robotics @ Westlake University
▌實驗室網(wǎng)站:https://shiyuzhao.westlake.edu.cn/??
