布里斯托大學(xué)等發(fā)布:基于Ground-To-2.5D地圖匹配的圖像地理定位
#論文# arxiv|布里斯托大學(xué)聯(lián)合華為河圖與上海人工智能實驗室發(fā)布基于Ground-To-2.5D地圖匹配的圖像地理定位 【Image-based Geolocalization by Ground-to-2.5D Map Matching】 文章鏈接:[2308.05993] Image-based Geolocalization by Ground... 我們研究基于圖像的地理定位問題,旨在將地面視角的查詢圖像定位在地圖上。先前的方法通常利用跨視角定位技術(shù)將地面視角的查詢圖像與2D地圖進行匹配。然而,由于顯著的跨視角外觀差異,這些方法的性能經(jīng)常不令人滿意。在本文中,我們將跨視角匹配擴展到2.5D空間,在這個空間中,結(jié)構(gòu)物(如樹木、建筑物和其他物體)的高度可以提供額外的信息來引導(dǎo)跨視角匹配。我們提出了一種新的方法,從多模態(tài)數(shù)據(jù)中學(xué)習(xí)代表性的嵌入。 具體而言,我們首先通過極坐標變換將2D地圖與地面全景圖像對齊,以減小全景圖像和地圖之間的差距。然后,我們利用全局融合來融合來自2D和2.5D地圖的多模態(tài)特征,以增加位置嵌入的獨特性。我們構(gòu)建了第一個大規(guī)模的地面到2.5D地圖地理定位數(shù)據(jù)集,以驗證我們的方法并促進研究。我們在兩種流行的定位方法上測試了我們學(xué)習(xí)到的嵌入,即基于單個圖像的定位和基于路徑的定位。大量實驗證明,我們提出的方法比先前的基于2D地圖的方法實現(xiàn)了更高的定位精度和更快的收斂速度。
標簽: