如何更高效的學習SLAM?
SLAM正確學習姿勢
后臺和粉絲群里經(jīng)常收到大家的問題:
機械/自動化/數(shù)學等非計算機專業(yè)能否轉(zhuǎn)SLAM?
導師不懂,但要我做SLAM方向,怎么入門?
編程基礎差,數(shù)學不好,能否學習SLAM?
看完十四講,下面怎么學習?
需要學哪些開源框架?怎么學習呢?
編譯遇到很多問題,怎么解決?
只有自己一個人學SLAM,沒人討論好痛苦,怎么辦?
想要和小伙伴組隊系統(tǒng)的學習,有資源嗎?
這里可以肯定的告訴大家,這些問題在我們「從零開始學習SLAM」知識星球里都有,我們是全國最棒的SLAM/三維視覺交流社區(qū),包括小白入門圖文/視頻教程、學習過程疑難點解答、每日最新論文/開源代碼/數(shù)據(jù)集分享、在線學習小組、筆試面試題、實習/校招/社招崗位推薦、星主直播交流等。

限時3天優(yōu)惠券,名額有限先到先得。3天內(nèi)無條件退款

筆者之前專門做直播講解了SLAM的簡介,包括
SLAM是什么?
SLAM有什么用?
SLAM技術框架
學習SLAM如何入門?
SLAM發(fā)展趨勢
。。。

掃描二維碼看直播回放

相信很多學習SLAM的小伙伴通常會經(jīng)歷以下階段:
看SLAM相關的論文,發(fā)現(xiàn)很多公式、理論看不懂,好不容易努力看了個大概,也不知道具體怎么用。
于是去跑開源代碼,安裝調(diào)試出錯,網(wǎng)上也找不到解決方案。不知道是環(huán)境配置問題還是代碼有bug。
好不容易跑通了代碼。在實際測試時發(fā)現(xiàn)問題很多,遠不如論文里寫的那么牛逼,不知道這個算法的適用場景是什么。抓不住重點瞎折騰,浪費了時間。
沒辦法,硬著頭皮去看代碼,代碼量又非常大,看起來非常痛苦,急需大牛幫忙梳理思路。
摸索了很久,終于發(fā)現(xiàn)有幾個點(藏的很深)好像比較影響算法性能,還發(fā)現(xiàn)了一些trick的東西。自己也不會改進,感覺被騙了,糾結要不要換個開源試試。
反反復復好不容易找到適合自己的開源方案,發(fā)現(xiàn)上面過程要再來一遍,想要理清代碼,搞懂原理也要花費大量精力,更別提改進代碼了。
哭暈在SLAM的汪洋大海里。。。

學習SLAM中經(jīng)歷上述階段是令人痛苦的,關鍵是浪費了很多寶貴的時間,即使是SLAM大神,我估計或多或少都經(jīng)歷過上述階段。如果一開始有人能指點一下,肯定能繞開不少坑吧!
SLAM知識星球里有啥?
「從零開始學習SLAM」知識星球是全國最大的SLAM/三維視覺學習社區(qū),星球里包括小白入門圖文/視頻教程、學習過程疑難點解答、每日最新論文/開源代碼/數(shù)據(jù)集分享、在線學習小組、筆試面試題、實習/校招/社招崗位推薦、星主直播交流等從入門到精通,從學生到職場的所有內(nèi)容。見下圖。很多小伙伴加入我們的知識星球后,感慨:“終于找到組織了!”
SLAM知識星球內(nèi)容有哪些?

SLAM星球內(nèi)部組織了多次學習小組,并陸續(xù)續(xù)推出以下獨家系列視頻教程:
《從零開始系統(tǒng)學習代碼調(diào)試:磨刀不誤砍柴工》
《兩個月從零開始搞懂G2O庫》
《兩個月從零開始學會Ceres庫》
《兩個月從零開始系統(tǒng)學習OpenCV》
《兩個月從零開始系統(tǒng)學習PCL》
后續(xù)還會更多的源碼解析,重點突破等學習計劃~歡迎加入!
以下是最近一段時間星球里的部分優(yōu)質(zhì)內(nèi)容整理,星球成員直接復制鏈接到瀏覽器即可查看。? ??
/ 向下滑動查看?/
傳感器使用及標定
T265 D435 相機標定
https://t.zsxq.com/FYz3zjm
雙目標定問題?
https://t.zsxq.com/myRby7e
相機選擇方法?
https://t.zsxq.com/7QjmIQR
ros修改相機分辨率方法?
https://t.zsxq.com/iyrnmeQ
相機在線光度標定?
https://t.zsxq.com/qZRFYf6
深度相機對比
https://t.zsxq.com/UBQfEey
imu位姿積分及誤差標定代碼?
https://t.zsxq.com/zzbeyZZ
Imu各種噪聲參數(shù)詳解?
https://t.zsxq.com/6ImAeMR
標定單目-激光雷達外參標定代碼
https://t.zsxq.com/7iEIMjM
魚眼MEI模型詳解?
https://t.zsxq.com/EmQnUFE
點線面特征
如何計算圖像特征點匹配中匹配點的個數(shù)和錯誤匹配的個數(shù)?
https://t.zsxq.com/NBMj2vF
適合長直走廊場景點線融合slam?
https://t.zsxq.com/NN7iiuR
初始化地圖點分布不均勻或者太少影響及IMU的累計誤差對恢復的尺度的影響分析 https://t.zsxq.com/U7i6iuf
點云特征提取的相關算法實驗
https://t.zsxq.com/feeeQZz
小車平面運動約束相關論文推薦?
https://t.zsxq.com/Iaaa2Zf
浙大章國峰組新開源!基于多平面先驗的高效VIO
https://t.zsxq.com/UVbMVR7
圖像匹配算法推薦https://t.zsxq.com/fma6iEA
深度學習的特征提取匹配方法?
https://t.zsxq.com/bIaMJmu
ORB-SLAM2/3的改進方案及代碼
快速剔除特征匹配中動態(tài)物體?
https://t.zsxq.com/JyfMzfY
單目模式生成稠密地圖論文?
https://t.zsxq.com/MvvVnUZ
使用深度相機得到較稠密的大型場景點云地圖方法
https://t.zsxq.com/yZVjIYV
實現(xiàn)室內(nèi)無人小車定位建圖的教程、方案
https://t.zsxq.com/BQFeQz3
采用點特征線特征結合的開源方案?
https://t.zsxq.com/BEIaUNJ
結合圖像處理去模糊https://t.zsxq.com/Iq7i6yr
ORB-SLAM2課程群里問答匯總https://t.zsxq.com/ujiayvb
不同系統(tǒng)安裝ORB-SLAM2的詳細方法
https://t.zsxq.com/MFEmuvZ
orbslam2代替amcl做視覺導航的方案
https://t.zsxq.com/2fUJ6ei
地圖構建類中加入octomap地圖方法
https://t.zsxq.com/Z3J2fmy
ORB-SLAM2中的相機配置文件參數(shù)說明?
https://t.zsxq.com/vZzzzBA
orbslam3注釋代碼 https://t.zsxq.com/Zzj6mmA
基于orbslam2和yolo的語義slam論文
https://t.zsxq.com/33zVFIM
orbslam2特征提取和匹配加速方案https://t.zsxq.com/vVFmuF6
RGBD ORBSLAM2 with Octomap代碼?
https://t.zsxq.com/mAAUJY7
Orb-slam2/3相關改進代碼匯總
https://t.zsxq.com/6IMbMzJ
orb-slam2改成直接法https://t.zsxq.com/bujUFqf
RGB-D模式建立大環(huán)境三維點云圖及語義方法?
https://t.zsxq.com/NRneufu
orbslam2里處理外點方法 https://t.zsxq.com/3FYJaQn
ORB-SLAM在不同平臺的移植https://t.zsxq.com/YfaEImM
ORB-SLAM2/3地圖加載和存儲代碼 https://t.zsxq.com/2bmeyzj
TUM做的ORB-SLAM2的拓展版本,地圖存儲及重定位
https://t.zsxq.com/yrRJe6e
激光SLAM
激光雷達和IMU標定的文章https://t.zsxq.com/NR3nmYZ
激光slam代碼資料匯總https://t.zsxq.com/EiiIiQ3
激光雷達imu硬同步https://t.zsxq.com/vvjMRRZ
BA用在激光slam中應用方案 https://t.zsxq.com/yJYV7eE
3D激光slam開源算法綜合性能高的推薦方案 https://t.zsxq.com/FeurNZn
激光slam開源資料https://t.zsxq.com/3NFIAYf
無人車定位 如激光定位或者多傳感器融合定位方面的資料和方法
https://t.zsxq.com/YF6qrb2
VIO及多傳感器融合
多傳感器融合方面的綜述或者論文https://t.zsxq.com/Jia2VZ7
RGB-D和IMU松耦合的定位方案https://t.zsxq.com/meyFmau
RGB-D 和IMU緊融合的開源方案https://t.zsxq.com/MrRJQnI
EKF多傳感器融合教程及公開課 https://t.zsxq.com/bynYbyn
VIO或者多傳感器融合的論文https://t.zsxq.com/u3rjmqj
開源的松耦合的vio系統(tǒng)https://t.zsxq.com/EqvjaAy
二維(單線)激光雷達和RGBD相機融合的開源SLAM建圖方案
https://t.zsxq.com/7Q3Rnmi
激光雷達和相機的融合方案 https://t.zsxq.com/ufEUN3N
機器人避障及路徑規(guī)劃
基于視覺的移動機器人避障項目推薦https://t.zsxq.com/NfyjYzN
實現(xiàn)機器人在離線模式下腔體內(nèi)的避障https://t.zsxq.com/vnaQVJ6
移動機器人主動環(huán)境探索,路徑規(guī)劃相關的SLAM論文及代碼匯總
https://t.zsxq.com/i6aeuRr
移動機器人平臺資料https://t.zsxq.com/vf2R7E6
深度相機做機器人導航的開源案例https://t.zsxq.com/3ZzZbY7
動態(tài)路徑規(guī)劃和避障項目及論文 https://t.zsxq.com/7miyNjY
不同場景下SLAM開源方案
動態(tài)場景下視覺slam開源框架匯總:https://t.zsxq.com/fa6Qz3B
基于支持向量機svm的視覺slam開源代碼https://t.zsxq.com/nIUJqZF
slam實驗室大全,以及83種slam開源方案https://t.zsxq.com/EEImUbm
svo在平視相機的改進的論文或者代碼https://t.zsxq.com/MrFm6A6
小場景、弱紋理、光照差的巷道SLAM方案https://t.zsxq.com/iURVNnE
自主代客泊車視覺定位方案探索https://t.zsxq.com/vvnq7YB
動態(tài)背景下的視覺slam方案推薦 https://t.zsxq.com/n6AEEQV
三維重建及地圖
在線構建稠密地圖或八叉樹地圖的開源推薦
https://t.zsxq.com/FeIIYz3
點云表面重建泊松重建https://t.zsxq.com/3FiAQbM
雙目數(shù)據(jù)集實現(xiàn)三維重建https://t.zsxq.com/ZFIeeu3
三維重建各方面的課程論文資料 https://t.zsxq.com/i6uNrfq
較高精度的室內(nèi)三維建模https://t.zsxq.com/mmIIYNR
RGB-D稠密重建方案匯總 https://t.zsxq.com/3ZFyVf2
將直接稀疏里程計轉(zhuǎn)為稠密三維重建https://t.zsxq.com/iEufeM7
RGBD 3D點云重建論文及開源匯總 https://t.zsxq.com/ZJEyNz7
學習教程
學習G2O有比較好的資料推薦https://t.zsxq.com/3fEYzbq
視覺慣性里程計的相關資料匯總https://t.zsxq.com/QFaqj6M
光流的資料匯總 https://t.zsxq.com/RfQNrvZ
視覺SLAM十四講 第13講的代碼解讀https://t.zsxq.com/zBurJaU
回環(huán)檢測關于深度學習的文獻以及相對應的源代碼
https://t.zsxq.com/Qrr3JUj
視覺SLAM/里程計資源匯總 https://t.zsxq.com/aYB6Yji
激光點云目標檢測、目標跟蹤、動態(tài)語義SLAM
https://t.zsxq.com/j2b2bAu
CMake 系列視頻講解https://t.zsxq.com/EaUNJiU
理解李群李代數(shù)https://t.zsxq.com/N7UJYfE
EPnP的推導文檔https://t.zsxq.com/uzVfEq3
如何快速查找研究領域論文、代碼、資料的方法
https://t.zsxq.com/eQzR76M
無人駕駛技術電子書 https://t.zsxq.com/2zfyFmI
PCL視頻教程 https://t.zsxq.com/AMVnuNf
深度學習相關的slam論文https://t.zsxq.com/2bqn6IQ
RGB-D SLAM相關的主要論文?
https://t.zsxq.com/3JI2JuZ https://t.zsxq.com/3JI2JuZ
數(shù)據(jù)集及效果評估方法
EVO工具評估TUM、KITTI、EuRoC 數(shù)據(jù)集方法
https://t.zsxq.com/JY7yJ2n
實際單目攝像頭怎么評判誤差及尺度 https://t.zsxq.com/YN3fIub
單目沒有尺度怎么衡量誤差?https://t.zsxq.com/EAUFuRj
特征點匹配的準確率該怎么評判https://t.zsxq.com/rJa6eea
回環(huán)檢測標準及評估方法匯總 https://t.zsxq.com/vJm2b2v
單目沒有尺度如何評估準確率https://t.zsxq.com/aaeia6U
怎么評價slam建圖效果?https://t.zsxq.com/jim6qVf
特征點匹配的準確度公開數(shù)據(jù)集和測試方法
https://t.zsxq.com/3NBI2NN
在自定義場景做實驗時,評價定位精度誤差等指標,評價方法工具推薦
https://t.zsxq.com/IaQvNna
SLAM最全數(shù)據(jù)集匯總 https://t.zsxq.com/b6URfU7
SFM有什么通用的定量評價指標https://t.zsxq.com/RrFq7qv
如何能評價建圖的精度https://t.zsxq.com/YFujYv7
畫出真實軌跡與估計軌跡誤差圖https://t.zsxq.com/BAaQNFm
戶外的回環(huán)檢測數(shù)據(jù)集https://t.zsxq.com/YJEMRbq
Kitti數(shù)據(jù)集的真值軌跡如何獲取 https://t.zsxq.com/m2juj6m
無人駕駛的數(shù)據(jù)集匯總https://t.zsxq.com/qBIiYzV
......??
在星球里我還經(jīng)常收到很多小伙伴的提問,比如:機械專業(yè)轉(zhuǎn)行學SLAM難嗎?C++不會能學SLAM嗎?SLAM十四講需要學到什么程度?學完十四講后下一步
怎么辦?小白入門SLAM需要多久?傳統(tǒng)SLAM好發(fā)論文嗎?導師不帶一個人學怎么辦?這個報錯啥意思,怎么解決?有沒有關于XXX的開源代碼?......
說實話,這些迷茫我都經(jīng)歷過,所以深有體會。這些問題大部分來自「從零開始學習SLAM」知識星球,我在星球里也做了回復。
我們的SLAM知識星球?qū)W習交流社區(qū),包含:
圖文教程:從零開始學習SLAM圖文教程、練習題及答案解析
視頻教程:環(huán)境/第三方庫配置使用、作業(yè)講解、疑難/常見錯誤講解、VO代碼講解、RGB-D SLAM教程、CMake系列教程、代碼調(diào)試系列教程、G2O庫系列教程、Ceres庫系列教程
面試經(jīng)驗:SLAM常見面試題目及答案解析、SLAM筆試題目及答案、面試經(jīng)驗分享
參考資料:電子書、實用手冊、每天SLAM最新論文、開源代碼、開源數(shù)據(jù)集
工作機會:第一時間發(fā)布三維視覺、SLAM相關內(nèi)推實習/校招/社招崗位、項目合作、碩博招生等
答疑解惑:包括作業(yè)解答、知識盲點梳理、科研問題答疑、調(diào)研調(diào)試方法、碩博方向選擇等
交流機會:線上直播、線下聚會交流
優(yōu)秀同學:星球內(nèi)嘉賓和學員都非常優(yōu)秀上進,早期加入的成員很多已經(jīng)進入業(yè)界知名公司、高校研究機構開啟了精彩的人生。主要來自:
公司:大疆、曠世、商湯、虹軟、百度、騰訊、阿里、華為、四維圖新、中科創(chuàng)達、英特爾、momenta、上汽、小鵬汽車、馭勢、??低?、達闥、極智嘉、肇觀、華捷艾米、優(yōu)必選、銀星智能、普渡、高仙、視辰、indemind、中科慧眼等公司的視覺SLAM/激光SLAM/三維重建/多傳感器融合/點云處理算法工程師、技術leader
留學生:慕尼黑理工、KIT、柏林工大、東京大學、筑波大學、瑞典皇家理工、蘇黎世大學、多倫多大學、卡迪夫大學、新南威爾士大學、阿德萊德大學、約翰霍普金斯大學、謝菲爾德大學、國立臺灣大學、香港理工、香港中文等境外留學生
國內(nèi)碩博:清華、北航、北郵、北理工、中科院、上交、復旦、華東理工、上大、浙大、杭電、南大、南航、南郵、礦大、中科大、哈工大、西交、西電、武大、華科、成電、華南理工、廣東工大、國防科大、東大、深大等國內(nèi)優(yōu)秀碩博士
不僅如此,計算機視覺life推出了系列精品課程,所有星球成員都能獲得內(nèi)部課程優(yōu)惠券,詳情見星球說明。今后我們將會推出更多機器人SLAM、自動駕駛、AR相關優(yōu)質(zhì)課程,星球成員都會第一時間享受內(nèi)部優(yōu)惠價。
星球里部分圖文/視頻教程見下:

星球里部分內(nèi)容匯總見下:

什么是SLAM?
SLAM是 Simultaneous Localization And Mapping的 縮寫,一般翻譯為:同時定位與建圖、同時定位與地圖構建。
SLAM的典型過程是這樣的:當某種移動設備(如機器人/無人機、手機、汽車等)從一個未知環(huán)境里的未知地點出發(fā),在運動過程中通過傳感器(如激光雷達、攝像頭等)觀測定位自身在三維空間中的位置和姿態(tài),再根據(jù)自身位置進行增量式的三維地圖構建,從而達到同時定位和地圖構建的目的。

傳統(tǒng)的視覺算法主要是對針對二維圖像的處理,借助深度學習在分類識別方面取得了超越人眼精度的巨大成就,就像人眼是通過雙眼立體視覺來感知三維世界一樣,智能移動終端(比如智能手機、無人汽車、無人機、智能機器人)需要能夠像人類一樣利用SLAM算法來快速精確的感知、理解三維空間。
最近幾年,以雙目相機、結構光/TOF相機、激光雷達為代表的三維傳感器硬件迭代更新迅猛,國內(nèi)外已經(jīng)形成了成熟的上下游產(chǎn)業(yè)鏈。三維視覺傳感器也逐漸走入普通人的生活,在智能手機、智能眼鏡等設備上應用越來越多,以手機為例,蘋果、華為、小米、OPPO、VIVO等手機大廠都在積極推動結構光/TOF相機在手機上的普及。

SLAM技術為核心的三維視覺在學術界也是一個熱門方向,從最近幾年計算機視覺相關的頂級會議CVPR, ICCV, ?ECCV,IROS, ICRA 錄用論文來看,視覺定位、三維點云識別分割、單目深度估計、無人駕駛高精度導航、語義SLAM等相關論文占比越來越高。
因此SLAM技術在最近幾年發(fā)展迅猛,廣泛應用于增強現(xiàn)實感知、自動駕駛高精度定位、機器人自主導航、無人機智能飛行等前沿熱門領域。
學習SLAM需要學什么?
SLAM是涵蓋圖像處理、多視角視覺幾何、機器人學等綜合性非常強的交叉學科。
學習SLAM涉及線性代數(shù)矩陣運算、李群李代數(shù)求導、三維空間剛體變換、相機成像模型、特征提取匹配、多視角幾何、非線性優(yōu)化、回環(huán)檢測、集束調(diào)整、三維重建等專業(yè)知識。SLAM是強實踐學科,需要具有一定的C++編程能力,掌握Linux操作系統(tǒng)、Eigen, Sophus, OpenCV, Dbow, G2O, ceres等第三方庫,能夠快速定位問題,解決bug。
SLAM關聯(lián)知識(點開查看大圖)

這對于初學者來說無疑具有較高的門檻,也需要花費不少的時間來摸索重點,打好基礎。這個過程可能比較痛苦,但是熬過了這個過程,你就擁有了自己獨有的核心競爭力,不用擔心輕易被取代,未來會有非常強的競爭力。
但是目前關于SLAM學習的資料不多,而且參差不齊,初學者推薦高翔的《視覺SLAM十四講》,該書也是本教程的必備參考書籍
計算機視覺life總結了SLAM學習資源樹(點擊看大圖)

但很多小伙伴在學習期間仍然會遇到很多困難:公式看不懂,代碼不會寫,不知道怎么入手,沒有人指導或者一起討論,很容易不得要領,進度極慢,走彎路等,不僅浪費了時間和精力,甚至因此放棄了該方向的研究,以后可能再也沒有機會進入這個領域了,錯過了時代的風口。
目前SLAM領域優(yōu)秀企業(yè)列表(點開查看大圖)

優(yōu)惠有效期3天,掃碼加入,不滿意3天內(nèi)無條件退款!
限時3天優(yōu)惠券,名額有限先到先得。3天內(nèi)無條件退款

SLAM知識星球有啥特點?
1、技術介紹全面。學習過程從基礎的知識開始循序漸進,內(nèi)容涵蓋圖文教程、視頻教程、技術交流分享、工作機會。



2、專門設計的練習題,重視實踐。星主根據(jù)不同知識點設計一些實用性的練習題(推導、編程等),所有提交作業(yè)都會批改。光看不做假把式,適當?shù)木毩暷軌蚣由钭x者的理解,把知識消化吸收為自己所用。


3、高質(zhì)量的交流學習社區(qū)。星球成員來自國內(nèi)外碩博士及相關公司研發(fā)人員。練習題,有專屬內(nèi)部實名微信群?幫助日?;ブ鹨山饣?。所有成員都可以進行發(fā)布問題、分享知識、上傳資源、點贊、留言、贊賞、收藏等操作。星球里提問均免費,星主會及時答疑解惑?。




4、精選SLAM常見面試題,定期發(fā)布在星球里,引導大家討論,并提供參考答案,幫助找工作的同學從容面試。目前已經(jīng)有幾十條SLAM常見面試題目和詳細解答。
見《干貨總結 | SLAM 面試常見問題及參考解答》。星球內(nèi)也會經(jīng)常發(fā)布SLAM相關的實習生/校園/社會招聘。



如何加入知識星球?
知識星球需付費加入,價格隨人數(shù)增加逐漸上漲,因此越早加入越優(yōu)惠。有效期一年(從加入時間開始往后一年有效,到期仍可查看之前所有內(nèi)容,查看新內(nèi)容需續(xù)費),平時忙也沒關系,有空可以反復看。
時間不等人,萬事早為先。學習切忌單打獨斗,一個良好的學習圈子能夠幫助你快速入門,交流討論才能少走彎路,快速進步!加入SLAM學習星球,把握時代的風口,和國內(nèi)外優(yōu)秀的SLAM研究者一起交流進步
限時3天優(yōu)惠券,名額有限先到先得。3天內(nèi)無條件退款

加入之后,邀請其他人加入后雙方都可以獲得一定比例的返現(xiàn)。快快分享給愛學習的小伙伴吧~