另一方面,單目相機也無法依靠一張圖像獲得圖像中物體離自己的相對距離。
但這兩個問題都有對應的解決辦法。比如,通過借助 GPU 和 IMU(Inertial Measurement Unit,慣性測量器件)確定物體的大小,依靠運動中的三角測量,來求解相機運動并估計像素的空間位置。
雙目 SLAM 消除了單目的很多麻煩。雙目視覺和人眼類似,通過左右眼圖像的差異來計算距離——也就是所謂的立體視覺(Stereo)。
但雙目 SLAM 的計算量非常大,通常需要用到可編程門陣列 FPGA。而且其其深度量程也受雙目的基線與分辨率限制。
RGBD SLAM 的傳感器是深度攝像頭,能直接記錄深度信息。深度攝像頭通過把光投射到物體表面,再測量反射的信息來計算距離,具體原理有兩種:結(jié)構(gòu)光或 Time-of-Flight。它比傳統(tǒng)相機能夠提供更豐富的信息,也不必像單目或雙目那樣費時費力地計算深度。Kinect 就是一種比較常見的深度攝像頭。不過,現(xiàn)在多數(shù) RGBD 相機還存在測量范圍窄、噪聲大、視野小等諸多問題。
總的來說,SLAM 的實現(xiàn)方法多種多樣,應用場景也不斷打開。但「由于產(chǎn)品和硬件高度差異化,而 SLAM 相關(guān)技術(shù)的整合和優(yōu)化又很復雜,導致算法和軟件高度碎片化,所以市場上目前還沒有一套通用普適的解決方案,在短時間內(nèi)也不會有」。
白鑫 本文來源:極客公園 責任編輯:白鑫_NT4464
2023-02-13 12:20
2023-02-11 09:16
2023-02-08 09:40
2023-02-08 09:38
2023-02-08 09:35
2023-02-08 09:31
2023-02-07 09:52
2023-02-07 09:48
2023-02-07 09:44
2023-02-06 09:47