系統識別號 | U0002-0310201413402100 |
---|---|
DOI | 10.6846/TKU.2014.00107 |
論文名稱(中文) | 比較視覺里程計與過濾器形式定位之效能 |
論文名稱(英文) | Performance Comparison of Visual Odometry and Filter-based Localization |
第三語言論文名稱 | |
校院名稱 | 淡江大學 |
系所名稱(中文) | 機械與機電工程學系碩士班 |
系所名稱(英文) | Department of Mechanical and Electro-Mechanical Engineering |
外國學位學校名稱 | |
外國學位學院名稱 | |
外國學位研究所名稱 | |
學年度 | 102 |
學期 | 2 |
出版年 | 103 |
研究生(中文) | 袁伯維 |
研究生(英文) | Po-Wei Yuan |
學號 | 601371189 |
學位類別 | 碩士 |
語言別 | 繁體中文 |
第二語言別 | |
口試日期 | 2014-07-11 |
論文頁數 | 55頁 |
口試委員 |
指導教授
-
王銀添
委員 - 許陳艦 委員 - 孫崇訓 委員 - 王銀添 |
關鍵字(中) |
視覺式同時定位與建圖 視覺里程計 |
關鍵字(英) |
Visual simultaneous localization and mapping (vSLAM) Visual Odometry |
第三語言關鍵字 | |
學科別分類 | |
中文摘要 |
本研究比較兩種機器人的定位演算法:過濾器型式(filter-based)與視覺里程計(visual odometry, VO)。感測器則使用雙眼視覺系統,以手持的方式在環境中行進感測任務。過濾器型式的定位方法使用擴張型卡爾曼過濾器進行同時定位與建圖,再取用其定位部分的功能;視覺里程計的定位方法則是以為位置求解問題為基礎,搭配隨機取樣一致程序(RANSAC),求解機器人的定位問題。論文的研究議題包括:進行雙眼視覺感測器的校準與量測;實現過濾器型式與視覺里程計等兩種機器人定位演算法;比較兩種演算法在未知環境中執行定位任務之優缺點。 |
英文摘要 |
This study investigates the performance of two robot localization algorithms based on filter method and visual odometry (VO), respectively. A handhold binocular vision system is used as the sensing device which is free-moving in the environment. The filter-based localization algorithm uses the extended Kalman filter to simultaneously implement the tasks of localization and mapping, and then utilizes the localization function. The VO-based localization algorithm uses random sample consensus (RANSAC) to solve the location determination problem. This study investigates the issues include: calibration and measurement of binocular vision system, implementation of filter-based and visual odometer based robot localization algorithms, discussion of the advantages and disadvantages of these two localization algorithms using in an unknown environment. |
第三語言摘要 | |
論文目次 |
目錄 摘要 Ⅰ 目錄 Ⅲ 圖目錄 Ⅴ 表目錄 Ⅷ 第1章 序論 1 1.1研究動機與研究目的 1 1.2文獻探討 1 1.3研究範圍 1 1.3.1同時定位與建圖 1 1.3.2視覺里程計 2 1.3.3 SLAM與VO定位比較 2 第2章 系統說明 3 2.1系統設備 3 2.2視覺量測模型 4 2.3攝影機校準與影像修正 6 第3章 雙眼視覺EKF SLAM 11 3.1擴張型卡爾曼過濾器 11 3.2狀態運動模型 11 3.3 Non-SSG量測模型 13 3.4地標初始化 17 第4章 視覺里程計 19 4.1視覺里程計 19 4.2三點透視(perspective-3-point,P3P) 19 4.3隨機取樣一致(RANSAC)演算法 23 4.3.1 RANSAC 23 4.3.2使用RANSAC求合適之P3P解 24 4.4手持攝影機視覺里程計流程 25 第5章 測試結果與討論 27 5.1地標距離估測 27 5.2地面基準(ground truth) 28 5.3雙眼攝影機繞圈SLAM和VO範例 36 5.4大地圖雙眼攝影機繞圈SLAM和VO範例 45 第6章 預期研究成果 53 6.1研究成果 53 6.2未來研究方向 53 參考文獻 54 圖目錄 圖2.1 Flea3.0攝影機 3 圖2.2 筆記型電腦 4 圖2.3透視投影法 5 圖2.4左攝影機與地標相對位置 5 圖2.5世界座標與初始左攝影機座標相對位置 5 圖2.6影像校準與影像修正結果圖 9 圖2.7影像扭曲圖 9 圖3.1新增地標狀態與共變異數 13 圖3.2刪除地標狀態與共變異數 13 圖3.3雙眼攝影機視線向量示意圖 16 圖3.4 SSG結構視線向量示意圖 17 圖3.5 SSG標準立體視覺幾何架構 18 圖4.1三點透視定位 19 圖4.2 W位置求解示意圖 22 圖4.3 RANSAC演算法 24 圖5.1地標距離估測 27 圖5.2地標距離估測平均誤差 27 圖5.3地面實況軌跡 28 圖5.4 SLAM地圖大小與取樣頻率 29 圖5.5 VO取樣頻率 30 圖5.6 VO(Ray)取樣頻率 30 圖5.7第10幀圖像 31 圖5.8第1600幀圖像 31 圖5.9第3200幀圖像 32 圖5.10第4300幀圖像 33 圖5.11第5100幀圖像 34 圖5.12第7600幀圖像 34 圖5.13第9900幀圖像 35 圖5.14 SLAM地圖大小與取樣頻率 36 圖5.15 VO取樣頻率 37 圖5.16 VO(Ray)取樣頻率 37 圖5.17 SLAM第10幀圖像、VO&VO(Ray)第10幀圖像 38 圖5.18 SLAM第300幀圖像、VO&VO(Ray)第120幀圖像 38 圖5.19 SLAM第500幀圖像、VO&VO(Ray)第240幀圖像 39 圖5.20 SLAM第800幀圖像、VO&VO(Ray)第540幀圖像 40 圖5.21 SLAM第1100幀圖像、VO&VO(Ray)第700幀圖像 41 圖5.22 SLAM第1400幀圖像、VO&VO(Ray)第1060幀圖像 41 圖5.23 SLAM第1600幀圖像、VO&VO(Ray)第1340幀圖像 42 圖5.24 SLAM第1700幀圖像、VO&VO(Ray)第1400幀圖像 43 圖5.25 SLAM第2596幀圖像、VO&VO(Ray)第2500幀圖像 44 圖5.26實驗場景 45 圖5.27 SLAM地圖大小與取樣頻率 45 圖5.28 VO執行P3P特徵數量與取樣頻率 46 圖5.29 VO(Ray)執行P3P特徵數量與取樣頻率 46 圖5.30 SLAM第50幀圖像 46 圖5.31 SLAM第850幀圖像 47 圖5.32 SLAM第1250幀圖像 47 圖5.33 SLAM第1600幀圖像 47 圖5.34 SLAM第1850幀圖像 48 圖5.35 SLAM第1948幀圖像 48 圖5.36 VO第10幀圖像 48 圖5.37 VO第1000幀圖像 49 圖5.38 VO第1800幀圖像 49 圖5.39 VO第3000幀圖像 49 圖5.40 VO第5000幀圖像 50 圖5.41 VO第6660幀圖像 50 圖5.42 VO(Ray)第10幀圖像 50 圖5.43 VO(Ray)第1000幀圖像 51 圖5.44 VO(Ray)第1800幀圖像 51 圖5.45 VO(Ray)第3000幀圖像 51 圖5.46 VO(Ray)第5000幀圖像 52 圖5.47 VO(Ray)第6660幀圖像 52 表目錄 表2.1攝影機規格表 3 表2.2筆記型電腦規格表 4 表2.3左攝影機內部參數(10cm) 10 表2.4右攝影機內部參數(10cm) 10 表2.5左影像修正模型參數(10cm) 10 表2.6右影像修正模型參數(10cm) 10 表2.7左右攝影機外部參數(10cm) 10 表5.1 SLAM地面實況和估計值 28 表5.2 VO地面實況和估計值 29 表5.3 VO(Ray)地面實況和估計值 29 表5.4 移動路徑與回原點的誤差值 36 表5.5移動路徑與回原點的誤差值 45 |
參考文獻 |
[1]. H. Durrant-Whyte and T. Bailey, “Simultaneous localization and mapping: part I,” Robotics & Automation Magazine, IEEE, vol. 13, pp. 99-110, 2006. [2]. Z. Wang, S. Huang, and G. Dissanayake, Simultaneous Localization and Mapping: World Scientific Publishing Co., 2011. [3]. D. Nister, O. Naroditsky, and J. Bergen, “Visual odometry,” in Computer Vision and Pattern Recognition, 2004. CVPR 2004. Proceedings of the 2004 IEEE Computer Society Conference on, vol. 1, 27 2004,pp. I–652 – I–659 Vol.1. [4]. D. Scaramuzza and F. Fraundorfer, “Visual odometry [Tutorial],” Robotics & Automation Magazine, IEEE, vol. 18, no. 4, pp. 80–92,2011. [5]. F. Fraundorfer and D. Scaramuzza, “Visual odometry: Part II: Matching, robustness, optimization, and applications,” Robotics & Automation Magazine, IEEE, vol. 19, pp. 78-90, 2012. [6]. M. A. Fischler and R. C. Bolles, “Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography,” Commun. ACM, vol. 24, pp. 381-395, 1981. [7]. 蕭恩哲,基於視覺式里程計之二輪式機器人控制,淡江大學機械與機電工程學系碩士論文,2013。 [8]. J.Y. Bouguet, Camera Calibration Toolbox for Matlab, http://www.vision.caltech.edu/ bouguetj/calib_doc/, 2011. [9]. J. Heikkila, and O. Silven, A Four-step Camera Calibration Procedure with Implicit Image Correction, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp.1106-1112, 1997. [10]. J. Heikkila, Geometric camera calibration using circular control points, Proceedings of IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.22, no.10, pp.580-593, 2000. [11]. H. Bay, A. Ess, T. Tuytelaars and L. Van Gool, “SURF: Speeded-Up Robust Features,” Computer Vision and Image Understanding, vol.110, pp.346-359, 2008. [12]. S. Hutchinson, G.D. Hager, and P.I. Corke, “A Tutorial on Visual Servo Control,” IEEE Transactions on Robotics and Automation, vol.12, no.5, pp.651-670, 1996. [13]. L. Sciavicco, and B. Siciliano, Modeling and Control of Robot Manipulators, McGraw-Hill, 1996. [14]. A.J. Davison, I.D. Reid, N.D. Molton, and O. Stasse, “MonoSLAM Real Time Single Camera SLAM,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.29, no.6, pp.1052-1067, 2007. [15]. R. Smith, M. Self, and P. Cheeseman, “Estimating Uncertain Spatial Relationships in Robotics,” In Autonomous Robot Vehicles, I.J. Cox and G.T. Wilfong, Eds., Springer-Verlog, pp.167-193, 1990 [16]. 洪敦彥,基於擴張型卡爾曼過濾器的機器人視覺式同時定位、建圖、與移動物體追蹤,淡江大學機械與機電工程學系碩士論文,2010。 |
論文全文使用權限 |
如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信