淡江大學覺生紀念圖書館 (TKU Library)
進階搜尋


下載電子全文限經由淡江IP使用) 
系統識別號 U0002-0310201413402100
中文論文名稱 比較視覺里程計與過濾器形式定位之效能
英文論文名稱 Performance Comparison of Visual Odometry and Filter-based Localization
校院名稱 淡江大學
系所名稱(中) 機械與機電工程學系碩士班
系所名稱(英) Department of Mechanical and Electro-Mechanical Engineering
學年度 102
學期 2
出版年 103
研究生中文姓名 袁伯維
研究生英文姓名 Po-Wei Yuan
學號 601371189
學位類別 碩士
語文別 中文
口試日期 2014-07-11
論文頁數 55頁
口試委員 指導教授-王銀添
委員-許陳艦
委員-孫崇訓
委員-王銀添
中文關鍵字 視覺式同時定位與建圖  視覺里程計 
英文關鍵字 Visual simultaneous localization and mapping (vSLAM)  Visual Odometry 
學科別分類 學科別應用科學機械工程
中文摘要 本研究比較兩種機器人的定位演算法:過濾器型式(filter-based)與視覺里程計(visual odometry, VO)。感測器則使用雙眼視覺系統,以手持的方式在環境中行進感測任務。過濾器型式的定位方法使用擴張型卡爾曼過濾器進行同時定位與建圖,再取用其定位部分的功能;視覺里程計的定位方法則是以為位置求解問題為基礎,搭配隨機取樣一致程序(RANSAC),求解機器人的定位問題。論文的研究議題包括:進行雙眼視覺感測器的校準與量測;實現過濾器型式與視覺里程計等兩種機器人定位演算法;比較兩種演算法在未知環境中執行定位任務之優缺點。
英文摘要 This study investigates the performance of two robot localization algorithms based on filter method and visual odometry (VO), respectively. A handhold binocular vision system is used as the sensing device which is free-moving in the environment. The filter-based localization algorithm uses the extended Kalman filter to simultaneously implement the tasks of localization and mapping, and then utilizes the localization function. The VO-based localization algorithm uses random sample consensus (RANSAC) to solve the location determination problem. This study investigates the issues include: calibration and measurement of binocular vision system, implementation of filter-based and visual odometer based robot localization algorithms, discussion of the advantages and disadvantages of these two localization algorithms using in an unknown environment.
論文目次 目錄

摘要 Ⅰ
目錄 Ⅲ
圖目錄 Ⅴ
表目錄 Ⅷ
第1章 序論 1
1.1研究動機與研究目的 1
1.2文獻探討 1
1.3研究範圍 1
1.3.1同時定位與建圖 1
1.3.2視覺里程計 2
1.3.3 SLAM與VO定位比較 2
第2章 系統說明 3
2.1系統設備 3
2.2視覺量測模型 4
2.3攝影機校準與影像修正 6
第3章 雙眼視覺EKF SLAM 11
3.1擴張型卡爾曼過濾器 11
3.2狀態運動模型 11
3.3 Non-SSG量測模型 13
3.4地標初始化 17
第4章 視覺里程計 19
4.1視覺里程計 19
4.2三點透視(perspective-3-point,P3P) 19
4.3隨機取樣一致(RANSAC)演算法 23
4.3.1 RANSAC 23
4.3.2使用RANSAC求合適之P3P解 24
4.4手持攝影機視覺里程計流程 25
第5章 測試結果與討論 27
5.1地標距離估測 27
5.2地面基準(ground truth) 28
5.3雙眼攝影機繞圈SLAM和VO範例 36
5.4大地圖雙眼攝影機繞圈SLAM和VO範例 45
第6章 預期研究成果 53
6.1研究成果 53
6.2未來研究方向 53
參考文獻 54

圖目錄

圖2.1 Flea3.0攝影機 3
圖2.2 筆記型電腦 4
圖2.3透視投影法 5
圖2.4左攝影機與地標相對位置 5
圖2.5世界座標與初始左攝影機座標相對位置 5
圖2.6影像校準與影像修正結果圖 9
圖2.7影像扭曲圖 9
圖3.1新增地標狀態與共變異數 13
圖3.2刪除地標狀態與共變異數 13
圖3.3雙眼攝影機視線向量示意圖 16
圖3.4 SSG結構視線向量示意圖 17
圖3.5 SSG標準立體視覺幾何架構 18
圖4.1三點透視定位 19
圖4.2 W位置求解示意圖 22
圖4.3 RANSAC演算法 24
圖5.1地標距離估測 27
圖5.2地標距離估測平均誤差 27
圖5.3地面實況軌跡 28
圖5.4 SLAM地圖大小與取樣頻率 29
圖5.5 VO取樣頻率 30
圖5.6 VO(Ray)取樣頻率 30
圖5.7第10幀圖像 31
圖5.8第1600幀圖像 31
圖5.9第3200幀圖像 32
圖5.10第4300幀圖像 33
圖5.11第5100幀圖像 34
圖5.12第7600幀圖像 34
圖5.13第9900幀圖像 35
圖5.14 SLAM地圖大小與取樣頻率 36
圖5.15 VO取樣頻率 37
圖5.16 VO(Ray)取樣頻率 37
圖5.17 SLAM第10幀圖像、VO&VO(Ray)第10幀圖像 38
圖5.18 SLAM第300幀圖像、VO&VO(Ray)第120幀圖像 38
圖5.19 SLAM第500幀圖像、VO&VO(Ray)第240幀圖像 39
圖5.20 SLAM第800幀圖像、VO&VO(Ray)第540幀圖像 40
圖5.21 SLAM第1100幀圖像、VO&VO(Ray)第700幀圖像 41
圖5.22 SLAM第1400幀圖像、VO&VO(Ray)第1060幀圖像 41
圖5.23 SLAM第1600幀圖像、VO&VO(Ray)第1340幀圖像 42
圖5.24 SLAM第1700幀圖像、VO&VO(Ray)第1400幀圖像 43
圖5.25 SLAM第2596幀圖像、VO&VO(Ray)第2500幀圖像 44
圖5.26實驗場景 45
圖5.27 SLAM地圖大小與取樣頻率 45
圖5.28 VO執行P3P特徵數量與取樣頻率 46
圖5.29 VO(Ray)執行P3P特徵數量與取樣頻率 46
圖5.30 SLAM第50幀圖像 46
圖5.31 SLAM第850幀圖像 47
圖5.32 SLAM第1250幀圖像 47
圖5.33 SLAM第1600幀圖像 47
圖5.34 SLAM第1850幀圖像 48
圖5.35 SLAM第1948幀圖像 48
圖5.36 VO第10幀圖像 48
圖5.37 VO第1000幀圖像 49
圖5.38 VO第1800幀圖像 49
圖5.39 VO第3000幀圖像 49
圖5.40 VO第5000幀圖像 50
圖5.41 VO第6660幀圖像 50
圖5.42 VO(Ray)第10幀圖像 50
圖5.43 VO(Ray)第1000幀圖像 51
圖5.44 VO(Ray)第1800幀圖像 51
圖5.45 VO(Ray)第3000幀圖像 51
圖5.46 VO(Ray)第5000幀圖像 52
圖5.47 VO(Ray)第6660幀圖像 52

表目錄

表2.1攝影機規格表 3
表2.2筆記型電腦規格表 4
表2.3左攝影機內部參數(10cm) 10
表2.4右攝影機內部參數(10cm) 10
表2.5左影像修正模型參數(10cm) 10
表2.6右影像修正模型參數(10cm) 10
表2.7左右攝影機外部參數(10cm) 10
表5.1 SLAM地面實況和估計值 28
表5.2 VO地面實況和估計值 29
表5.3 VO(Ray)地面實況和估計值 29
表5.4 移動路徑與回原點的誤差值 36
表5.5移動路徑與回原點的誤差值 45
參考文獻 [1]. H. Durrant-Whyte and T. Bailey, “Simultaneous localization and mapping: part I,” Robotics & Automation Magazine, IEEE, vol. 13, pp. 99-110, 2006.
[2]. Z. Wang, S. Huang, and G. Dissanayake, Simultaneous Localization and Mapping: World Scientific Publishing Co., 2011.
[3]. D. Nister, O. Naroditsky, and J. Bergen, “Visual odometry,” in Computer Vision and Pattern Recognition, 2004. CVPR 2004. Proceedings of the 2004 IEEE Computer Society Conference on, vol. 1, 27 2004,pp. I–652 – I–659 Vol.1.
[4]. D. Scaramuzza and F. Fraundorfer, “Visual odometry [Tutorial],” Robotics & Automation Magazine, IEEE, vol. 18, no. 4, pp. 80–92,2011.
[5]. F. Fraundorfer and D. Scaramuzza, “Visual odometry: Part II: Matching, robustness, optimization, and applications,” Robotics & Automation Magazine, IEEE, vol. 19, pp. 78-90, 2012.
[6]. M. A. Fischler and R. C. Bolles, “Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography,” Commun. ACM, vol. 24, pp. 381-395, 1981.
[7]. 蕭恩哲,基於視覺式里程計之二輪式機器人控制,淡江大學機械與機電工程學系碩士論文,2013。
[8]. J.Y. Bouguet, Camera Calibration Toolbox for Matlab, http://www.vision.caltech.edu/ bouguetj/calib_doc/, 2011.
[9]. J. Heikkila, and O. Silven, A Four-step Camera Calibration Procedure with Implicit Image Correction, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp.1106-1112, 1997.
[10]. J. Heikkila, Geometric camera calibration using circular control points, Proceedings of IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.22, no.10, pp.580-593, 2000.
[11]. H. Bay, A. Ess, T. Tuytelaars and L. Van Gool, “SURF: Speeded-Up Robust Features,” Computer Vision and Image Understanding, vol.110, pp.346-359, 2008.
[12]. S. Hutchinson, G.D. Hager, and P.I. Corke, “A Tutorial on Visual Servo Control,” IEEE Transactions on Robotics and Automation, vol.12, no.5, pp.651-670, 1996.
[13]. L. Sciavicco, and B. Siciliano, Modeling and Control of Robot Manipulators, McGraw-Hill, 1996.
[14]. A.J. Davison, I.D. Reid, N.D. Molton, and O. Stasse, “MonoSLAM Real Time Single Camera SLAM,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.29, no.6, pp.1052-1067, 2007.
[15]. R. Smith, M. Self, and P. Cheeseman, “Estimating Uncertain Spatial Relationships in Robotics,” In Autonomous Robot Vehicles, I.J. Cox and G.T. Wilfong, Eds., Springer-Verlog, pp.167-193, 1990
[16]. 洪敦彥,基於擴張型卡爾曼過濾器的機器人視覺式同時定位、建圖、與移動物體追蹤,淡江大學機械與機電工程學系碩士論文,2010。
論文使用權限
  • 同意紙本無償授權給館內讀者為學術之目的重製使用,於2014-10-03公開。
  • 同意授權瀏覽/列印電子全文服務,於2014-10-03起公開。


  • 若您有任何疑問,請與我們聯絡!
    圖書館: 請來電 (02)2621-5656 轉 2486 或 來信