§ Browsing ETD Metadata
  
System No. U0002-0310201413402100
Title (in Chinese) 比較視覺里程計與過濾器形式定位之效能
Title (in English) Performance Comparison of Visual Odometry and Filter-based Localization
Other Title
Institution 淡江大學
Department (in Chinese) 機械與機電工程學系碩士班
Department (in English) Department of Mechanical and Electro-Mechanical Engineering
Other Division
Other Division Name
Other Department/Institution
Academic Year 102
Semester 2
PublicationYear 103
Author's name (in Chinese) 袁伯維
Author's name(in English) Po-Wei Yuan
Student ID 601371189
Degree 碩士
Language Traditional Chinese
Other Language
Date of Oral Defense 2014-07-11
Pagination 55page
Committee Member advisor - 王銀添
co-chair - 許陳艦
co-chair - 孫崇訓
co-chair - 王銀添
Keyword (inChinese) 視覺式同時定位與建圖
視覺里程計
Keyword (in English) Visual simultaneous localization and mapping (vSLAM)
Visual Odometry
Other Keywords
Subject
Abstract (in Chinese)
本研究比較兩種機器人的定位演算法:過濾器型式(filter-based)與視覺里程計(visual odometry, VO)。感測器則使用雙眼視覺系統,以手持的方式在環境中行進感測任務。過濾器型式的定位方法使用擴張型卡爾曼過濾器進行同時定位與建圖,再取用其定位部分的功能;視覺里程計的定位方法則是以為位置求解問題為基礎,搭配隨機取樣一致程序(RANSAC),求解機器人的定位問題。論文的研究議題包括:進行雙眼視覺感測器的校準與量測;實現過濾器型式與視覺里程計等兩種機器人定位演算法;比較兩種演算法在未知環境中執行定位任務之優缺點。
Abstract (in English)
This study investigates the performance of two robot localization algorithms based on filter method and visual odometry (VO), respectively. A handhold binocular vision system is used as the sensing device which is free-moving in the environment. The filter-based localization algorithm uses the extended Kalman filter to simultaneously implement the tasks of localization and mapping, and then utilizes the localization function. The VO-based localization algorithm uses random sample consensus (RANSAC) to solve the location determination problem. This study investigates the issues include: calibration and measurement of binocular vision system, implementation of filter-based and visual odometer based robot localization algorithms, discussion of the advantages and disadvantages of these two localization algorithms using in an unknown environment.
Other Abstract
Table of Content (with Page Number)
目錄

摘要	Ⅰ
目錄	Ⅲ
圖目錄	Ⅴ
表目錄	Ⅷ
第1章 序論	1
1.1研究動機與研究目的	1
1.2文獻探討	1
1.3研究範圍	1
    1.3.1同時定位與建圖	1
    1.3.2視覺里程計	2
    1.3.3 SLAM與VO定位比較	2
第2章 系統說明	3
2.1系統設備	3
2.2視覺量測模型	4
2.3攝影機校準與影像修正	6
第3章 雙眼視覺EKF SLAM	11
3.1擴張型卡爾曼過濾器	11
3.2狀態運動模型	11
3.3 Non-SSG量測模型	13
3.4地標初始化	17
第4章 視覺里程計	19
4.1視覺里程計	19
4.2三點透視(perspective-3-point,P3P)	19
4.3隨機取樣一致(RANSAC)演算法	23
    4.3.1 RANSAC	23
    4.3.2使用RANSAC求合適之P3P解	24
4.4手持攝影機視覺里程計流程	25
第5章 測試結果與討論	27
5.1地標距離估測	27
5.2地面基準(ground truth) 	28
5.3雙眼攝影機繞圈SLAM和VO範例	36
5.4大地圖雙眼攝影機繞圈SLAM和VO範例	45
第6章 預期研究成果	53
6.1研究成果	53
6.2未來研究方向	53
參考文獻	54
 
圖目錄

圖2.1 Flea3.0攝影機	3
圖2.2 筆記型電腦	4
圖2.3透視投影法	5
圖2.4左攝影機與地標相對位置	5
圖2.5世界座標與初始左攝影機座標相對位置	5
圖2.6影像校準與影像修正結果圖	9
圖2.7影像扭曲圖	9
圖3.1新增地標狀態與共變異數	13
圖3.2刪除地標狀態與共變異數	13
圖3.3雙眼攝影機視線向量示意圖	16
圖3.4 SSG結構視線向量示意圖	17
圖3.5 SSG標準立體視覺幾何架構	18
圖4.1三點透視定位	19
圖4.2 W位置求解示意圖	22
圖4.3 RANSAC演算法	24
圖5.1地標距離估測	27
圖5.2地標距離估測平均誤差	27
圖5.3地面實況軌跡	28
圖5.4 SLAM地圖大小與取樣頻率	29
圖5.5 VO取樣頻率	30
圖5.6 VO(Ray)取樣頻率	30
圖5.7第10幀圖像	31
圖5.8第1600幀圖像	31
圖5.9第3200幀圖像	32
圖5.10第4300幀圖像	33
圖5.11第5100幀圖像	34
圖5.12第7600幀圖像	34
圖5.13第9900幀圖像	35
圖5.14 SLAM地圖大小與取樣頻率	36
圖5.15 VO取樣頻率	37
圖5.16 VO(Ray)取樣頻率	37
圖5.17 SLAM第10幀圖像、VO&VO(Ray)第10幀圖像	38
圖5.18 SLAM第300幀圖像、VO&VO(Ray)第120幀圖像	38
圖5.19 SLAM第500幀圖像、VO&VO(Ray)第240幀圖像	39
圖5.20 SLAM第800幀圖像、VO&VO(Ray)第540幀圖像	40
圖5.21 SLAM第1100幀圖像、VO&VO(Ray)第700幀圖像	41
圖5.22 SLAM第1400幀圖像、VO&VO(Ray)第1060幀圖像	41
圖5.23 SLAM第1600幀圖像、VO&VO(Ray)第1340幀圖像	42
圖5.24 SLAM第1700幀圖像、VO&VO(Ray)第1400幀圖像	43
圖5.25 SLAM第2596幀圖像、VO&VO(Ray)第2500幀圖像	44
圖5.26實驗場景	45
圖5.27 SLAM地圖大小與取樣頻率	45
圖5.28 VO執行P3P特徵數量與取樣頻率	46
圖5.29 VO(Ray)執行P3P特徵數量與取樣頻率	46
圖5.30 SLAM第50幀圖像	46
圖5.31 SLAM第850幀圖像	47
圖5.32 SLAM第1250幀圖像	47
圖5.33 SLAM第1600幀圖像	47
圖5.34 SLAM第1850幀圖像	48
圖5.35 SLAM第1948幀圖像	48
圖5.36 VO第10幀圖像	48
圖5.37 VO第1000幀圖像	49
圖5.38 VO第1800幀圖像	49
圖5.39 VO第3000幀圖像	49
圖5.40 VO第5000幀圖像	50
圖5.41 VO第6660幀圖像	50
圖5.42 VO(Ray)第10幀圖像	50
圖5.43 VO(Ray)第1000幀圖像	51
圖5.44 VO(Ray)第1800幀圖像	51
圖5.45 VO(Ray)第3000幀圖像	51
圖5.46 VO(Ray)第5000幀圖像	52
圖5.47 VO(Ray)第6660幀圖像	52
 
表目錄

表2.1攝影機規格表	3
表2.2筆記型電腦規格表	4
表2.3左攝影機內部參數(10cm)	10
表2.4右攝影機內部參數(10cm)	10
表2.5左影像修正模型參數(10cm)	10
表2.6右影像修正模型參數(10cm)	10
表2.7左右攝影機外部參數(10cm)	10
表5.1 SLAM地面實況和估計值	28
表5.2 VO地面實況和估計值	29
表5.3 VO(Ray)地面實況和估計值	29
表5.4 移動路徑與回原點的誤差值	36
表5.5移動路徑與回原點的誤差值	45
References
[1].	H. Durrant-Whyte and T. Bailey, “Simultaneous localization and mapping: part I,”  Robotics & Automation Magazine, IEEE, vol. 13, pp. 99-110, 2006.
[2].	Z. Wang, S. Huang, and G. Dissanayake, Simultaneous Localization and Mapping: World Scientific Publishing Co., 2011.
[3].	D. Nister, O. Naroditsky, and J. Bergen, “Visual odometry,” in Computer Vision and Pattern Recognition, 2004. CVPR 2004. Proceedings of the 2004 IEEE Computer Society Conference on, vol. 1, 27 2004,pp. I–652 – I–659 Vol.1.
[4].	D. Scaramuzza and F. Fraundorfer, “Visual odometry [Tutorial],” Robotics & Automation Magazine, IEEE, vol. 18, no. 4, pp. 80–92,2011.
[5].	F. Fraundorfer and D. Scaramuzza, “Visual odometry: Part II: Matching, robustness, optimization, and applications,” Robotics & Automation Magazine, IEEE, vol. 19, pp. 78-90, 2012.
[6].	M. A. Fischler and R. C. Bolles, “Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography,” Commun. ACM, vol. 24, pp. 381-395, 1981.
[7].	蕭恩哲,基於視覺式里程計之二輪式機器人控制,淡江大學機械與機電工程學系碩士論文,2013。
[8].	J.Y. Bouguet, Camera Calibration Toolbox for Matlab, http://www.vision.caltech.edu/ bouguetj/calib_doc/, 2011.
[9].	J. Heikkila, and O. Silven, A Four-step Camera Calibration Procedure with Implicit Image Correction, Proceedings of IEEE Conference on Computer Vision and Pattern Recognition, pp.1106-1112, 1997.
[10].	J. Heikkila, Geometric camera calibration using circular control points, Proceedings of IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.22, no.10, pp.580-593, 2000.
[11].	H. Bay, A. Ess, T. Tuytelaars and L. Van Gool, “SURF: Speeded-Up Robust Features,” Computer Vision and Image Understanding, vol.110, pp.346-359, 2008.
[12].	S. Hutchinson, G.D. Hager, and P.I. Corke, “A Tutorial on Visual Servo Control,” IEEE Transactions on Robotics and Automation, vol.12, no.5, pp.651-670, 1996.
[13].	L. Sciavicco, and B. Siciliano, Modeling and Control of Robot Manipulators, McGraw-Hill, 1996.
[14].	A.J. Davison, I.D. Reid, N.D. Molton, and O. Stasse, “MonoSLAM Real Time Single Camera SLAM,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.29, no.6, pp.1052-1067, 2007.
[15].	R. Smith, M. Self, and P. Cheeseman, “Estimating Uncertain Spatial Relationships in Robotics,” In Autonomous Robot Vehicles, I.J. Cox and G.T. Wilfong, Eds., Springer-Verlog, pp.167-193, 1990
[16].	洪敦彥,基於擴張型卡爾曼過濾器的機器人視覺式同時定位、建圖、與移動物體追蹤,淡江大學機械與機電工程學系碩士論文,2010。
Terms of Use
Within Campus
On-campus access to my hard copy thesis/dissertation is open immediately
Agree to authorize disclosure on campus
Release immediately
Outside the Campus
I grant the authorization for the public to view/print my electronic full text with royalty fee and contact me for receiving the payment.
Release immediately
 Top

If you have any questions, please contact us!

Library: please call (02)2621-5656 ext. 2487 or email