§ 瀏覽學位論文書目資料
  
系統識別號 U0002-1908201310052000
DOI 10.6846/TKU.2013.00731
論文名稱(中文) 基於視覺式里程計之二輪式機器人控制
論文名稱(英文) Visual Odometry Based Two-Wheeled Mobile Robot Control
第三語言論文名稱
校院名稱 淡江大學
系所名稱(中文) 機械與機電工程學系碩士班
系所名稱(英文) Department of Mechanical and Electro-Mechanical Engineering
外國學位學校名稱
外國學位學院名稱
外國學位研究所名稱
學年度 101
學期 2
出版年 102
研究生(中文) 蕭恩哲
研究生(英文) En-Che Hsiao
學號 600370430
學位類別 碩士
語言別 繁體中文
第二語言別
口試日期 2013-07-15
論文頁數 44頁
口試委員 指導教授 - 孫崇訓
委員 - 邱智煇
委員 - 王銀添
關鍵字(中) 視覺里程計
SURF
P3P
RANSAC
二輪式移動機器人
關鍵字(英) Visual Odometry(VO)
Speeded-Up Robust Features(SURF)
perspective-3-point(P3P)
random sample consensus(RANSAC)
two-wheeled mobile robot
第三語言關鍵字
學科別分類
中文摘要
本論文以視覺里程計(Visual Odometry,VO)架設於二輪式移動機器人。首先以雙眼鏡頭作為感測器於未知環境中擷取影像,再於影像中使用加速強健特徵(speeded up robust features, SURF)搜尋影像上之地標。地標透過立體視覺求算三維座標,並用三點透視(perspective-3-point, P3P)問題與隨機取樣一致(random sample consensus, RANSAC)演算法求算出攝影機位置,達到視覺里程計的目的。最後實驗用機器人做簡單路徑行走,驗證此視覺式里程計系統為可行。
英文摘要
In this paper, a visual odometry is developed on the two-wheeled mobile robot. First, the binocular stereo camera is regarded as the sensor for the visual odometry to capture images in unknown environment. Then the landmarks of interest in images are detected by speeded-up robust features (SURF) algorithm. The location of the landmark in Cartesian coordinate can be derived from stereo geometry. The position of the camera can be determined by perspective-3-point (P3P) method and random sample consensus (RANSAC) algorithm. Therefore, the visual odometry is achieved. Finally, simple path navigation experiments demonstrate the effectiveness of the proposed visual odometry system.
第三語言摘要
論文目次
中文摘要	I
英文摘要	II
目錄	III
圖目錄	V
表目錄	VII
第 1 章 緒論	1
1.1 研究動機與目的	1
1.2 文獻探討	1
1.3 研究範圍	2
第 2 章 系統及硬體架構	3
2.1 系統流程	3
2.2 硬體架構	3
2.2.1 車體介紹	4
2.2.2 筆記型電腦	6
2.2.1 影像感測器	6
第 3 章 理論基礎	8
3.1 地標點擷取	8
3.1.1 影像特徵偵測	8
3.1.2 影像特徵描述	9
3.2 雙眼立體視覺	12
3.2.1 攝影機鏡頭校正	12
3.2.2 透視投影法	14
3.3 n點透視問題	19
3.4 隨機取樣一致(RANSAC)演算法	24
3.4.1 RANSAC	24
3.4.2 使用RANSAC求合適之P3P解	25
3.5 地標管理策略	27
3.5.1 地標新增	27
3.5.2 地標更新	28
3.5.3 地標刪除	28
第 4 章 理論驗證與實測範例	30
4.1 實驗一:地標距離估測	30
4.2 實驗二:P3P與RANSAC實測	33
4.3 實驗三:直行後轉彎定位	35
第 5 章 結論與未來展望	42
5.1 結論	42
5.2 未來展望	42
參考文獻	43

圖目錄
圖 2.1 系統流程圖 ....................................................................................................... 3
圖 2.2 實驗硬體架構圖 ............................................................................................... 4
圖 2.3 Pioneer 3-DX 機器人機構 ............................................................................... 5
圖 2.4 Pioneer 3-DX 本體外觀 .................................................................................... 5
圖 2.5 Pioneer 3-DX 指令與速度關係圖 .................................................................... 6
圖 2.6 雙眼視覺感測器 ................................................................................................ 7
圖 3.1 盒子濾波器 ....................................................................................................... 9
圖 3.2 音階層數與盒子濾波器尺寸關係圖 ............................................................... 9
圖 3.3 第一層與第二層音階 ....................................................................................... 9
圖 3.4 Haar 小波濾波器 ............................................................................................. 10
圖 3.5 定義特徵主方向 ............................................................................................. 10
圖 3.6 64 維描述向量 ................................................................................................. 11
圖 3.7 雙眼攝影機視線向量示意圖 ......................................................................... 15
圖 3.8 世界座標與攝影機座標示意圖 ..................................................................... 18
圖 3.9 三點透視定位 ................................................................................................. 19
圖 3.10 W 位置求解示意圖 ....................................................................................... 21
圖 3.11 RANSAC 演算法 .......................................................................................... 24
圖 3.12 地標新增策略 (左圖為新增前,右圖為新增後) ....................................... 28
圖 3.13 特徵點跳動情形 ........................................................................................... 29
圖 4.1 地標距離與量測誤差關係圖 ......................................................................... 30
圖 4.2 地標距離與量測誤差平均 .............................................................................. 31
圖 4.3 攝影機擷取特徵(左圖0.5 公尺 右圖1 公尺) ............................................. 31
圖 4.4 攝影機擷取特徵(左圖1.5 公尺 右圖2 公尺) ............................................. 31
圖 4.5 攝影機擷取特徵(左圖2.5 公尺 右圖3 公尺) ............................................. 32
圖 4.6 攝影機擷取特徵(3.5 公尺) ............................................................................ 32
圖 4.7 使用P3P 求出的攝影機位置 ........................................................................ 33
圖 4.8 使用P3P 與RANSAC 求出攝影機位置 ...................................................... 34
圖 4.9 實驗三實驗場地全景圖 ................................................................................. 35
圖 4.10 實驗三機器人行走軌跡 ............................................................................... 36
圖 4.11 系統啟動 ....................................................................................................... 37
圖 4.12 第四次移動 ................................................................................................... 37
圖 4.13 第八次移動 ................................................................................................... 37
圖 4.14 第十二次移動 ............................................................................................... 38
圖 4.15 第十三次移動(第一次旋轉) ........................................................................ 38
圖 4.16 第十四次移動(第二次旋轉) ........................................................................ 38
圖 4.17 第十五次移動(第三次旋轉) ........................................................................ 39
圖 4.18 第十六次移動(第四次旋轉) ........................................................................ 39
圖 4.19 第十七次移動(第五次旋轉) ........................................................................ 39
圖 4.20 第十八次移動(第六次旋轉) ........................................................................ 40
圖 4.21 第二十四次移動 ........................................................................................... 40
圖 4.22 第二十九次移動 ........................................................................................... 40
圖 4.23 第三十四次移動 ........................................................................................... 41
圖 4.24 第四十二次移動 ........................................................................................... 41


表目錄
表 1.1 特徵點演算法比較表 ....................................................................................... 2
表 2.1 Pioneer 3-DX 規格 ............................................................................................ 4
表 2.2 筆記型電腦規格 ............................................................................................... 6
表 2.3 前視型單眼攝影機規格表 ............................................................................... 7
表 3.1 左攝影機內部參數 ......................................................................................... 12
表 3.2 右攝影機內部參數 ......................................................................................... 13
表 3.3 左影像修正模型參數 ..................................................................................... 14
表 3.4 右影像修正模型參數 ..................................................................................... 14
表 3.5 特徵點時刻與穩定關係 ................................................................................. 29
參考文獻
[1]	J.-Y. Bouguet. Camera Calibration Toolbox for Matlab. Available: http://www.vision.caltech.edu/bouguetj/calib_doc/
[2]	D. Nister, O. Naroditsky, and J. Bergen, "Visual odometry for ground vehicle applications," Journal of Field Robotics, vol. 23, pp. 3-20, 2006.
[3]	D. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints," International Journal of Computer Vision, vol. 60, pp. 91-110, 2004/11/01 2004.
[4]	K. Yan and R. Sukthankar, "PCA-SIFT: a more distinctive representation for local image descriptors," in Computer Vision and Pattern Recognition, 2004. CVPR 2004. Proceedings of the 2004 IEEE Computer Society Conference on, 2004, pp. II-506-II-513 Vol.2.
[5]	H. Bay, T. Tuytelaars, and L. Gool, "SURF: Speeded Up Robust Features," in Computer Vision – ECCV 2006. vol. 3951, A. Leonardis, H. Bischof, and A. Pinz, Eds., ed: Springer Berlin Heidelberg, 2006, pp. 404-417.
[6]	L. Juan and O. Gwun, "A Comparison of SIFT, PCA-SIFT and SURF," International Journal of Image Processing, vol. 3, pp. 143-152, 2009.
[7]	郭沛棋, "兩輪差速驅動機器人之視覺式同時定位與建圖," 淡江大學機械與機電工程學系碩士論文, 2011.
[8]	C.-H. Sun, S.-H. Wang, and C.-C. Chang, "Switching T-S Fuzzy Model-Based Guaranteed Cost Control for Two-Wheeled Mobile Robots," International Journal of Innovative Computing, Information and Control, vol. 8, pp. 3015-3028, May 2012.
[9]	洪景泰, "基於FPGA之視覺定位及建圖於移動式機器人," 淡江大學機械與機電工程學系碩士論文, 2011.
[10]	M. A. Fischler and R. C. Bolles, "Random sample consensus: a paradigm for model fitting with applications to image analysis and automated cartography," Commun. ACM, vol. 24, pp. 381-395, 1981.
[11]	林冠瑜, "使用低階攝影機實現機器人視覺式SLAM," 淡江大學機械與機電工程學系碩士論文, 2012.
[12]	S. Hutchinson, G. D. Hager, and P. I. Corke, "A tutorial on visual servo control," Robotics and Automation, IEEE Transactions on, vol. 12, pp. 651-670, 1996.
[13]	Y.-T. Wang, C.-H. Sun, and M.-J. Chiou, "Detection of moving objects in image plane for robot navigation using monocular vision," EURASIP Journal on Advances in Signal Processing, vol. 2012, pp. 1-22, 2012/02/14 2012.


[14]	Y.-T. Wang, C.-T. Chi, and H.-K. Hung, "Robot Visual SLAM in Dynamic Environments," Advanced Science Letters, vol. 8, pp. 229-234, 2012.
論文全文使用權限
校內
紙本論文於授權書繳交後5年公開
同意電子論文全文授權校園內公開
校內電子論文於授權書繳交後5年公開
校外
同意授權
校外電子論文於授權書繳交後5年公開

如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信