系統識別號 | U0002-1208200912165200 |
---|---|
DOI | 10.6846/TKU.2009.00339 |
論文名稱(中文) | 全方位視覺足球機器人之自我定位系統的設計與實現 |
論文名稱(英文) | Design and Implementation of Self-Localization System for Omnidirectional Vision-based Soccer Robot |
第三語言論文名稱 | |
校院名稱 | 淡江大學 |
系所名稱(中文) | 電機工程學系碩士班 |
系所名稱(英文) | Department of Electrical and Computer Engineering |
外國學位學校名稱 | |
外國學位學院名稱 | |
外國學位研究所名稱 | |
學年度 | 97 |
學期 | 2 |
出版年 | 98 |
研究生(中文) | 何丞堯 |
研究生(英文) | Cheng-Yao Ho |
學號 | 696470037 |
學位類別 | 碩士 |
語言別 | 繁體中文 |
第二語言別 | |
口試日期 | 2009-07-23 |
論文頁數 | 52頁 |
口試委員 |
指導教授
-
翁慶昌(wong@ee.tku.edu.tw)
委員 - 龔宗鈞 委員 - 王偉彥 委員 - 許陳鑑 委員 - 周永山 委員 - 翁慶昌 |
關鍵字(中) |
蒙地卡羅定位 粒子濾波器 全方位視覺 |
關鍵字(英) |
Monte-Carlo Localization Particle Filter Omnidirectional Vision |
第三語言關鍵字 | |
學科別分類 | |
中文摘要 |
本論文提出一種以機器人全方位視覺(omnidirectional vision)為基礎的自我定位方法,應用蒙地卡羅自我定位法(Monte-Carlo Localization)可自主推算出機器人在環境中的位置。使用蒙地卡羅自我定位法,機器人的視覺系統需要以機器人自身為中心,藉由放射狀的掃瞄方式來收集四周環境特徵,以此來建立感測模型(sensor model)。另外,以機器人的移動系統所回授的里程計資訊來建立運動模型(motion model)。機器人於行進時,交互使用運動模型與感測模型來修正機器人位置的信賴函數,並進一步得知機器人在環境中的絕對位置。將此定位方法裝置在實驗所研製的中型足球機器人上,使機器人在球場上能夠利用自身的全方位視覺系統所辨識出球場四周的標線特徵,經由比對資料庫來修正透過硬體回授資訊所預測的初步位置,實現自我定位的能力,快速得知機器人自我在球場上的絕對座標位置。 |
英文摘要 |
In this thesis, the Monte-Carlo Localization (MCL) algorithm is applied to solve the self-localization problem for soccer robots which have an omnidirectional vision system. For the sensor model of MCL algorithm, an omnidirectional vision system is mounted on the center of the robot to detect color features of the environment. In the motion model, an optical encoder is utilized as the odometer sensor. The database of the color features is built for the feature scan matching by adopting the method of mixture probability distribution. Based on the motion model and the sensor model of the MCL algorithm, the robot system can locate its position in the environment by updating its position belief recursively. |
第三語言摘要 | |
論文目次 |
目錄 I 圖目錄 III 表目錄 V 第一章 序論 1 1.1 研究背景 1 1.2 研究動機 3 1.3 論文架構 4 第二章 蒙地卡羅定位法 5 2.1 簡介 5 2.2 演算法流程 8 第三章 中型足球機器人與視覺系統 14 3.1 中型機器人足球系統簡介 14 3.2 中型機器人足球系統架構 17 3.3 全方位視覺系統 22 3.4 運算處理核心 26 第四章 定位演算法模型建立與應用 28 4.1 運動模型 29 4.1.1 運動方程式 30 4.1.2 運動模型建立 36 4.2 感測模型 37 4.2.1 機率晶格地圖 37 4.2.2 感測機制 38 4.2.3 混合機率密度 39 4.2.4 權重值計算 40 4.2.5 感測模型定位結果 41 第五章 模擬與實驗結果 45 5.1 模擬與驗證 45 5.2 實驗與討論 47 第六章 結論 49 參考文獻 50 圖目錄 圖2.1、機器人應用雷射測距儀感測環境 7 圖2.2、狀態初始化 11 圖2.3、第一次估測(estimating) 11 圖2.4、更新(updating)並重新取樣(resampling) 12 圖2.5、第二次估測(estimating) 12 圖2.6、迭代計算後得到機器人位置 13 圖3.1、FIRA RoboSot競賽場地之俯視圖 14 圖3.2、FIRA中型機器人足球系統 15 圖3.4、中型足球機器人之硬體外觀 17 圖3.5、中型足球機器人之系統架構圖 19 圖3.6、全方位移動系統之硬體配置圖 20 圖3.7、中型足球機器人之系統功能圖 21 圖3.8、全方位視覺系統之硬體外觀 22 圖3.9、全方位影像系統成像原理 23 圖3.10、全方位視覺造成取像扭曲失真 24 圖3.11、估測目標物距離之示意圖 25 圖3.12、兩物體與機器人中心所構成的夾角 25 圖3.13、ASUS U1F筆記型電腦外觀 26 圖4.1、二輪與全方位輪移動方式之示意圖 29 圖4.2、全方位移動機器人之基本架構圖 30 圖4.3、全方位移動機器人座標圖 31 圖4.4、全方位輪行進速度之示意圖 32 圖4.5、全方位輪行進速度之示意圖 32 圖4.6、1號全方位輪移動之示意圖 33 圖4.7、座標軸旋轉之示意圖 34 圖4.8、四輪全方位機器人座標軸旋轉之示意圖 35 圖4.9、四輪全方位機器人座標軸旋轉之簡化示意圖 35 圖4.10、機率晶格地圖之示意圖 38 圖4.11、全方位視覺的掃瞄方式 39 圖4.12、感測模型之定位結果(一) 42 圖4.13、感測模型之定位結果(二) 43 圖4.14、感測模型之定位結果(三) 44 圖5.1、驗證程式之模擬結果 46 圖5.2、定位實驗結果(矩形軌跡) 47 圖5.3、定位實驗結果(圓形軌跡) 48 表目錄 表3.1、ASUS U1F筆記型電腦規格表 27 表5.1、定位實驗之誤差值結果(公尺) 48 |
參考文獻 |
[1]. A. Mackworth, “On seeing robots,” World Scientific Press Computer Vision: System, Theory, and Applications, pp. 1-13, 1993. [2]. URL: http://www.robocup.org/ [3]. URL: http://www.fira.net/ [4]. 鄧宏志,中型機器人足球系統之即時影像處理,淡江大學電機工程學系碩士論文,民95。 [5]. W. G. Han, S. M. Baek, and T. Y. Kuc, “GA based online path planning of mobile robots playing soccer games,” The 40th Midwest Symposium on Circuits and Systems, vol. 1, 1997, pp. 522-525. [6]. W. Toogood, H. Hao, and C. Wong, “Robot path planning using genetic algorithms,” IEEE International Conference on Systems, Man and Cybernetics, vol. 1, 1995, pp. 489-494. [7]. 王侯禕,多足球機器人之策略設計,淡江大學電機工程學系博士論文,民97。 [8]. F. Dellaert, D. Fox, W. Burgard, and S. Thrun, “Monte Carlo localization for mobile robots,” IEEE International Conference on Robotics and Automation, vol. 2, 1999, pp.1322-1328. [9]. S. Thrun, D. Fox, W. Burgard, and F. Dellaert, “Robust Monte Carlo localization for mobile robots,” Artificial Intelligence, vol. 128 (1-2), 2001, pp. 99-141. [10]. S. Enderle, M. Ritter, D. Fox, S. Sablatng, G. Kraetzschmar, and G. Palm, “Soccer robot localization using sporadic visual features,” Proceedings of the 6th International Conference on Intelligent Autonomous Systems (IAS-6). IOS Press, 2000. [11]. T. Röfer and M. Jüngel, “Vision-based fast and reactive Monte-Carlo localization,” IEEE International Conference on Robotics and Automation, vol. 1, 2003, pp.856-861. [12]. J. Wolf, W. Burgard, and H. Burkhardt, “Using an image retrieval system for vision-based mobile robot localization,” IEEE International Conference on Robotics and Automation, vol. 1, 2002, pp.359-365. [13]. E. Menegatti, M. Zoccarato, E. Pagello, and H. Ishiguro, “Hierarchical image-based localization for mobile robots with Monte-Carlo localization,” European Conference on Mobile Robots (ECMR’03), 2003, pp.13-20. [14]. E. Menegatti, M. Zoccarato, E. Pagello, and H. Ishiguro, “Image-based Monte-Carlo localization with omnidirectional images,” Robotics and Autonomous Systems, vol. 48 (1), 2004, pp.17-30. [15]. R.E. Walpole and R.H. Myers, Probability and Statistics for Engineers and Scientists. Prentice-Hall, 1993. [16]. I. Rekleitis. A Particle Filter Tutorial for Mobile Robot Localization, Technical Report TR-CIM-04-02, Centre for Intelligent Machines, McGill University, Montreal, Quebec, Canada, 2004. [17]. 劉智誠,全方位模糊運動控制器之設計與實現,淡江大學電機工程學系碩士論文,民96。 [18]. E. Menegatti, A. Pretto, A. Scarpa, and E. Pagello, “Omnidirectional vision scan matching for robot localization in dynamic environments,” IEEE Transactions on Robotics, vol.22, no.3, 2006, pp.523-535. [19]. N.J. Gordon, D.J. Salmond, and A.F.M. Smith, “Novel approach to nonlinear/non-Gaussian Bayesian state estimation,” IEEE Proceedings-F, vol.140, no.2, 1993, pp.107-113. |
論文全文使用權限 |
如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信