§ 瀏覽學位論文書目資料
  
系統識別號 U0002-1108200618241200
DOI 10.6846/TKU.2006.00260
論文名稱(中文) 中型機器人足球系統之即時影像處理
論文名稱(英文) Real-time Image Process in the Middle-size League of Robot Soccer System
第三語言論文名稱
校院名稱 淡江大學
系所名稱(中文) 電機工程學系碩士班
系所名稱(英文) Department of Electrical and Computer Engineering
外國學位學校名稱
外國學位學院名稱
外國學位研究所名稱
學年度 94
學期 2
出版年 95
研究生(中文) 鄧宏志
研究生(英文) Hung-Chih Teng
學號 693380023
學位類別 碩士
語言別 繁體中文
第二語言別
口試日期 2006-07-28
論文頁數 73頁
口試委員 指導教授 - 翁慶昌(wong@ee.tku.edu.tw)
委員 - 江青瓚(ctchiang@mail.cyu.edu.tw)
委員 - 姚立德(ltyao@ntut.edu.tw)
委員 - 陳珍源(jychen@cc.chit.edu.tw)
委員 - 黃志良(clhwang@ttu.edu.tw)
委員 - 翁慶昌(wong@ee.tku.edu.tw)
關鍵字(中) 足球機器人
全方位影像
視覺定位
關鍵字(英) robot soccer
omnidirectional sensor
self-localization
第三語言關鍵字
學科別分類
中文摘要
在RoboCup中型機器人足球競賽中,機器人獲得其周圍環境資訊主要是透過裝置在自身頂部的全方位影像系統,為了應付競賽過程中複雜的環境變化,機器人影像的處理能力須達到即時性、穩定性、準確性之外更要注重良好的強健性,才能夠快速的做出正確的應對措施。因此,本論文提出以下三項視覺處理的方法以建構出整個中型足球機器人的視覺系統:(1)色彩模型的建立:針對競賽中多變的視覺環境,提出一套色彩模型建立的方法,使機器人能夠迅速的辨別出球場上特定的目標物體資訊,且抑制場地光源與其他環境的干擾、降低視覺系統的運算量。(2)目標物體的偵測:針對全方位影像資訊扭曲失真的特性,本論文提出極座標搜尋法的目標物搜尋方式,再搭配跳躍搜尋法以跳躍取樣的方式,能夠有效且迅速的獲得影像資訊中各個顏色的區塊資訊,透過對顏色區塊的分析來獲得各個目標物座標資訊,且能夠辨別球門與柱子等在機器視覺上容易混淆的目標物資訊。(3)自我定位的計算:本論文提出新的影像定位演算技術,僅需要利用影像資訊中三個任意目標物與影像中心的相對關係資訊,即可立即推算出機器人位於球場上絕對的座標位置,整個定位計算過程無需使用機器人與目標物之間的距離資訊。最後,本論文將視覺系統整合至自行研製完成的中型足球機器人內,透過機器人在實際球場上的移動,證明視覺系統其效能符合即時、穩定、準確、與強健等目標。
英文摘要
In this thesis, three design methods are proposed to construct the vision system of soccer robot for middle-size league of RoboCup: (1) Color model construction: A clustering-based method is proposed to effectively build a color model. It can let the vision system quickly identify objects on the field, inhibit the light interference in a changeful environment, and reduce the computation. (2) Objects detection: A polar coordinate scan method combined with a jump search method is proposed to detect objects in the captured image from an omni-directional mirror and determine their coordinates fast and effectively. The ball, goals, and corner cylinders in the captured image can be recognized by the proposed method. (3) Self-localization: A self-localization method based on three coordinates of targets extracted from the image data is proposed. It can determine the global coordinate of the robot quickly. In the practical experiments, a soccer robot with an omni-directional vision system and a four-wheeled omni-directional movement mechanism is constructed. The experiment results illustrate that the constructed vision system by the three proposed methods with the features of real-time, stable, accurate, and robust.
第三語言摘要
論文目次
目錄	I
圖目錄	III
表目錄	VI
第一章 序論	1
1.1 研究背景	1
1.2 中型機器人足球系統簡介	3
1.3 論文架構	6
第二章 彩色系統簡介	8
2.1 RGB彩色系統	8
2.2 YIQ與YUV彩色系統	10
2.3 HSL與HSV彩色系統	12
第三章 中型足球機器人與視覺系統	16
3.1 全方位影像裝置	18
3.2 影像擷取盒	21
3.3 單板電腦與運算核心	24
第四章 彩色顏色模型建立與應用	27
4.1 色彩分割與K-Means聚類演算法	28
4.2 色彩分類系統設計流程	30
4.3 顏色模型的格式與定義	33
第五章 目標物偵測與識別	37
5.1 跳躍搜尋法	37
5.2 極座標搜尋法	38
5.3 資訊彙整與目標物識別	41
5.4 障礙物偵測與距離評估	43
第六章 虛擬球場與自我定位計算	45
6.1 雙圓定位演算法	46
6.2 虛擬球場建立與定位模擬	54
6.4 實際應用與心得	63
第七章 實驗與討論	65
第八章 結論	68
參考文獻	71

圖目錄
圖1.1、RoboCup 中型機器足球競賽場地之俯視圖.................................... 3
圖1.2、RoboCup 中型機器人足球系統之機器人與球................................ 4
圖1.3、中型機器人足球競賽之示意圖(2003 年於義大利帕多瓦) ....... 6
圖1.4、中型機器人足球競賽之示意圖(2005 年於日本大阪) ............... 6
圖2.1、RGB 彩色系統之加色模式................................................................ 9
圖2.2、HSL 彩色系統之系統外觀.............................................................. 12
圖2.3、HSV 彩色系統之系統外觀.............................................................. 14
圖3.1、中型足球機器人之外觀................................................................... 16
圖3.2、中型足球機器人之硬體架構圖....................................................... 17
圖3.3、全方位影像之完整硬體外觀........................................................... 19
圖3.4、全方位影像系統成像原理............................................................... 19
圖3.5、全方位影像造成取像扭曲失真....................................................... 20
圖3.6、利用光學反射原理估測目標物距離之示意圖............................... 21
圖3.7、兩物體與機器人所構成的夾角....................................................... 21
圖3.8、AME S960 影像擷取盒.................................................................... 22
圖3.9、RGB24 的取樣格式.......................................................................... 23
圖3.10、YUY2 的取樣格式......................................................................... 24
圖3.11、YUV420 的取樣格式..................................................................... 24
圖3.12、ASUS S300 筆記型電腦外觀........................................................ 25
圖4.1、球場上所有的目標物皆以特定的顏色標示................................... 28
圖4.2、色彩分類系統設計流程................................................................... 32
圖4.3、顏色分類前之取得影像................................................................... 35
圖4.4、顏色分類後結果預覽....................................................................... 36
圖5.1、逐行逐列掃描之示意圖................................................................... 39
圖5.2、極座標掃描之示意圖....................................................................... 39
圖5.3、綜合跳躍搜尋法與極座標搜尋法之示意圖................................... 40
圖5.4、目標物辨識結果............................................................................... 43
圖6.1、影像定位與虛擬球場建立之示意圖............................................... 46
圖6.2、三角形與其重心的夾角關係........................................................... 47
圖6.3、兩圓相交時兩交點與圓心的關係................................................... 48
圖6.4、外部座標觀點之示意圖................................................................... 49
圖6.5、內部座標觀點之示意圖................................................................... 49
圖6.6、由外部座標表示視覺系統辨識目標物座標................................... 50
圖6.7、由內部座標表示視覺系統辨識目標物座標................................... 51
圖6.8、利用p(e) 、p(e)f、p(e)
g  
 三點的關係求(e)
fg o ........................................... 52
圖6.9、利用p(e) 、(e)
g p 、(e)
h p 三點的關係求(e)
gh o ........................................... 52
圖6.10、利用兩圓相交的概念計算出機器人的實際座標......................... 53
圖6.11、虛擬球場尺寸(像素)與各目標物命名之標示圖..................... 55
圖6.12、定位演算法之模擬與驗證架構圖................................................. 56
圖6.13、定位功能之模擬驗證與執行結果(一)..................................... 56
圖6.14、定位功能之模擬驗證與執行結果(二)..................................... 57
圖6.15、定位功能之模擬驗證與執行結果(三)..................................... 58
圖6.17、定位功能之模擬驗證與執行結果(五)..................................... 60
圖6.18、定位功能之模擬驗證與執行結果(六)..................................... 61
圖6.19、定位功能之模擬驗證與執行結果(七)..................................... 62
圖6.20、定位功能之模擬驗證與執行結果(八)..................................... 63
圖6.21、定位演算法之執行架構圖............................................................. 64
圖7.1、視覺系統處理影像資訊之流程圖................................................... 65
圖7.2、定位測試實驗結果........................................................................... 67


表目錄
表3.1、AME S960 性能與規格表................................................................ 23
表3.2、ASUS S300 筆記型電腦規格表...................................................... 25
表4.1、顏色模型之色彩代碼表................................................................... 33
表5.1、掃描區塊資訊彙整........................................................................... 41
表5.2、區塊資訊判別為目標物之條件....................................................... 42
表5.3、距離估測對照表(一)................................................................... 44
表5.4、距離估測對照表(二)................................................................... 44
表5.5、距離估測對照表(三)................................................................... 44
表8.1、近年RoboCup 中型機器人組競賽場地變化一覽表..................... 68
參考文獻
A. Mackworth, “On seeing robots,” World Scientific Press Computer Vision: System, Theory, and Applications, 1993, pp. 1-13.
[2].	URL: http://www.robocup.org/
[3].	URL: http://www.fira.net/
[4].	A. Shinjoh and S. Yoshida, “A development of autonomous information indication system for RoboCup simulation league,” IEEE International Conference on Systems, Man, and Cybernetics, vol. 6, 1999, pp. 756-761.
[5].	K. Yuan, X. Liu, B. Luo, and H. Zhu, “Development of the autonomic mobile platform for RoboCup robot,” Proceedings of the 4th World Congress on Intelligent Control and Automation, vol. 1, 2002, pp. 506-509.
[6].	H. Kitano, M. Fujita, S. Zrehen, and K. Kageyama, “Sony legged robot for RoboCup challenge,” IEEE International Conference on Robotics and Automation, vol. 3, 1998, pp. 2605-2612.
[7].	H. D. Burkhard, D. Duhaut, M. Fujita, P. Lima, R. Murphy, and R. Rojas, “The road to RoboCup 2050,” IEEE Robotics & Automation Magazine, vol. 9, 2002, pp. 31-38.
[8].	周明豐,DSP主控之機器足球員設計,淡江大學電機工程學系碩士論文,民90。
[9].	W. G. Han, S. M. Baek, and T. Y. Kuc, “GA based online path planning of mobile robots playing soccer games,” The 40th Midwest Symposium on Circuits and Systems, vol. 1, 1997, pp. 522-525.
[10].	R. C. Gonzalez and R. E. Woods, Digital Image Processing, Addison-Wesley Publishing Company, 1992.
[11].	連國珍,數位影像處理,儒林圖書有限公司,1992。
[12].	URL: http://en.wikipedia.org/wiki/RGB_color_model
[13].	URL: http://en.wikipedia.org/wiki/NTSC
[14].	URL: http://en.wikipedia.org/wiki/PAL
[15].	URL: http://en.wikipedia.org/wiki/YIQ
[16].	URL: http://en.wikipedia.org/wiki/YUV
[17].	URL: http://en.wikipedia.org/wiki/HLS_color_space
[18].	URL: http://en.wikipedia.org/wiki/HSV_color_space
[19].	URL: http://www.ame-group.com/
[20].	M. D. Pesce, Programming Microsoft DirectShow for Digital Video, Television, and DVD, Microsoft Press, 2003
[21].	URL: http://en.wikipedia.org/wiki/Chroma_subsampling
[22].	陸其明,DirectShow實務精選,科學出版社,2004。
[23].	陸其明,DirectShow開發指南,清華大學出版社,2004。
[24].	J. Keith, Video Demystified, Fourth Edition (Demystifying Technology), Newnes, 2004.
[25].	J. Bruce, T. Balch, and M. Veloso, "Fast and inexpensive color image segmentation for interactive robots," 2000 IEEE/RSJ International Conference on Intelligent Robots and Systems, Vol. 3, 2000, pp. 2061-2066.
[26].	葉世良,模糊分類系統之設計,淡江大學電機工程學系碩士論文,民89。
[27].	黃雋博,小型機器人足球系統之即時影像處理,淡江大學電機工程學系控制晶片與系統組碩士倫文,民92。
[28].	E. M. Mouaddib, and B. Marhic, ”Geometrical matching for mobile robot localization,” IEEE Transactions on Robotics and Automation, Vol. 16, pp. 542-552, Oct. 2000.
[29].	B. Krose, R. Bunschoten, S. T. Hagen, B. Terwijn, and N. Vlassis, “Household robots look and learn: environment modeling and localization from an omnidirectional vision system,” IEEE Robotics & Automation Magazine, Vol. 11, pp. 45-52, Dec 2004.
[30].	M. Betke and L. Gurvits, “Mobile robot localization using landmarks,” IEEE Transactions on Robotics and Automation, Vol. 13, pp. 251-263, April 1997.
[31].	R. Larson, and B. H. Edwards, “Elementary Linear Algebra,” Houghton Mifflin Company, 2000.
論文全文使用權限
校內
紙本論文於授權書繳交後2年公開
同意電子論文全文授權校園內公開
校內電子論文立即公開
校外
同意授權
校外電子論文立即公開

如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信