§ 瀏覽學位論文書目資料
  
系統識別號 U0002-2701201016005800
DOI 10.6846/TKU.2010.00978
論文名稱(中文) 有效的目標定位系統應用於人形機器人足球場
論文名稱(英文) Efficient Target Localization System for RoboCup
第三語言論文名稱
校院名稱 淡江大學
系所名稱(中文) 電機工程學系碩士班
系所名稱(英文) Department of Electrical and Computer Engineering
外國學位學校名稱
外國學位學院名稱
外國學位研究所名稱
學年度 98
學期 1
出版年 99
研究生(中文) 張世宏
研究生(英文) Shih-Hung Chang
學號 696450682
學位類別 碩士
語言別 繁體中文
第二語言別
口試日期 2009-12-23
論文頁數 74頁
口試委員 指導教授 - 余繁(fyee@mail.tku.edu.tw)
共同指導教授 - 江正雄(chiang@ee.tku.edu.tw)
委員 - 賴永康(yklai@dragon.nchu.edu.tw)
委員 - 許明華(sheumh@yuntech.edu.tw)
委員 - 余繁(fyee@mail.tku.edu.tw)
委員 - 江正雄(chiang@ee.tku.edu.tw)
委員 - 翁慶昌(wong@ee.tku.edu.tw)
關鍵字(中) 人形機器人
自定位
距離量測
倒傳遞類神經網路
關鍵字(英) Humanoid soccer robot
Self-Localization
Distance measuring
Back propagation neural network
第三語言關鍵字
學科別分類
中文摘要
在機器人學與人工智慧研究不斷發展下,機器人足球比賽一直是一個具有意義且令人感興趣的研究領域之一,隨著人形足球機器人動作姿態與策略行為發展可知,人形機器人一直處於動態且未知的比賽環境,且機器人必須隨時掌握自己在足球場上的位置。為了要讓足球機器人在球場上有較好的競爭力,人形機器人之定位系統成為一個非常關鍵技術之一。
    本論文提出一套有效的機器人自定位系統,即基於視覺的適應性自定位系統(Adaptive Vision-Based Self-Localization System, AVBSLS),此足球機器人將整合頭部水平與垂直方向馬達和單眼攝影機資訊,完成機器人於足球場上之自定位。其自定位演算法開始先利用三角公式找尋機器人粗略的位置後,更進一步的採用類神經網路技術,自適性調整人形機器人在足球場上的位置。本研究著重在如何建構一套符合各種型號的攝影機且有效的機器人定位系統。一般以影像方式所完成之定位系統往往需要攝影機的內部參數,在此,我們利用一套有系統的方法自行量測攝影機之內部參數。根據上述所言,我們將能使用任何種類的攝影機並且準確的估測機器人在足球場上的位置。
    實驗結果指出,本論文所提出之AVBSLS定位系統,在每秒15fps的處理速度下,準確率達到92.3%。
英文摘要
Robot soccer game is one of the significant and interesting topics among most of the artificial intelligence researches. Following the humanoid soccer robot basic movement and strategy actions, the robot is operated in a dynamic and unpredictable contest environment and must recognize the position of itself in the field all the time. Therefore, the localization system of the soccer robot becomes the key technology to improve the performance. 
  This work proposes a new self-localization approach, Adaptive Vision-Based Self-Localization System (AVBSLS), for humanoid robot to integrate the information from the pan/tilt motors and a single camera to accomplish the self-localization. The proposed approach uses the trigonometric function to find the coarse location of the robot and further adopt the measuring artificial neural network technique to adjust the humanoid robot position adaptively. This research also focuses on how to establish an efficient robot localization system by using any type of CCD cameras. Generally the image-based localization system needs the intrinsic parameters. For the CCD camera adjustment, we propose a systematic method to measure the intrinsic parameters. By this approach, any type of CCD camera can be used to calculate the robot position precisely. 
  The experimental results indicate that the average accuracy ratio of the localization is 92.3% under frame rate of 15 frames per second (fps).
第三語言摘要
論文目次
中文摘要...................................................I
英文摘要..................................................II
內文目錄.................................................III
圖表目錄..................................................VI

第一章 緒論................................................1
1.1研究背景與動機..........................................1
1.2研究主題與目標..........................................2
1.3人形足球機器人競賽場地簡介..............................3
1.4研究架構................................................5

第二章 相關技術之研究與討論................................7
2.1 概述...................................................7
2.2 人形機器人足球比賽之定位相關技術.......................8
2.2.1 單眼視覺定位.........................................9
2.2.2 立體視覺定位........................................10
2.2.3 全方向鏡視覺定位....................................12
2.2.4 超音波定位..........................................13

第三章 單眼視覺之機器人自定位系統架構.....................15
3.1 影像輸入與機器人座標輸出程序..........................17
3.2 座標建立與地標偵測程序................................18
3.3 人形機器人位置估測程序................................19

第四章 座標建立與地標偵測程序.............................21
4.1 建立座標系統..........................................21
4.2 地標偵測系統..........................................22
4.2.1 色彩空間轉換........................................23
4.2.2 地標特徵條件判斷....................................26
4.2.3 完整地標之判定......................................27

第五章 人形機器人位置估測程序.............................29
5.1 距離模式選取..........................................30
5.2 畫面中地標校正........................................32
5.3 機器人與地標間距離量測................................35
5.3.1 內部參數量測........................................35
5.3.2 距離量測............................................39
5.4 提升距離精確度........................................41
5.4.1 倒傳遞類神經網路 (BPN Network)......................42
5.4.2 距離精度提升........................................44
5.5 機器人方位估測與校正..................................48
5.6 人形機器人位置估測....................................50

第六章 系統實驗與效能.....................................51
6.1 實驗環境與機器人模組..................................51
6.2 完整中場地標之判斷....................................53
6.3 定位距離分析..........................................55
6.4 中場地標與機器人方位於畫面中之校正....................57
6.5 自訂攝影機內部參數....................................60
6.6 距離量測之精確度模擬..................................62
6.7 距離之分析與比較......................................64
6.8 實際場地之人形機器人自定位............................65

第七章 結論...............................................68
7.1 研究成果..............................................68
7.2 未來研究方向..........................................69

參考文獻..................................................71

圖表目錄
圖目錄
圖1.1  ROBOCUP KID-SIZE人形足球機器人場地結構..............2
圖1.2  2009 ROBOCUP人形機器人足球場地......................4
圖1.3  KID-SIZE人形機器人球門..............................5
圖1.4  KID-SIZE人形機器人中場地標..........................5
圖2.1  目標物距離評估......................................9
圖2.2  目標物距離評估(目標物具有特定高度時)...............10
圖2.3  目標物與雙攝影機之幾何關係.........................11
圖2.4  相鄰影像中之物體形變比較...........................12
圖2.5  超音波之振福波形...................................14
圖3.1  單眼視覺之機器人自定位系統架構(AVBSLS).............16
圖3.2  影像輸入與機器人定位座標輸出程序流程圖.............17
圖3.3  座標建立與地標偵測程序.............................18
圖3.4  人形機器人位置估測程序.............................20
圖4.1  足球場上之兩個中場地標.............................23
圖4.2  HSV色彩模型........................................24
圖4.3  地標及球門顏色特徵分離.............................26
圖4.4  標記畫面中場地標特徵點.............................27
圖4.5  完整地標判斷.......................................28
圖5.1  地標於近距離模式之情形.............................30
圖5.2  地標於遠距離模式之情形.............................31
圖5.3  地標於中距離模式之情形.............................32
圖5.4  相同距離下,地標在畫面中的變化情形.................32
圖5.5  地標在畫面中相同位置,不同距離下之失真.............34
圖5.6  攝影機內部參數.....................................36
圖5.7  攝影機內部參數量測系統.............................38
圖5.8  三維距離量測系統...................................39
圖5.9  畫面中地標之水平與垂直資訊.........................40
圖5.10 倒傳遞類神經網路架構圖.............................43
圖5.11 強化距離精確度流程圖...............................44
圖5.12 活化函數圖.........................................46
圖5.13 機器人在相同位置,但地標在畫面中不同位置之關係.....48
圖5.14 人形機器人在足球場上之座標位置關係圖...............50
圖6.1  2009 ROBOCUP人形機器人場地結構.....................51
圖6.2  2009 ROBOCUP競賽場地之絕對座標系統.................52
圖6.3  人形機器人頭部視覺模組.............................52
圖6.4  人形機器人面向場地前方之情形.......................53
圖6.5  機器人距離地標為25公分之情形.......................56
圖6.6  30公分到500公分攝影距離下,FH與FV之距離變動量......57
圖6.7  模擬量測與真實距離之誤差圖.........................63
圖6.8  IBDMS與改善後的IBDMS測距法,與真實距離的誤差.......64
圖6.9  不同測距法之定位結果...............................66

表目錄
表2.1  定位技術比較表......................................8
表5.1  畫面中地標之XC在不同DK與α下的像素值...............49
表6.1  人形機器人面向地標正前方時,於不同距離、不同水平角度
       下FDL與FDR之量測結果...............................55
表6.2  不同的DK與XC下,FH的像素值變化.....................58
表6.3  定位距離在30公分到190公分下,DH(MAX)的變化.........60
表6.4  定位距離在190公分到400公分下,DV(MAX)的變化........61
表6.5 近距離模式下,不同距離之水平視角θH ....................................... 61
表6.6 中距離模式下,不同距離之水平視角θV ....................................... 61
表6.7 IBDMS 與改善後的IBDMS 測距法之平均誤差與最大誤差 ...... 65
表6.8 不同測距之定位法正確率比較表 ................................................... 67
參考文獻
[1]H. Kitano, M. Asada, Y. Kuniyoshi, I. Noda, and E.
   Osawa. “Robocup: The robot world cup initiative,” 
   IJCAI-95 Workshop on Entertainment and AI/ALife, pp. 19-
   24, 1995.
[2]RoboCup Soccer Humanoid League Rules and Setup for the 
   2007 competition. http://waziwazi.com/robocup.
[3]RoboCup Soccer Humanoid League Rules and Setup for the 
   2008 competition. http://www.robocup-cn.org/.
[4]RoboCup Soccer Humanoid League Rules and Setup for the 
   2009 competition. http://www.robocup2009.org/.
[5]I. Shimshoni, “On mobile robot localization from 
   landmark bearings,” IEEE Transactions on Robotics and 
   Automation, vol. 18, no. 6, pp. 971-976, December 2002.
[6]M. Betke and L. Gurvits, “Mobile robot localization 
   using landmarks,” IEEE Transactions on Robotics and 
   Automation, vol. 13, no. 2, pp. 251-263, April 1997.
[7]C. C. Chen, M. C. Lu, C. T. Chuang, and C. P. Tsai, 
  “Vision-Based Distance and Area Measurement System,” 
   IEEE Sensors Journal, vol. 6, no. 2, pp. 495-503, April 
   2006.
[8]C. C. Hsu, M. C. Lu, W. Y Wang, and Y. Y. Lu, “Distance 
   Measurement Based on Pixel Variation of CCD Images,” 
   ISA Transactions, vol. 48, issue 4, pp. 389-395, October 
   2009.
[9]黃啟彰,影像基底之距離量測系統:國立台灣科技大學碩士論
   文,民國96年。
[10]Z.-G. Zhong, J.-Q. Yi, D.-B. Zhao, Y.-P. Hong, and X.-
    Z. Li, “Motion vision for mobile robot localization,” 
    IEEE International Conference on Control, Automation, 
    Robotics and Vision, vol. 1, pp. 261-266, December 2004.
[11]P.-R. Liu, M.-Q. Meng, and P.-X. Liu, “Moving object 
    segmentation and detection for monocular robot based on 
    active contour model,” Electronics Letters, vol. 41, 
    no. 24, November 2005.
[12]蔣育陳,以視覺為基礎之機器人導航之應用:國立中央大學碩士
    論文,民國95年。
[13]傅培耕,即時物體追蹤之立體視覺引導自走車:中原大學碩士論
    文,民國93年。
[14]林任宏,以視覺為基礎之移動自主定位系統:國立中正大學碩士
    論文,民國94年。
[15]鍾元基,基於全方位視覺之機器人同步定位及建圖:國立中正大
    學碩士論文,民國97年。
[16]吳志仁,利用環場視覺作自動車應用之定位與影像分析新技術之
    研究:國立交通大學碩士論文,民國98年。
[17]張永融,利用聲場特徵及光流影像定位之全方向運動平台:國立
    交通大學碩士論文,民國95年。
[18]S.-T. Lu, “Ultrasonic Positioning System and Deviation 
    Analysis,” Journal of Advanced Engineering, vol. 3, 
    no. 1, pp. 21-28, January 2008.
[19]D. Aliaga, “Accurate Catadioptric Calibration for Real-
    time Pose Estimationin Room-size Environments,” IEEE 
    International Conference on Computer Vision, vol. 1, 
    pp. 123-134, July 2001.
[20]R. Swaminathan, M. Grossberg and S. Nayar, “Caustics 
    of Catadioptric Camera,” IEEE International Conference 
    on Computer Vision, vol. 2, pp. 2-9, July 2001.
[21]C. Geyer and K.Daniilidis, “Structure and Motion from 
    Uncalibrated Catadioptric Views,” IEEE Conference on 
    Computer Vision and Pattern Recognition, vol. 1, pp. 
    279-286, 2001.
[22]S. Kang, “Catadioptric Self-Calibration,” IEEE 
    Conference on Computer Vision and Pattern Recognition, 
    vol. 1, pp. 201-207, 2000.
[23]C. Geyer and K.Daniilidis, “Catadioptric Camera 
    Calibration,” IEEE International Conference on 
    Computer Vision, vol. 1, pp. 398-404, September 1999.
[24]J. Barreto and H. Araujo, “ Geometric properties of 
    central catadioptric line images and their application 
    in calibration,” IEEE Transactions on PatternAnalysis 
    and Machine Intelligence, vol. 27, pp. 1327-1333, 
    August 2005.
[25]S. Karin and P. Ioannis, “A novel method for automatic 
    face segmentation, facial feature extraction and 
    tracking,” SignalProcessing:Image Communication, vol. 
    12, pp. 263-281, 1998.
[26]N. Herodotou, K. N. Plataniotis, and A. N. 
    Venetsanopoulos, “Automatic location and tracking of 
    the facial region in color video sequences,” Signal 
    Processing:Image Communication, vol. 14, pp. 359-388, 
    1999.
[27]Y. J. C. Bizais, R. W. Rowe, I. G. Zubal, G. W. 
    Bennett, and A. B. Brill, “A new approach to 2-D 
    linear interpolation for geometric distortion 
    correction of images,” International Conference on 
    Medical Computer Science/Computational Medicine, pp. 
    170-173,1982.
[28]J. T. Dijak, “A method for correcting geometric 
    distortion in video cameras,” IEEE National Aerospace 
    and Electronics Conference, vol. 2, pp. 1382-1388, 1985.
[29]M. Rebiai, S. Mansouri, F. Pinson, and B. B. Tichit, 
   “Image distortion form zoom lenses: Modeling and 
    digital correction,” International Conference on 
    Broadcasting Convention, pp. 438-441, 1992.
[30]L.-H. Chiang, Neural Network—Application of MATLAB, 
    Gau-Lih Publish, Seventh Edition, July 2005.
[31]F.-J. Chang and L.-C. Chang, Artificial Neural Network, 
    Tun-Ghua Publish, Third Edition, August 2007.
[32]Logitech QuickCam® Pro for Notebooks. 
    http://www.logitech.com/index.cfm/home/.
[33]AX-12 Manual (English). 
    http://www.robotis.com/zbxe/software_en.
論文全文使用權限
校內
紙本論文於授權書繳交後1年公開
同意電子論文全文授權校園內公開
校內電子論文於授權書繳交後1年公開
校外
同意授權
校外電子論文於授權書繳交後1年公開

如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信