§ 瀏覽學位論文書目資料
  
系統識別號 U0002-0208201011393700
DOI 10.6846/TKU.2010.00038
論文名稱(中文) 基於立體視覺之改善人形機器人定位精準度並應用於人形機器人足球場
論文名稱(英文) Improving the Accuracy of Stereo Vision-Based Localization System for Humanoid Soccer Robot
第三語言論文名稱
校院名稱 淡江大學
系所名稱(中文) 電機工程學系碩士班
系所名稱(英文) Department of Electrical and Computer Engineering
外國學位學校名稱
外國學位學院名稱
外國學位研究所名稱
學年度 98
學期 2
出版年 99
研究生(中文) 許泓威
研究生(英文) Hung-Wei Hsu
學號 697450079
學位類別 碩士
語言別 繁體中文
第二語言別
口試日期 2010-06-17
論文頁數 89頁
口試委員 指導教授 - 江正雄(chiang@mail.tku.edu.tw)
委員 - 蔡宗漢(han@ee.ncu.edu.tw)
委員 - 翁慶昌(wong@ee.tku.edu.tw)
委員 - 江正雄(chiang@ee.tku.edu.tw)
委員 - 黃志良(clhwang@mail.tku.edu.tw)
委員 - 盧明智(l3210m@mail.sju.edu.tw)
關鍵字(中) 立體視覺
自定位
人形機器人
距離量測
倒傳遞類神經網路
關鍵字(英) Stereo Vision
Self-Localization
RoboCup
Distance measuring
Back propagation neural network
第三語言關鍵字
學科別分類
中文摘要
本論文針對2010年世界盃機器人足球競賽人形機器人足球比賽之規則提出了一套立體視覺自定位系統(Stereo Vision-Based Self-Localization System, SVBSLS),此足球機器人將整合頭部水平與垂直方向馬達和立體視覺資訊,完成機器人於足球場上之自定位與量測足球之距離。此系統演算法開始先利用三角函數公式找尋機器人與地標、足球粗略的距離後,更進一步的採用類神經網路技術以提升距離的精準度,接著利用統計方法,求得人形機器人相對於地標的方位。
  本研究著重在如何建構一套符合各種型號的攝影機且有效的機器人定位系統。一般以影像方式所完成之定位系統往往需要攝影機的內部參數,在此,我們利用一套有系統的方法自行量測攝影機之內部參數。根據上述所言,我們將能使用任何種類的攝影機並且準確的估測機器人在足球場上的座標與足球之距離。
  實驗結果顯示,本論文所提出之SVBSLS定位系統,人形足球機器人自定位之精準度達到100%;人形足球機器人與足球距離平均誤差為0.64公分。
英文摘要
This thesis proposes a new Stereo Vision-Based Self-Localization System (SVBSLS) for the RoboCup soccer humanoid league rules of the 2010 competition. The humanoid robot integrates the information from the pan/tilt motors and stereo vision to accomplish the self-localization and measure the distance the soccer. The proposed approach uses the trigonometric function to find the coarse distances from the robot to the landmark and the robot to the soccer, and then it further adopts the artificial neural network technique to increase the precision of the distance. Next the statistics approach is used to calculate the relationship between the humanoid robot and position of the landmark.
  This research also focuses on how to establish an efficient robot localization system by using any type of CCD cameras. Generally the image-based localization system needs the intrinsic parameters. For the CCD camera adjustment, we propose a systematic method to measure the intrinsic parameters. By this approach, any type of CCD camera can be used to calculate the distance from the coordinates of robot on soccer field to the soccer.
  The experimental results indicate that the localization system of SVBSLS in this work has 100% average accuracy ratio for localization. The average error of distance from the humanoid soccer robot to the soccer is only to 0.64 cm.
第三語言摘要
論文目次
中文摘要	I
英文摘要	II
內文目錄	III
圖表目錄	VII

第一章 緒論	1
1.1研究背景	1
1.2研究主題與動機	2
1.3論文架構	3

第二章 文獻探討	5
2.1 RoboCup 2010簡介	5
2.1.1 緣由	5
2.1.2 RoboCup 2010人形機器人組場地介紹	7
2.1.3 RoboCup 2010人形機器人組比賽規則介紹	10
2.2 概述	11

2.3 人形機器人足球比賽之定位相關技術	12
2.3.1 全方向鏡視覺定位	13
2.3.2 單眼視覺定位	14
2.3.3 立體視覺定位	16
2.3.4 超音波定位	17

第三章 立體視覺之機器人自定位系統架構	19
3.1 立體視覺輸入與機器人座標輸出區塊	21
3.2 座標建立與物件偵測區塊	22
3.3 人形機器人位置估測區塊	23
3.4 人形機器人與足球距離估測與足球距離輸出區塊	25

第四章 座標建立與物件偵測區塊	26
4.1 建立座標系統	26
4.2 物件偵測系統	27
4.2.1 色彩空間轉換	28
4.2.2 球場物件辨識	32
  4.2.2.1 地標球柱辨識	33
  4.2.2.2 地標球門外框辨識	35
  4.2.2.3 足球的辨識	36
4.2.3 完整地標之判定	37

第五章 人形機器人位置估測區塊	39
5.1 機器人與地標間距離量測	40
5.1.1 內部參數量測	40
5.1.2 距離量測	45
5.2 提升距離精準度	47
5.2.1 倒傳遞類神經網路 (BPN Network)	47
5.2.2 距離精度提升	49
5.3 機器人方位估測與校正	54
5.4 人形機器人位置估測	57

第六章 人形機器人與足球距離估測區塊	58

第七章 系統實驗與效能	59
7.1 實驗環境與機器人模組	59
7.2 球場物件辨識分析	63
7.2.1 地標球柱辨識分析	63
7.2.2 地標球門辨識分析	65
7.2.3 足球辨識分析	66
7.3 完整地標與足球之判斷	67
7.4 立體視覺之視差分析	68
7.5 地標與機器人方位於畫面中之校正	70
7.6 自訂攝影機內部參數	71
7.7 距離量測之精準度模擬	73
7.8 距離之分析與比較	74
7.9 實際場地之人形機器人自定位	76
7.10 單雙眼比較	79

第八章 結論	82
8.1 研究成果	82
8.2 未來研究方向	83

參考文獻	85
 
圖表目錄

圖目錄
圖1.1  ROBOCUP KID-SIZE人形足球機器人場地結構	2
圖2.1  ROBOCUP 2010 人形機器人足球競賽場地之俯視圖	7
圖2.2  地標球門外框尺寸示意圖	9
圖2.3  地標球柱尺寸示意圖	9
圖2.4  模擬比賽場地全景	10
圖2.5  相鄰影像中之物體大小形變比較	13
圖2.6  特徵物件距離評估	15
圖2.7  特徵物件距離評估(特徵物件具有特定高度時)	15
圖2.8  特徵物件與雙攝影機之幾何關係	17
圖2.9  超音波之振福波形	18
圖3.1  立體視覺之機器人自定位系統架構(SVBSLS)	21
圖3.2  影像輸入與機器人定位座標輸出區塊流程圖	21
圖3.3  座標建立與物件偵測區塊	22
圖3.4  人形機器人位置估測區塊	24
圖3.5  人形機器人與足球距離估測區塊	25
圖4.1  足球場上之地標	28
圖4.2  RGB色彩模型	29
圖4.3  HSV色彩模型	29
圖4.4  足球及地標顏色特徵分離	31
圖4.5  左、右眼標記於畫面物件特徵資訊	32
圖4.6  地標球柱辨識示意圖	33
圖4.7  地標球柱資訊輸出	34
圖4.8  地標球門資訊輸出	36
圖4.9  足球資訊輸出	37
圖4.10 完整物件判斷	38
圖5.1  攝影機內部參數	41
圖5.2  攝影機內部參數量測系統	43
圖5.3  實際的最大水平寬度DH(MAX)	44
圖5.4  畫面中地標球柱之水平資訊	44
圖5.5  三維距離量測系統	45
圖5.6  倒傳遞類神經網路架構圖	49
圖5.7  強化距離精準度流程圖	50
圖5.8  四種活化函數	52
圖5.9  人形機器人在相同位置但地標球柱在畫面中不同位置	54
圖5.10 人形機器人在足球場上之座標位置	57
圖7.1  2010 ROBOCUP人形機器人場地結構	59
圖7.2  2010 ROBOCUP競賽足球場地	60
圖7.3  人形機器人頭部視覺模組	62
圖7.4  地標球柱辦識失敗示意圖	63
圖7.5  閥值Β辦識結果	64
圖7.6  地標球門外框辦識結果	65
圖7.7  足球辦識結果	66
圖7.8  足球的遮蔽結果	67
圖7.9  10公分到300公分距離下ΔN變動量	69
圖7.10  機器人距離地標球柱為10公分之情形	71
圖7.11  機器人距離地標球柱為160、170公分之情形	71
圖7.12  模擬真實距離之誤差	74
圖7.13  真實距離的誤差IBDMS與改善後的IBDMS	75
圖7.14  使用SVBSLS估測人形機器人位置	77
圖7.15  真實距離的誤差單眼(AVBSLS)與雙眼(SVBSLS)	79
圖7.16  單、雙眼距離誤差下的定位結果	80

表目錄
表2.1  比賽球場詳細尺寸說明表	8
表2.2  定位技術比較表	12
表5.1  畫面中地標球門XC’在各個距離DK與方位α下的像素值	55
表5.2  畫面中地標球柱XC’在各個距離DK與方位α下的像素值	56
表7.1  兩眼間距8在各個距離DK與解析度下的視差	60
表7.2  兩眼間距10在各個距離DK與解析度下的視差	61
表7.3  地標球柱在相同距離不同角度下的視差	69
表7.4  左眼不同單位FH、DH(MAX)的變化值	72
表7.5  右眼不同單位FH、DH(MAX)的變化值	72
表7.6  不同單位之水平視角與光學原點距離DOP 73
表7.7 IBDMS與改善後的IBDMS測距法之平均誤差與最大誤差76
表7.8 不同測距之定位法正確率比較表 78
表7.9 單眼與雙眼的測距法之平均誤差與最大誤差 80
表7.10 單、雙眼定位法正確率比較表81
參考文獻
[1]	RoboCup Soccer Humanoid League Rules and Setup for the 2010 competition. http://www.robocup2010.org/
[2]	RoboCup Soccer Humanoid League Rules and Setup for the 2009 competition. http://www.robocup2009.org/
[3]	I. Shimshoni, “On mobile robot localization from landmark bearings,” IEEE Transactions on Robotics and Automation, vol. 18, no. 6, pp. 971-976, December 2002.
[4]	M. Betke and L. Gurvits, “Mobile robot localization using landmarks,” IEEE Transactions on Robotics and Automation, vol. 13, no. 2, pp. 251-263, April 1997.
[5]	C. C. Chen, M. C. Lu, C. T. Chuang, and C. P. Tsai, “Vision-Based Distance and Area Measurement System,” IEEE Sensors Journal, vol. 6, no. 2, pp. 495-503, April 2006.
[6]	Cheng-Chuan Chen, Chen-Chien Hsu, Ti-Ho Wang, Chun-Wei Huang, “Three-dimensional measurement of a remote object with a single CCD camera,” The 7th WSEAS International Conference on Signal Processing, Computational Geometry& Artificial Vision, Vouliagmeni Beach, Athens, Greece, Aug. 24-26, 2007, pp. 141-146.
[7]	C. C. Hsu, M. C. Lu, W. Y Wang, and Y. Y. Lu, “Distance Measurement Based on Pixel Variation of CCD Images,” ISA Transactions, vol. 48, issue 4, pp. 389-395, October 2009.
[8]	黃啟彰,影像基底之距離量測系統:國立台灣科技大學碩士論文,民國96年。
[9]	A. Mackworth, “On seeing robots,” World Scientific Press Computer Vision: System, Theory, and Applications, 1993, pp. 1-13.
[10]	H. Kitano, M. Asada, Y. Kuniyoshi, I. Noda, and E. Osawa. “Robocup: The robot world cup initiative,” IJCAI-95 Workshop on Entertainment and AI/ALife, pp. 19-24, 1995.
[11]	FIRA官方網頁
URL : http://www.fira.net/ 
[12]	A. Shinjoh and S. Yoshida, “A development of autonomous information indication system for RoboCup simulation league,” IEEE International Conference on Systems, Man, and Cybernetics, vol. 6, 1999, pp. 756-761.
[13]	K. Yuan, X. Liu, B. Luo, and H. Zhu, “Development of the autonomic mobile platform for RoboCup robot,” Proceedings of the 4th World Congress on Intelligent Control and Automation, vol. 1, 2002, pp. 506-509.
[14]	H. Kitano, M. Fujita, S. Zrehen, and K. Kageyama, “Sony legged robot for RoboCup challenge,” IEEE International Conference on Robotics and Automation, vol. 3, 1998, pp. 2605-2612.
[15]	H. D. Burkhard, D. Duhaut, M. Fujita, P. Lima, R. Murphy, and R. Rojas, “The road to RoboCup 2050,” IEEE Robotics & Automation Magazine, vol. 9, 2002, pp. 31-38.
[16]	Z.-G. Zhong, J.-Q. Yi, D.-B. Zhao, Y.-P. Hong, and X.-Z. Li, “Motion vision for mobile robot localization,” IEEE International Conference on Control, Automation, Robotics and Vision, vol. 1, pp. 261-266, December 2004.
[17]	鍾元基,基於全方位視覺之機器人同步定位及建圖:國立中正大學碩士論文,民國97年。
[18]	吳志仁,利用環場視覺作自動車應用之定位與影像分析新技術之研究:國立交通大學碩士論文,民國98年。
[19]	P.-R. Liu, M.-Q. Meng, and P.-X. Liu, “Moving object segmentation and detection for monocular robot based on active contour model,” Electronics Letters, vol. 41, no. 24, November 2005.
[20]	蔣育陳,以視覺為基礎之機器人導航之應用:國立中央大學碩士論文,民國95年。
[21]	傅培耕,即時物體追蹤之立體視覺引導自走車:中原大學碩士論文,民國93年。
[22]	林任宏,以視覺為基礎之移動自主定位系統:國立中正大學碩士論文,民國94年。
[23]	張永融,利用聲場特徵及光流影像定位之全方向運動平台:國立交通大學碩士論文,民國95年。
[24]	S.-T. Lu, “Ultrasonic Positioning System and Deviation Analysis,” Journal of Advanced Engineering, vol. 3, no. 1, pp. 21-28, January 2008.
[25]	C. Geyer and K.Daniilidis, “Structure and Motion from Uncalibrated Catadioptric Views,” IEEE Conference on Computer Vision and Pattern Recognition, vol. 1, pp. 279-286, 2001.
[26]	S. Kang, “Catadioptric Self-Calibration,” IEEE Conference on Computer Vision and Pattern Recognition, vol. 1, pp. 201-207, 2000.
[27]	C. Geyer and K.Daniilidis, “Catadioptric Camera Calibration,” IEEE International Conference on Computer Vision, vol. 1, pp. 398-404, September 1999.
[28]	J. Barreto and H. Araujo, “ Geometric properties of central catadioptric line images and their application in calibration,” IEEE Transactions on PatternAnalysis and Machine Intelligence, vol. 27, pp. 1327-1333, August 2005.
[29]	D. Aliaga, “Accurate Catadioptric Calibration for Real-time Pose Estimationin Room-size Environments,” IEEE International Conference on Computer Vision, vol. 1, pp. 123-134, July 2001.
[30]	R. Swaminathan, M. Grossberg and S. Nayar, “Caustics of Catadioptric Camera,” IEEE International Conference on Computer Vision, vol. 2, pp. 2-9, July 2001.
[31]	S. Karin and P. Ioannis, “A novel method for automatic face segmentation, facial feature extraction and tracking,” SignalProcessing:Image Communication, vol. 12, pp. 263-281, 1998.
[32]	N. Herodotou, K. N. Plataniotis, and A. N. Venetsanopoulos, “Automatic location and tracking of the facial region in color video sequences,” Signal Processing:Image Communication, vol. 14, pp. 359-388, 1999.
[33]	Y. J. C. Bizais, R. W. Rowe, I. G. Zubal, G. W. Bennett, and A. B. Brill, “A new approach to 2-D linear interpolation for geometric distortion correction of images,” International Conference on Medical Computer Science/Computational Medicine, pp. 170-173,1982.
[34]	J. T. Dijak, “A method for correcting geometric distortion in video cameras,” IEEE National Aerospace and Electronics Conference, vol. 2, pp. 1382-1388, 1985.
[35]	M. Rebiai, S. Mansouri, F. Pinson, and B. B. Tichit, “Image distortion form zoom lenses: Modeling and digital correction,” International Conference on Broadcasting Convention, pp. 438-441, 1992.
[36]	L.-H. Chiang, Neural Network—Application of MATLAB, Gau-Lih Publish, Seventh Edition, July 2005.
[37]	F.-J. Chang and L.-C. Chang, Artificial Neural Network, Tun-Ghua Publish, Third Edition, August 2007.
[38]	Logitech QuickCam® Pro for Notebooks. http://www.logitech.com/index.cfm/home/.
[39]	AX-12 Manual (English). http://www.robotis.com/zbxe/software_en.
[40]	張世宏,有效的目標定位系統應用於人形機器人足球場:淡江大學碩士論文,民國99年。
論文全文使用權限
校內
紙本論文於授權書繳交後1年公開
同意電子論文全文授權校園內公開
校內電子論文於授權書繳交後2年公開
校外
同意授權
校外電子論文於授權書繳交後2年公開

如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信