§ 瀏覽學位論文書目資料
  
系統識別號 U0002-0401201017332700
DOI 10.6846/TKU.2010.00070
論文名稱(中文) 以色彩為基礎的即時物件辨識系統應用於人形機器人視覺
論文名稱(英文) A Real Time Color-Based Object Recognition System for Humanoid Robot Vision
第三語言論文名稱
校院名稱 淡江大學
系所名稱(中文) 電機工程學系碩士班
系所名稱(英文) Department of Electrical and Computer Engineering
外國學位學校名稱
外國學位學院名稱
外國學位研究所名稱
學年度 98
學期 1
出版年 99
研究生(中文) 張維軒
研究生(英文) Wei-Hsuan Chang
學號 696450302
學位類別 碩士
語言別 繁體中文
第二語言別
口試日期 2009-12-23
論文頁數 101頁
口試委員 指導教授 - 余繁(fyee@mail.tku.edu.tw)
委員 - 翁慶昌(wong@ee.tku.edu.tw)
委員 - 賴永康(yklai@dragon.nchu.edu.tw)
委員 - 許明華(sheumh@yuntech.edu.tw)
委員 - 江正雄(chiang@ee.tku.edu.tw)
關鍵字(中) 物件辨識
色彩
機器視覺
即時
自適性
解析度
關鍵字(英) robot
RoboCup
adaptive resolution method
object recognition
real time
第三語言關鍵字
學科別分類
中文摘要
機器人相關研究一直是科技發展的重要議題之一,在眾多種類的機器人當中以自主性人形機器人的發展最為受到關注,目前在機器人學與人工智慧的蓬勃發展之下,機器人能完成的事情不再只是簡單而重複的動作,而是期盼機器人具有獨立思考的能力,身處動態且未知的環境能自行完成高度複雜性的問題,因此機器人之視覺便成為自主性機器人系統最關鍵技術之一。在RoboCup人形機器人足球競賽中,機器視覺常被使用來作目標物辨識、目標物座標判定、動態目標追蹤、目標距離估測、空間定位、路徑規劃、動態障礙物規避以及多個機器足球員間合作進攻防守的智慧型控制策略,因此一個具有即時性與高辨識準確率視覺系統是很被需要的。
    找出畫面中所需要的物件資訊是機器人視覺系統中最基本且最重要的任務,一般來說,物件辨識不外乎是利用其顏色、形狀、輪廓、大小等特徵資訊,將物件從畫面中分割出來,而解析度是影響一張影像中資訊量多寡的關鍵,過大的解析度往往會增加系統運算量的負擔,因此許多降低解析度方法相繼被提出,常見的降低解析度方法有直接次取樣方法、平均濾波次取樣方法、利用二維離散小波轉換降低解析度之方法與對稱式遮罩小波轉換降低解析度之方法。降低解析度不但能加快處理運算的速度,亦能抑制雜訊的干擾,但過度的降低解析度會造成畫面的資訊量不足導致辨識的失敗,因此如何選擇一個適合的解析度大小比起如何降低解析度的方法,是一個更為重要的課題。
    有鑑於此,本論文針對2009年世界盃機器人足球競賽人形機器人足球比賽之規則提出了一套具有自適性解析度調變機制的物件辨識演算法,在比賽中能選擇對整體情勢最為有利的解析度畫面,而利用對稱式遮罩離散小波轉換中的對稱式低低頻遮罩演算法所發展出自適性解析度調變機制,亦同時能抑制雜訊的生成以減少後處理運算量,使得此物件辨識演算法更加的強健。本論文也使用以色彩為基礎的物件分離方法,透過HSV色彩模型以降低對於動態環境光源變化的影響,並加入簡單且快速的物件特徵選取方法,無須透過建立樣板或利用統計等複雜計算,而僅使用其長寬、面積比例等型態特徵便能識別出球場中的關鍵物件。
    而實驗結果證明,本論文提出之物件辨識演算法不但不容易受到亮度變化的影響,且針對球場環境的辨識準確率平均約在93%以上,而平均影格速率能有32fps的水準,不但維持高解析度畫面(320×240)所擁有的高辨識準確率,並提昇其平均影格速率約11fps,改善高解析度所欠缺的即時性,使人形機器人足球員更能得心應手處理球場上瞬息萬變的狀況。
英文摘要
The research of robots is one of the most important issues in recent years. In the numerous robot researches, the development of autonomous robots is attracted mostly.  Accompanying the advancement of robotics and artificial intelligence, the autonomous robots can not only handle simple and monotonous problems, but also have independent thoughts to deal with the complex states in the unpredictable and dynamic environments. All these functions rely on a powerful vision system, and therefore the vision system is one of the most critical techniques for the autonomous robot system. In the RoboCup soccer humanoid league competition, the vision system is used to collect various environment information as the terminal data to finish the functions of object recognition, coordinate building, robot localization, robot tactic, barrier avoiding, etc. Hence a real-time and high recognition accuracy rate vision system is essential.
    Extracting the frame information is the most basic and most important task of the robot vision system. Generally speaking, the object recognition uses object features to extract the object out of the picture frame, and thus color, shape, contour, texture, and sizes of object features are commonly used. The resolution is the key point to affect the frame information. High resolution causes high computing costs, and many low resolution methods were purposed, such as Down-Sampling Method, Average Filter Method, Discrete Wavelet Transform (DWT), and Symmetric Mask-Based DWT Method. These low resolution methods cannot only increase the processing speed, but also reduce the noise interference. However, the reduction of the resolution may reduce the frame information and further fail the recognition. Therefore how to select the most suitable resolution is a more important issue than how to reduce the resolution.
    According to the above-mentioned problems, we propose a new approach, Adaptive Resolution Method (ARM), in the object recognition system for the RoboCup soccer humanoid league rules of the 2009 competition. It can select the most proper resolution for different situations in the competition. The low resolution method is based on the 2-D symmetric mask-based discrete wavelet transform (SMDWT). The SMDWT can reduce the noise interference and make the object recognition system more robustness as well. The HSV color model is used to reduce the influence on the light illumination of the dynamic environment. We also use a simple and fast object feature extraction method to recognize the critical objects by using the features of the shape ratio, area information,  etc. The advantage of this method does not need the complexity computing such as the model building, data statistics, etc.
    According to the experimental results, our purposed method is not easily affected by the light illumination. The recognition accuracy rate is more than 93% on average and the average frame rate can reach 32 fps. It does not only maintain the high recognition accuracy rate for the high resolution frames, but also increase the average frame rate for about 11 fps compared to the conventional high resolution approach. It improves the processing time of high resolution to help the humanoid soccer robot to handle the variable situations in the field.
第三語言摘要
論文目次
目錄
中文摘要    I
英文摘要    III
內文目錄    V
圖表目錄    VIII

第一章  緒  論	1
1.1 研究背景	1
1.2 研究主題與動機	2
1.3 論文架構	3

第二章  文獻探討	4
2.1 RoboCup 2009簡介	4
2.1.1 緣由	4
2.1.2 RoboCup 2009人形機器人組場地介紹	6
2.1.3 RoboCup 2009人形機器人組比賽規則介紹	9
2.2 物件偵測技術	10
2.2.1 以樣板為基礎的分離法	10
2.2.2 以色彩為基礎的分離法	13
2.2.2.1 RGB色彩模型	14
2.2.2.2 YIQ與YUV色彩模型	18
2.2.2.3 HSV與HSI色彩模型	21
第三章 降低影像解析度處理	26
3.1 前言	26
3.2 直接次取樣方法降低解析度之方法	28
3.3 利用平均濾波器降低解析度之方法	28
3.4 利用離散小波轉換降低解析度之方法	29
3.5利用對稱式遮罩小波轉換降低解析度之方法	33

第四章 自適性解析度調變應用於即時物件辨識系統	41
4.1系統架構	41
4.2 自適性解析度調變機制	43
4.2.1 概述	43
4.2.2 自適性解析度調變架構	47
4.3 彩色物件偵測	51
4.4 雜訊消除	52
4.4.1 膨脹與侵蝕	53
4.4.2 斷開與閉合	56
4.5 物件識別	57
4.5.1 連通成份	57
4.5.2 球場物件辨識	59
4.5.2.1 地標球柱辨識	60
4.5.2.2 球門辨識	62
4.5.2.3 球的辨識	63
第五章 實驗結果	65
5.1實驗說明	65
5.2 降低解析度方法分析	67
5.3 自適性畫面大小縮放機制分析	71
5.4 球場物件辨識分析	75
5.4.1 地標球柱辨識分析	75
5.4.2 球門辨識分析	78
5.4.3 球的辨識分析	80
5.5 光源變化分析	82
5.6 綜合分析	85

第六章 結論與未來發展方向	93
6.1 結論	93
6.2 未來發展方向	93

參考文獻 (REFERENCES)	95

附錄 實驗結果影片	99

 
圖表目錄

圖目錄
圖2.1 ROBOCUP 2009人型機器人足球競賽場地之俯視圖	6
圖2.2 球門尺寸示意圖	8
圖2.3 地標球柱尺寸示意圖	8
圖2.4 模擬比賽場地全景	9
圖2.5 樣板分類,上排為規律樣板,下排為不規律多邊形樣板	11
圖2.6 多樣版偵測結果	12
圖2.7 人臉物件模板建立與追蹤	13
圖2.8 RGB色彩模型示意圖	15
圖2.9 RGB色彩方塊	16
圖2.10 加色模式	16
圖2.11 全彩影像與其R、G、B分量	17
圖2.12 YUV色差向量成份與顏色對應	20
圖2.13 全彩影像轉換為YUV色彩模型	20
圖2.14 HSV色彩模型	21
圖2.15 HSI色彩模型	23
圖2.16 全彩影像轉換為HSV色彩模型	25
圖3.1 在不同解析度下的影像	27
圖3.2直接次取樣方法示意圖	27
圖3.3平均濾波方法示意圖	29
圖3.4 二維離散小波轉換子頻帶分解	30
圖3.5 經過二維二階離散小波轉換子頻帶分解示意圖	31
圖3.6 在不同階數的低低頻影像	32
圖3.7 對稱式高高頻帶遮罩矩陣係數	34
圖3.8 對稱式高低頻帶遮罩矩陣係數	35
圖3.9 對稱式低高頻帶遮罩矩陣係數	35
圖3.10 對稱式低低頻帶遮罩矩陣係數	36
圖3.11 二維對稱式遮罩演算架構示意圖	37
圖3.12 傳統二維離散小波架構示意圖	37
圖3.13 離散小波轉換法和平均濾波器比較	39
圖4.1 應用自適性解析度調變之物件辨識流程圖	41
圖4.2全彩球場影像轉換為色調與飽和度成份影像	42
圖4.3球場中的關鍵物件	43
圖4.4 鏡頭視角與景深關係圖	44
圖4.5 物件在不同距離之情況	45
圖4.6自適性解析度調變架構流程圖	47
圖4.7球在不同距離所使用的畫面解析度影像	50
圖4.8 色調顏色條	51
圖4.9 前景物件遮罩	52
圖4.10 像素近鄰示意圖	54
圖4.11 影像膨脹侵蝕示意圖	55
圖4.12 斷開運算過程	57
圖4.13 相關八近鄰標記方向	58
圖4.14 二值化影像標記結果	59
圖4.15 地標球柱辨識示意圖	60
圖4.16 地標球柱資訊輸出	61
圖4.17 球門資訊輸出	63
圖4.18 球資訊輸出	64
圖5.1 視覺開發介面	65
圖5.2 物件辨識範例	66
圖5.3 雜訊分析流程	67
圖5.4利用直接次取樣方法之物件辨識結果	68
圖5.5利用平均濾波降低解析度方法之物件辨識結果	68
圖5.6利用對稱性遮罩小波轉換降低解析度方法之物件辨識結果	68
圖5.7利用直接次取樣方法加入斷開運算之物件辨識結果	70
圖5.8利用平均濾波方法加入斷開運算之物件辨識結果	70
圖5.9利用對稱性遮罩小波轉換方法加入斷開運算之物件辨識結果	70
圖5.10 解析度為320×240之物件辨識	72
圖5.11 解析度為160×120之物件辨識	72
圖5.12 解析度為80×60之物件辨識	73
圖5.13 使用自適性畫面大小縮放機制之物件辨識	73
圖5.14 各解析度影格速率比較	74
圖5.15 地標球柱辨識失敗示意圖	76
圖5.16閥值Β為5之辨識結果	76
圖5.17閥值Β為10之辨識結果	77
圖5.18閥值Β為15之辨識結果	77
圖5.19閥值Β為20之辨識結果	77
圖5.20 球門辨識結果	79
圖5.21 球的辨識結果	80
圖5.22 球的遮蔽結果	82
圖5.23 不同照度下的物件辨識	83
圖5.24 環境光源閃爍之物件辨識結果	84
圖5.25 場景一辨識結果	86
圖5.26 場景二辨識結果	87
圖5.27 場景三辨識結果	88
圖5.28 場景四辨識結果	89
圖5.29 場景五辨識結果	90
 
表目錄
表2.1 比賽球場詳細尺寸說明表	7
表3.1傳統二維離散小波轉換和對稱式遮罩離散小波轉換計算複雜度	38
表4.1 系統支援最大球速與景深D之關係表	46
表4.2 畫面解析度與可視距離關係表	48
表5.1 使用不同降低解析度方法之雜訊量統計	69
表5.2 使用不同降低解析度方法並加入斷開運算之雜訊量統計	71
表5.3 各種解析度與自適性畫面大小縮放機制物件辨識之結果	74
表5.4 不同閥值Β之地標球柱辨識結果	78
表5.5 球門辨識實驗數據	79
表5.6 球的辨識實驗數據	81
表5.7 不同照度下使用的色彩閥值	83
表5.8 環境光源閃爍之物件辨識實驗數據分析	85
表5.9 各場景之物件辨識實驗數據分析	91
參考文獻
[1] RoboCup官方網頁
URL:http://www.robocup.org/
[2] URL:http://www.playrobot.com/
[3] URL:http://www.icci.com.tw/
[4] C.-H. Hsia, J.-M. Guo, and J.-S. Chiang, “Improved low complexity algorithm for 2-D integer lifting-based discrete wavelet transform using symmetric mask-based scheme,” IEEE Transactions on Circuits and Systems for Video Technology, vol. 19, no. 8, pp. 1-7, Aug. 2009.
[5] A. Mackworth, “On seeing robots,” World Scientific Press Computer Vision: System, Theory, and Applications, 1993, pp. 1-13.
[6] H. Kitano, M. Asada, Y. Kuniyoshi, I. Noda, and E. Osawa, “Robocup: The robot world cup initiative,” IJCAI-95 Workshop on Entertainment and AI/ALife, pp. 19-24, 1995.
[7] FIRA官方網頁
URL:http://www.fira.net/
[8] A. Shinjoh and S. Yoshida, “A development of autonomous information indication system for RoboCup simulation league,” IEEE International Conference on Systems, Man, and Cybernetics, vol. 6, 1999, pp. 756-761.
[9]. K. Yuan, X. Liu, B. Luo, and H. Zhu, “Development of the autonomic mobile platform for RoboCup robot,” Proceedings of the 4th World Congress on Intelligent Control and Automation, vol. 1, 2002, pp. 506-509.
[10]. H. Kitano, M. Fujita, S. Zrehen, and K. Kageyama, “Sony legged robot for RoboCup challenge,” IEEE International Conference on Robotics and Automation, vol. 3, 1998, pp. 2605-2612.
[11]. H. D. Burkhard, D. Duhaut, M. Fujita, P. Lima, R. Murphy, and R. Rojas, “The road to RoboCup 2050,” IEEE Robotics & Automation Magazine, vol. 9, 2002, pp. 31-38.
[12] RoboCup Soccer Humanoid League Rules and Setup for the 2009 competition.
URL:http://www.robocup2009.org/153-0-rules.
[13] G. Wu, W.-J. Liu, X.-H. Xie, and Q. Wei, “A shape detection method based on the radial symmetry nature and direction-discriminated voting,” IEEE International Conference on Image Processing, vol. 6, pp. VI-169-VI-172, September 2007.
[14] N. Krahnstoever and R. Sharma, “Appearance management and cue fusion for 3D model-based tracking,” IEEE Conference on Computer Vision and Pattern Recognition, vol. 2, pp. II-249-54, June 2003.
[15] S. M. Yoon and H. Kim, “Real-time multiple people detection using skin color, motion and appearance information,” IEEE International Workshop on Robot and Human Interactive Communication, pp. 331-334, September 2004.
[16] J. Yang, M.-J. Zhang, and J.-A. Xu, “A visual tracking method for mobile robot,” World Congress on Intelligent Control and Automation, vol. 2, pp. 9017-9021, June 2006.
[17] J. Pers and S. Kovacic, “Computer vision system for tracking players in sports games,” Proceedings of International Workshop on Image and Signal Processing and Analysis, pp. 177-182, June 2000.
[18] R. C. Gonazlez and R. E. woods, Digital Image Processing, 2nd edition, Addison-Wesley, 1992.
[19] 連國珍,數位影像處理,儒林圖書有限公司,1992。
[20] URL: http://en.wikipedia.org/wiki/RGB_color_model
[21] URL: http://en.wikipedia.org/wiki/NTSC
[22] URL: http://en.wikipedia.org/wiki/PAL
[23] URL: http://en.wikipedia.org/wiki/YIQ
[24] URL: http://en.wikipedia.org/wiki/YUV
[25] URL: http://en.wikipedia.org/wiki/HSV_color_space
[26] URL: http://en.wikipedia.org/wiki/HSI_color_space
[27] B. Sugandi , H. Kim, J. K. Tan, and S. Ishikawa, “Tracking of moving objects by using a low resolution image,” International Conference on Innovative Computing, Information and Control, pp. 408-408, Sep. 2007.
[28] F.-H. Cheng and Y.-L. Chen, “Real time multiple objects tracking and identification based on discrete wavelet transform,” Pattern Recognition, vol. 39, no. 3, pp. 1126-1139, Jun. 2006.
[29] 黃丁威,以對稱小波轉換演算法應用於移動物件偵測與追蹤之研究:淡江大學碩士論文,民國98年。
[30] S. G. Mallat, “A theory for multi-resolution signal decomposition: The wavelet representation,” IEEE Transaction on Pattern Analysis and Machine Intelligence, vol. 11, no. 7, pp. 674-693, July 1989.
[31] W. Ge and L.-Q. Gao, and Q. Sun, “A method of multi-scale edge detection based on lifting scheme and fusion rule,” International Conference on Wavelet Analysis and Pattern Recognition, vol. 2, pp. 952-955, November 2007.
[32] H.-H. Liu, X.-H. Chen, Y.-G. Chen, and C.-S. Xie, “Double change detection method for moving-object segmentation based on clustering,” IEEE International Symposium on Circuits and Systems, pp. 5027-5030, May 2006.
[33] J. Ahmed, M. N. Jafri, and J. Ahmad, “Target tracking in an image sequence using wavelet features and neural network,” IEEE TENCON, pp. 1-6, November 2005.
[34] F. A. Tab, G. Naghdy, and A. Mertins, “Multiresolution video object extraction fitted to scalable wavelet-based object coding,” IET Image Processing, vol. 1, no. 1, pp. 21-38, March 2007.
[35] R. Rifaat and W. Kinsner, “Experiments with wavelet and other edge detection techniques,” IEEE WESCANEX : Communications, Power and Computing, pp. 322-326, May 1997
[36] 鄧宏志,中型機器人足球系統之即時影像處理:淡江大學碩士論文,民國95年。
[37] The specification of Logitech QuickCam Ultra Vision.
http://www.logitech.com/index.cfm/webcam_communications/webcams/devices/238&cl=tw,zh.
論文全文使用權限
校內
紙本論文於授權書繳交後1年公開
同意電子論文全文授權校園內公開
校內電子論文於授權書繳交後1年公開
校外
同意授權
校外電子論文於授權書繳交後1年公開

如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信