系統識別號 | U0002-1308200911425700 |
---|---|
DOI | 10.6846/TKU.2009.00407 |
論文名稱(中文) | 應用主動視覺定位進行人形機器人罰踢之研究 |
論文名稱(英文) | Penalty Kick of a Humanoid Robot by the Localization with Active Vision |
第三語言論文名稱 | |
校院名稱 | 淡江大學 |
系所名稱(中文) | 電機工程學系碩士班 |
系所名稱(英文) | Department of Electrical and Computer Engineering |
外國學位學校名稱 | |
外國學位學院名稱 | |
外國學位研究所名稱 | |
學年度 | 97 |
學期 | 2 |
出版年 | 98 |
研究生(中文) | 許庭嘉 |
研究生(英文) | Ting-Chia Hsu |
學號 | 696470193 |
學位類別 | 碩士 |
語言別 | 繁體中文 |
第二語言別 | |
口試日期 | 2009-07-22 |
論文頁數 | 51頁 |
口試委員 |
指導教授
-
黃志良(clhwang@mail.tku.edu.tw)
委員 - 郭重顯 委員 - 游文雄 委員 - 翁慶昌 |
關鍵字(中) |
人形機器人 罰踢 類神經網路 罰踢位置的修正 |
關鍵字(英) |
Humanoid robot Penalty kick Modeling using multilayer neural network Strategy for visual navigation |
第三語言關鍵字 | |
學科別分類 | |
中文摘要 |
本論文探討應用主動視覺定位後,導引人形機器人執行罰踢足球的系統,其包括如下的三個部分:模擬一台具有23個自由度的人形機器人、一指定顏色的足球、以及一球門。首先,機器人會搜尋整個半足球場地找尋足球的所在位置,當找到足球位置後,會藉由主動視覺導引機器人走向足球所在的位置,到達足球位置附近(例如,7cm左右)後,機器人會再找尋球門並定位其中心,以進行踢球位置的修正,當位置修正完成後,則可以執行踢球的動作。由於所應用的嵌入視覺為手調(或固定)的焦距,而且其離地面有一定的高度(在本論文為46cm),可能造成一些非可視的區域(即盲區),是故嵌入視覺的投影角必須不同以觀測不同的區域,連結這些可視區域以導引機器人至所欲到達的目標並具有適當的距離及正確的方位,稱此為主動嵌入視覺。簡言之,本論文有兩個主要的研究重點:一為應用類神經網路,將具有不同的視覺投影角所形成的影像平面轉換到世界座標的定位,另一為視覺導引機器人至足球位置附近及機器人罰踢位置的修正。最後我們以相關實驗證明所建議方法的可行性。 |
英文摘要 |
This paper realizes the humanoid robotic system to execute the penalty kick (PK) of the soccer game. The proposed system includes the following three subsystems: a humanoid robot (HR) with 23 degree-of-freedom, a soccer with different colors, and a soccer gate. In the beginning, the HR scans the soccer field to find the gate and the soccer, which are randomly distributed in a specific region in the front of the gate. If a command for the PK of the soccer with specific color is assigned, the HR will be navigated by an active embedded vision system (AEVS). After the HR reaches a planned position with a planned posture, the PK of the HR will be executed. Two key important techniques are developed and integrated into the corresponding task. One is the modeling using multilayer neural network (MNN) for different view angles, the other is the visual navigation strategy for the PK of the HR. In addition, the error sensitivities in the pan and tilt directions of these four visible regions are analyzed and compared. The proposed strategy of the visual navigation includes the following two parts: (i) the switched visible regions are designed to navigate the HR to the planned position, and (ii) the posture revision of the HR in the neighborhood of the soccer in order to execute the PK. Finally, a sequence of experiments for the PK of the HR confirm the effectiveness and efficiency of the propose methodology |
第三語言摘要 | |
論文目次 |
中文摘要I 英文摘要II 目錄III 圖目錄V 表目錄VIII 第一章 緒論1 第二章 實驗建構和問題陳述5 2.1 實驗建構5 2.1.1 硬體設備5 2.1.2 實驗環境6 2.2 問題陳述7 2.2.1 解析度的選擇顯示7 2.2.2 焦距固定的視窗建立8 第三章 影像辨識10 3.1 影像擷取11 3.2 影像二值化12 3.3 雜訊去除13 3.4 影像修正15 3.5 中心點座標16 3.6 球門目標點偵測17 第四章 應用類神經網路之定位18 4.1 類神經網路的建模18 4.2 誤差分析20 4.2.1 遠距離21 4.2.2 中遠及中近距離22 4.2.3 近距離24 第五章 導引人形機器人罰踢之策略26 5.1 定位計算26 5.2 人形機器人導引罰踢策略28 5.2.1 足球接近模式28 5.2.2 罰踢位置之校正31 第六章 問題討論及實驗結果37 6.1 問題討論37 6.1.1 誤差分析37 6.1.2 解析度選定41 6.2 實驗結果42 第七章 結論及未來研究48 參考文獻50 圖目錄 圖2.1 TMS320C6713 & VM480 的照片5 圖2.2 人形機器人6 圖2.3 實驗環境俯視圖8 圖2.4(a) 實驗環境側面圖(30度)9 圖2.4(b) 實驗環境側面圖(50度)9 圖2.4(c) 實驗環境側面圖(70度)9 圖2.4(d) 實驗環境側面圖(90度)9 圖3.1 影像處理流程圖11 圖3.2(a) 綠球_彩色影像13 圖3.2(b) 綠球_二值影像13 圖3.2(c) 藍球_彩色影像13 圖3.2(d) 藍球_二值影像13 圖3.3(a) 綠球_中值濾波14 圖3.3(b) 綠球_影像切割14 圖3.4 獨立物件偵測的方法15 圖3.5(a) 綠球_影像修正前16 圖3.5(b) 綠球_影像修正後16 圖4.1 MLP獲得代表性的訓練資料19 圖4.2 多層感知器架構圖20 圖4.3(a) 區塊劃分圖(遠距離狀態)21 圖4.3(b) 區塊劃分圖(中遠及中近距離狀態)23 圖4.3(c) 區塊劃分圖(近距離狀態)25 圖5.1 世界座標位置圖27 圖5.2 導引機器人到達足球位置27 圖5.3(a) 遠->中遠30 圖5.3(b) 中遠->中近30 圖5.3(c) 中近->近30 圖5.4 搜尋靠左球門中心1/4位置32 圖5.5 人形機器人罰踢之策略32 圖5.6(a) 機器人面向球門位置35 圖5.6(b) 機器人修正角度35 圖5.6(c) 機器人微調修正35 圖5.7 導引人形機器人罰踢策略之流程圖36 圖6.1(a) 影像圖XY軸比較(遠距離)38 圖6.1(b) 真實圖XY軸比較(遠距離)38 圖6.1(c) 影像圖方格比較(遠距離)39 圖6.1(d) 真實圖方格比較(遠距離)39 圖6.2 影像座標位置圖(遠距離)41 圖6.3 搜尋足球的方位44 圖6.4 足球接近模式44 圖6.5 搜尋球門中心靠左1/4位置45 圖6.6 罰踢位置修正45 圖6.7(a) 遠距離狀態,與足球距離100.01cm46 圖6.7(b) 中遠距離狀態,與足球距離63.245cm46 圖6.7(c) 中近距離狀態,與足球距離41.231cm46 圖6.7(d) 遠距離狀態,與球門目標點距離105.5cm46 圖6.8(a) 中遠距離狀態,與足球距離63.245cm47 圖6.8(b) 中近距離狀態,與足球距離41.231cm47 圖6.8(c) 近距離狀態,與足球距離18.027cm47 圖6.8(d) 近距離狀態,與足球距離6.122cm47 圖6.8(e) 近距離狀態,與足球距離6.5cm47 圖6.8(f) 近距離狀態,與足球距離6.67cm,完成罰踢校正47 表目錄 表4.1 遠距離狀態之誤差22 表4.2 中遠距離狀態之誤差表23 表4.3 中近距離狀態之誤差表24 表4.4 近距離狀態誤差表25 表5.1 解析度320x240之影像座標表(遠距離)41 表5.2 解析度160x120之影像座標表(遠距離)42 |
參考文獻 |
[1] K. Loffler, M. Gienger, F. Pfeiffer and H. Ulbrich, “Sensors and control concept of a biped robot,” IEEE Trans. Ind. Electron., vol. 51, no. 5, pp.972-980, 2004. [2] Q. Huang and Y. Nakamura, “Sensory reflex control for humanoid walking,” IEEE Trans. Robotics, vol. 21, no. 5, pp. 977-984, Sep. 2005. [3] Y. Guan, E. S. Neo, K. Yokoi and K. Tanie, “Stepping over obstacles with humanoid robots,” IEEE Trans. Robotics, vol. 22, no. 5, pp. 958-973, Oct. 2006. [4] K. Harada, S. Kajita, F. Kanehiro, K. Fujiwara, K. Kaneko, K. Yokoi and H. Hirukawa, “Real-time planning of humanoid robot’s gait for force-controlled manipulation,” IEEE/ASME Trans. Mechatron., vol. 12, no. 1, pp. 53-62, Feb., 2007. [5] D. Xu, Y. F. Li, M. Tan and Y. Shen, “A new active visual for humanoid robots,” IEEE Trans. Syst. Man & Cyber., Part B, vol. 38, no. 2, pp. 320-330, Apr. 2008. [6] T. Matsuyama and N. Ukita, “Real-time multitarget tracking by a cooperative distributed vision system,” Proceedings of the IEEE, vol. 90, no. 7, pp. 1136-1150, 2002 [7] M. M. Trivedi, K. S. Huang and I. Mikic, “Dynamic context capture and distributed video arrays for intelligent space,” IEEE Trans. Syst. Man & Cyber., Part A, vol. 35, no. 1, pp. 22-27, Jan. 2005. [8] E. Menegatti, A. Pretto, A. Scarpa, and E. Pagello, “Omni-directional vision scan matching for robot localization in dynamic environments,” IEEE Trans. Robotics, vol. 22, no. 3, pp. 523-535, Jun. 2006. [9] K. T. Song and J. C. Tai, “Dynamic calibration of pan-tilt-zoom cameras for traffic monitoring,” IEEE Trans. Syst. Man & Cybern., Pt. B, vol. 36, no. 5, pp. 1091-1103, Oct. 2006. [10] I. H. Chen and S. J. Wang, “An effective approach for the calibration of multiple PTZ cameras,” IEEE Trans. Automat. Sci. & Engr., vol. 4, no. 2, pp. 286-293, Apr. 2007. [11] Fun, M. H. and Hagan, M. T., “Levenberg-Marquardt Training for Modular Networks”, IEEE International Conference (1), 1996, pp. 468-473. [12] L. G. Shapiro and G. C. Stock, Computer Vision, Prentice-Hall Inc. 2001. [13] E. D. Davies, Machine Vision --- Theory, Algorithms, Practicalities, 3rd Ed., Elsevier, 2005. [14] P. Vadakkepat, P. Lim, L. C. De Silva, L. Jing and L. L. Ling, “Multimodal approach to human- face detection and tracking,” IEEE Trans. Ind. Electron., vol. 55, no. 3, pp. 1385-1393, Mar. 2008. [15] D. Xu, Y. F. Li, M. Tan and Y. Shen, “A new active visual for humanoid robots,” IEEE Trans. Syst. Man & Cyber., Part B, vol. 38, no. 2, pp. 320-330, Apr. 2008. |
論文全文使用權限 |
如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信