淡江大學覺生紀念圖書館 (TKU Library)
進階搜尋


下載電子全文限經由淡江IP使用) 
系統識別號 U0002-2706200800450000
中文論文名稱 智慧型娛樂機器人之研製
英文論文名稱 Design and Implementation of Intelligent Entertainment Robots
校院名稱 淡江大學
系所名稱(中) 電機工程學系博士班
系所名稱(英) Department of Electrical Engineering
學年度 96
學期 2
出版年 97
研究生中文姓名 鄭吉泰
研究生英文姓名 Chi-Tai Cheng
學號 891350026
學位類別 博士
語文別 中文
口試日期 2008-06-09
論文頁數 158頁
口試委員 指導教授-翁慶昌
委員-陶金旺
委員-龔宗鈞
委員-周永山
委員-許陳鑑
委員-翁慶昌
中文關鍵字 機器手臂  機器寵物  人形機器人  機器學習 
英文關鍵字 Robot arm  Pet robot  Humanoid robot  Machine learning 
學科別分類
中文摘要 本論文研製三台智慧型娛樂機器人來分別實現三項互動:三維空間互動、情緒感覺互動與娛樂競賽互動。首先,本論文設計與實現一台具有雙手臂、雙輪與雙視覺系統的居家機器人,其可以在三維空間裡抓取目標物來做三維空間互動。機器人上半身裝置四個自由度的雙臂,並且在頭部與手部各裝設一個視訊裝置。本論文應用一個類神經架構來縮小機器人視覺上的誤差,讓所實現的機器人能以雙視覺搭配手臂與兩輪在三維空間中抓取特定目標物。其次,本論文設計與實現一台具有四足、兩個耳朵、一個嘴巴與一個視覺系統的四足機器寵物狗,其可以依照人類的互動情況產生不同的情緒反應來做情緒感覺互動。本論文提出一個可以自我行為學習的類神經學習架構,讓所實現的機器狗能在跟人與環境的互動後,自我學習到可以依照不同環境情況表現出不同的情緒反應。最後,本論文設計與實現一台具有二手、二足與一個視覺系統的人形機器人,其可以實現踢足球等娛樂競賽行為。26個自由度的機構設計讓讓所實現的人形機器人可以完成前進、後退、旋轉及側移等動作。頭部、手部、腰部及腿部分別為2個、8個、2個及14個自由度。ㄧ個視訊裝置裝設在機器人之頭部,讓其可以為一台視覺自主的機器人。本論文根據機器人身上指南針與紅外線感測器所獲得之訊息提出一個模糊避障演算法,其讓機器人可以自主有效的避開障礙物並且快速的走到目標位置。從模擬結果與實體的實際驗證可知,所完成之兩輪雙視覺機器人、四足機器寵物狗及二足人形機器人分別在三維空間互動、情感互動與娛樂競賽互動均有不錯的性能。
英文摘要 Three intelligent entertainment robots are designed and implemented for three kinds of interaction. First, a home robot with two arms, two wheels, and two vision systems is design to catch a specific target in a three-dimensional space so that it can do some three-dimensional physical interactions. Two CMOS sensors are respectively mounted on the head and the right arm and the arm with 4 degrees of freedom (DOF) is design. A neural network learning system is proposed and built on the robot so that it is able to use its vision systems to track the object and use its right arm to catch the object. Second, a pet robot with four legs, two ears, one mouth and one vision system is design to do different emotional interaction in different situation so that it can do some emotional interaction with human. A neural network learning system is proposed and built on the robot for the behavior learning so that the implemented pet robot is able to choose a suitable behavior for different environmental situation. Third, a humanoid robot with two arms, two legs, and one vision system is design to play soccer so that it can do some entertainment and competition interaction. A mechanical structure with 26 DOF is designed so that the implemented humanoid robot can find the ball, walk forward, turn right and left, and slip right and left. There are 2 DOF on the neck, 2 DOF on the waist and trunk, 8 DOF on the two arms, and 14 DOF on the two legs. One vision system is mounted on the head of robot so that it is a vision-based soccer robot. A fuzzy obstacle avoidance method based on the obtained information of six infrared sensors and one electronic compass is proposed and implemented on the humanoid robot so that it can avoid obstacles effectively and go to the destination area quickly. From the simulation and experiment results, we can see that the implemented three robots have good performance in the three-dimensional physical interaction, emotional interaction, and entertainment interaction.
論文目次 目錄
第一章 緒論 1
1.1 研究背景 1
1.2 研究方法與步驟 4
1.3 論文結構 6
第二章 兩輪雙視覺機器人實體製作 7
2.1 引言 7
2.2 系統功能 8
2.3 機構設計 11
2.4 電子電路 13
2.4.1 電路設計 13
2.4.2 電子材料 16
2.5 軟體架構 20
第三章 兩輪雙視覺機器人行為設計 23
3.1 影像處理 23
3.1.1 低通濾波 23
3.1.2 影像灰階化 24
3.1.3 影像二值化 25
3.1.4 低頻邊緣偵測 26
3.1.5 Sobel邊緣偵測 26
3.1.6 物件偵測 29
3.1.7 區域判斷 31
3.2 機械手臂控制 33
3.2.1 正向運動學 34
3.2.2 逆向運動學 43
3.3 雙視覺結合機械手臂之抓取特定目標物行為 45
第四章 四足機器寵物狗實體製作 58
4.1 引言 58
4.2 系統功能 59
4.3 機構設計 62
4.3.1 頭部機構設計 63
4.3.2 腳部機構設計 64
4.4 電子電路 66
4.4.1 電路設計 66
4.4.2 電子材料 69
4.5 軟體架構 72
第五章 四足機器寵物狗行為設計 79
5.1以類神經為基礎之學習行為 79
5.1.1 外在環境 80
5.1.2 生理系統 81
5.1.3 心理系統 81
5.1.4 行為系統 83
5.1.5 學習系統 84
第六章 二足人形機器人實體製作 97
6.1 引言 97
6.2 系統功能 101
6.3 機構設計 102
6.4 電子電路 109
6.4.1 核心處理器 109
6.5 軟體架構 115
6.5.1 編輯功能 116
6.5.2 特殊操作功能 117
6.5.3 傳輸功能 119
第七章 二足人形機器人行為設計 122
7.1 有限狀態機制實現踢足球行為 122
7.1.1 罰球場景 122
7.1.2有限狀態機策略架構 123
7.1.3 影像與策略執行結果 130
7.2 模糊避障行為 133
7.2.1 模糊避障決策系統 133
7.2.2 以基因演算法來實現模糊避障系統 141
7.3 模擬結果 144
第八章 結論 148
參考文獻 149
研究著作 155
得獎經歷 158
圖目錄
圖1.1 先進國家組織之智慧型服務用機器人產值趨勢預估。 3
圖1.2 本論文研究流程。 5
圖2.1 兩輪雙視覺機器人實體圖。 9
圖2.2 兩輪雙視覺機器人系統方塊圖。 10
圖2.4 兩輪雙視覺機器人機械手臂機構圖。 12
圖2.5 右機械手臂與視覺系統實際照片。 12
圖2.6 兩輪雙視覺機器人電路方塊圖。 13
圖2.7 NIOS II轉接電路板與DC馬達電路板。 14
圖2.8 直流馬達驅動電路板實體圖。 15
圖2.9 手部馬達電路板實體圖。 16
圖2.10 RX系列馬達連結方式。 18
圖2.11 電子指南針TDCM3之實體圖。 20
圖2.12 影像與策略系統的介面實體圖。 21
圖3.1 低通濾波執行前後比較圖: (a) 執行前影像與(b)執行後影像。 24
圖3.2 執行影像灰階化前後比較圖: (a) 執行前影像與(b)執行後影像。 25
圖3.3 執行影像二值化前後比較圖: (a) 執行前影像與(b)執行後影像。 25
圖3.4 執行低頻邊緣偵測前後比較圖: (a) 執行前影像與(b)執行後影像。 26
圖3.5 Sobel 運算子:(a)x方向與(b)y方向。 27
圖3.6 欲進行Sobel運算之像素示意圖。 27
圖3.7低頻邊緣偵測與Sobel邊緣偵測之比較圖: (a)執行前影像,(b)執行低頻邊緣偵測與(c)執行Sobel邊緣偵測後影像。 28
圖3.8 顏色區分找出相似顏色點: (a)執行前影像與(b)執行後影像。 29
圖3.9 物件偵測之流程圖。 30
圖3.10 物件偵測之結果。 31
圖3.11 安全區域搜尋。 32
圖3.12 障礙物離機器人遠近示意圖:(a)障礙物實際位置圖與(b)安全區域判斷結果。 32
圖3.13 兩輪雙視覺機器人馬達配置圖。 33
圖3.14 兩輪雙視覺機器人右手馬達簡化後之連桿參數。 34
圖3.15 滿足DH1與DH2的兩個座標系。 36
圖3.16 雙視覺機器人右手的各軸座標系。 37
圖3.17 右機器手臂在 =0, =0, =90及 =0時之正運動學驗證:(a)左視圖與(b)前視圖。 39
圖3.18 兩輪雙視覺機器人右手臂可活動之全部範圍。 40
圖3.19 兩輪雙視覺機器人手掌水平時右手臂可活動之全部範圍:(a)一般最高點,(b)一般最低點,(c) 一般可活動範圍側視圖與(d)一般可活動範圍鳥視圖。 41
圖3.20 兩輪雙視覺機器人手掌水平時右手臂可活動之全部範圍:(a) 為0度最高點,(b) 為0度最低點,(c) 為0度活動範圍,(d) 為0度活動範圍側視圖與(e) 為0度活動範圍前視圖。 42
圖3.21 機械手臂逆向運動學之示意圖。 43
圖3.22 雙視覺機器人抓取目標物。 45
圖3.23 機器人座標系定義。 45
圖3.24 兩輪雙視覺機器人抓取特定目標物流程圖。 46
圖3.25 特定目標物在距離機器人90公分時的示意圖:(a)場景示意圖與(b)影像處理結果。 48
圖3.26 特定目標物在距離機器人40公分時的示意圖:(a)場景示意圖與(b)影像處理結果。 48
圖3.27 本系統所應用的多層前饋式網路。 49
圖3.28 類神經100次訓練後所得到的曲線逼近圖。 50
圖3.29 依照特性曲線所得到之距離誤差量測圖。 51
圖3.30 不影響機構結構下可旋轉最大角度的可抓取範圍:(a)手臂靠近身體時與(b)手臂遠離身體時。 52
圖3.31 機器人手掌能維持水平的情況下可以移動的範圍。 54
圖3.32 機器人不移動下抓取目標物實際連續照片。 56
圖3.33 機器人移動下抓取目標物實際連續照片。 57
圖4.1 機器寵物狗全貌。 59
圖4.2 機器寵物狗系統方塊圖。 60
圖4.3 機器寵物狗自由度規格圖。 62
圖4.4 寵物狗腳部機構圖。 64
圖4.5 彈簧緩衝與被動關節。 65
圖4.6 腳部機構於各種不同地形的適應:(a)平地,(b)前方突起與(c)後方突起。 66
圖4.7 機器寵物狗電路方塊圖。 67
圖4.8 機器寵物狗表情LED點矩陣。 67
圖4.9 電壓感測電路。 68
圖4.10 溫度感測電路方塊圖。 69
圖4.11 溫度感測器DS1821之外觀。 71
圖4.12 溫度感應器方塊圖。 71
圖4.13 人臉偵測介面。 72
圖4.14 人臉偵測效果:(a) 臉部辨識與(b) 臉部及手部辨識。 73
圖4.15 影像處理與處理結果對照圖。 74
圖4.16 單筆傳送介面。 77
圖4.17多筆傳送介面。 77
圖4.18 類神經網路輸出入介面。 78
圖5.1 機器寵物狗行為系統方塊圖。 80
圖5.2行為 的計算示意圖。 85
圖5.3 模糊效率系統。 87
圖5.4 模糊效率系統輸入歸屬函數。 87
圖5.5 模糊效率系統輸出歸屬函數。 88
圖5.6 不同狀態指數適合的動作分布圖。 88
圖5.7 活潑度act分布圖。 89
圖5.8 不同的活潑指數所造成的個性: 90
圖5.9 類神經網路架構。 91
圖5.10 類神經訓練輸出圖:(a)第一次訓練結果,(b)第五次訓練結果,(c)第五十次訓練結果與(d)第一百次訓練結果。 92
圖5.11 類神經訓練之誤差率。 93
圖5.12 寵物狗的不同動作。 94
圖5.13 飢餓狀態下寵物狗做出想吃飯的動作。 95
圖5.14 疲累狀態下寵物狗做出想休息的動作。 95
圖5.15 小程度好奇狀態下寵物狗做出想玩耍的動作。 95
圖5.16大程度好奇狀態下寵物狗做出不同想玩耍的動作。 96
圖5.17 寵物狗在不斷偵測到有人出現時好奇度不斷提高。 96
圖6.1 人形機器人系統功能圖。 101
圖6.2 人形機器人之實體圖與自由度示意圖:(a)實體圖與(b)示意圖 102
圖6.3 人形機器人Solidwork設計圖:(a)前視圖,(b)左視圖,(c) 後視圖與 (d) 鳥視圖。 103
圖6.4 人形機器人馬達架構圖:(a)頭部,(b)腰部,(c)手部與(d)腳部。 103
圖6.5 頭部機構設計圖:(a)頭部與身體連結設計與(b)頭部自由度。 104
圖6.6 腰部機構設計圖:(a)腰部馬達安裝與(b)腰部自由度。 105
圖6.7 手部機構設計圖:(a)肩膀,(b)手肘,(c)手腕與(d)手臂整體。 106
圖6.8 腳部機構設計圖:(a)腳部馬達安裝與(b)腳部自由度。 107
圖6.9 人形機器人電子電路方塊圖。 109
圖6.10 資料分析模組。 111
圖6.11 馬達控制器連結示意圖。 112
圖6.12 機器人CMOS感測器可視距離示意圖。 114
圖6.13 影像畫面處理前後比較圖:(a)影像畫面處理前與(b)影像畫面處理後。 115
圖6.14 人形機器人編輯介面。 117
圖6.15 特殊操作介面。 119
圖6.16 單筆資料傳送介面。 120
圖6.17 多筆資料傳送介面。 121
圖6.18 感測器回傳介面。 121
圖7.1 足球罰球場景示意圖。 123
圖7.2 有限狀態機制策略架構圖。 124
圖7.3 機器人的CMOS感測器搜尋場地上的球。 125
圖7.4 搜尋到球後下達移動指令接近球。 125
圖7.5到達球的前方後執行踢球指令。 125
圖7.6 有限狀態機策略主程式流程。 126
圖7.7 找球(尋球與移動尋球)策略流程。 127
圖7.8 追球策略流程。 128
圖7.9 射門策略流程。 129
圖7.10 目標物左右位置之關係對應圖。 130
圖7.11目標物距離遠近之關係對應圖。 131
圖7.12 射門功能成果展示。 132
圖7.13 機器人避障示意圖。 133
圖7.14 機器人紅外線感測範圍示意圖。 134
圖7.15 模糊避障架構系統方塊圖。 135
圖7.16 三角形歸屬函數示意圖。 138
圖7.17 歸屬函數 。 140
圖7.18 歸屬函數 。 140
圖7.19 機器人避障模擬示意圖。 144
圖7.20 機器人在訓練通過一個障礙物的歷程:(a)第一代模擬結果,(b)第二代模擬結果與(c)第三代模擬結果。 146
圖7.21 以兩個、三個與五個不同障礙物情況來測試經過20代訓練後的模糊系統。 146
圖7.22 實際機器人以提出的策略系統來通過五個障礙物的12張連續照片。 147
表目錄
表1.1 電腦與機器人發展對應表。 2
表2.1 兩輪雙視覺機器人機構規格表 11
表2.2 30A高功率直流馬達驅動器規格。 15
表2.3 兩輪雙視覺機器人馬達規格表。 17
表3.1 DH座標轉換參數表。 37
表3.2 依照特性曲線所得到之距離誤差表。 51
表4.1機器寵物狗之動作表。 61
表4.2 機器寵物狗規格表。 63
表4.3 機器寵物狗表情圖表。 64
表4.4 寵物狗馬達規格表。 70
表5.1 機器寵物狗心理需求狀態指數影響原因。 82
表5.2 寵物狗行為代價表。 86
表6.1 「機器人足球系統實驗室」所完成的四款人形機器人。 100
表6.2 人形機器人頭部自由度與人類對應關係。 104
表6.3 人形機器人腰部自由度與人類對應關係。 105
表6.4 人形機器人手部自由度與人類對應關係。 106
表6.5 人形機器人手部自由度與人類對應關係。 108
表7.1 機器人移動方式。 133
表7.2 模糊規則庫。 141
表7.3 手動與GA所選出的模糊系統變數 145
參考文獻 [1] B. Gates, “A robot in every home,” Scientific American Magazine, vol. 296, pp. 58-65, 2007.
[2] T. Fong, I. Nourbakhsh, and K. Dautenhahn, “A survey on socially interactive robots,” Intemational Joumal of Robotics and Autonomous Systems, vol. 42, pp. 143-166, 2003.
[3] C. Breazeal, “Toward sociable robots,” International Journal of Robotics and Autonomous Systems, vol. 42, pp. 167-175, 2003.
[4] R. C. Arb, M. Fujita, T. Takagi, and R Hasegawa, “An ethological and emotional basis for human-robot interaction,” Zntemational Joumal of Robotics and Autonomous Systems, vol. 42, pp. 191-201, 2003.
[5] B. J. You, M. Hwangbo, S. O. Lee, S. R. Oh, Y. D. Kwon, and S. Lim, “Development of a home service robot 'ISSAC',” IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, vol. 3, pp. 27-31, 2003.
[6] http://www.irobot.com/
[7] J. Denavit and R. S. Hartenberg, “A kinematic notation for lower-pairmechanisms based on matrices,” Transactions of ASME, Journal of Applied Mechanics, vol. 22, pp. 215-221, 1955.
[8] R. P. Paul, Robot Manipulators: Mathematics Programming and Control, MIT Press, 1981.
[9] S. Hiros, “A study of design and control of a quadruped walking vehicle,” International Journal of Robotics Research, vol. 3, 1984.
[10] B. M. Blumberg and T. A. Galyean, “Multi-Level Direction ofAutonomous Creatures for Real-Time Virtual Environments,” Proceedings of ACM SIGGRAPH, 1995.
[11] B. M. Blumberg, P. T. Todd, and P. Maes, “No bad dogs: Ethological lessons for learning in hamsterdam,” Proceedings of International Conference on Simulated Adaptive Behavior, pp. 295-304, 1996.
[12] N. Kubota, F. Kojima, and T. Fukuda, “Self-consciousness and emotion for a pet robot with structured intelligence,” Proceedings of IEEE IFSA World Congress, pp. 1786-2791, 2001.
[13] D. Terzopoulos, X. Tu, and R. Grzeszczuk, “Artificial Fishes: Autonomous locomotion, perception, behavior, and learning in a simulated physical world,” Journal of Artificial Life, vol. 1, no. 4, pp. 327-351, 1994.
[14] M. Buehler, R. Battaglia, A. Cocosco, G. Hawker, J. Sarkis, and K. Yamazaki, “SCOUT: A simple quadruped that walks, climbs, and runs,” IEEE Int. Conf. on Robotics and Automation, pp. 1707-1712, 1998.
[15] K. Berns, W. Ilg, M. Deck, J. Albiez, and R. Dillmann, “Mechanical construction and computer architecture of the four-legged walking machine BISAM,” IEEE/ASME Transaction on Mechatronics, pp. 32-38, 1999.
[16] R. C. Luo, C. C. Yih, and K. L. Su, “Multisensor fusion and integration: approaches, applications, and future research directions,” IEEE Sensors Journal, vol. 2, pp.107-119, 2002.
[17] S. Cordes, K. Berns, M. Eberl, W. Ilg, and P. Buhrle, “On the design of a four-legged walking machine,” IEEE Int. Conf. on Advanced Robotics, pp. 65-70.1997.
[18] http://www.world.sony.com/aibo/index.html
[19] Y. Seiji and Y. Tomohiro, “Training AIBO like a dog,” IEEE Int. Workshop on Robot and Human Interactive Communication, pp. 431-436, 2004.
[20] M. Soriano, B. Martinkauppi, S. Huovinen and M .Laaksonen, ” Skin color modeling under varying illumination conditions using the skin locus for selecting training pixels,” Proceedings Workshop on Real-Time Image Sequence Analysis, pp. 43-49, 2000.
[21] M. Soriano, B. Martinkauppi, S. Huovinen, and M. Laaksonen, “Skin detection in video under changing illumination conditions,” 15th Int. Conf. on Pattern Recognition, 2000.
[22] Y. Ogura, T. Kataoka, H. Aikawa, K. Shimomura, H. Lim, and A.Takanishi, “Evaluation of various walking patterns of biped humanoid robot,” IEEE Int. Conf. on Robotics and Automation, pp. 605-610, Apr. 2005.
[23] Y. Ogura, H. Aikawa, K. Shimomura, H. Kondo, A. Morishima, H.O. Lim, and A. Takanishi, “Development of a new humanoid robot WABIAN-2,” IEEE Int. Conf. on Robotics and Automation, pp. 835-840, Feb. 2006.
[24] K. Hirai, M. Hirose, Y. Haikawa, and T. Takenaka, “The development of Honda humanoid robot,” IEEE Int. Conf. on Robotics and Automation, vol. 2, pp. 1321-1326, May 1998.
[25] Y. Sakagami, R. Watanabe, C. Aoyama, S. Matsunaga, N. Higaki, and K. Fujimura, “The intelligent ASIMO: System overview and integration,” IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, vol. 3, pp. 2478-2483, Sep. 2002.
[26] K. Kaneko, F. Kanehiro, S. Kajita, K. Yokoyama, K. Akachi, T. Kawasaki, S. Ota, and T. Isozumi, “Design of prototype humanoid robotics platform for HRP,” IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, vol. 3, pp. 2431-2436, Sep. 2002.
[27] K. Fujiwara, F. Kanehiro, S. Kajita, K. Yokoi, H. Saito, K. Kaneko, K. Harada, and H. Hirukawa, “The first human-size humanoid that can fall over safely and stand-up again,” IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, vol. 2, pp. 1920-1926, 2003.
[28] K. Kaneko, F. Kanehiro, S. Kajita, H. Hirukawa, T. Kawasaki, M. Hirata, K. Akachi, and T. Isozumi, “Humanoid robot HRP-2,” IEEE Int. Conf. on Robotics and Automation, vol. 2, pp. 1083-1090, Apr. 2004.
[29] S. Lohmeier, K. Loffler, M. Gienger, H. Ulbrich, and F. Pfeiffer, “Computer system and control of biped “Johnnie”,” IEEE Int. Conf. on Robotics and Automation, vol. 4, pp. 4222-4227, Apr. 2004.
[30] Y. Kuroki, M. Fujita, T. Ishida, K. Nagasaka, and J. Yamaguchi, “A small biped entertainment robot exploring attractive applications,” IEEE Int. Conf. on Robotics and Automation, vol. 1, pp. 471-476, Sep. 2003.
[31] K. Nishiwaki, T. Sugihara, S. Kagami, F. Kanehiro, M. Inaba, and H. Inoue, “Design and development of research platform for perception-action integration in humanoid robot: H6,” IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, vol. 3, pp. 1559-1564, Oct. 2000.
[32] K. Nishiwaki, S. Kagami, Y. Kuniyoshi, M. Inaba, and H. Inoue, “Online generation of humanoid walking motion based on a fast generation method of motion pattern that follows desired ZMP,” IEEE/RSJ Int. Conf. on Intelligent Robots and Systems, vol. 3, pp. 2684-2689, Sep. 2002.
[33] Q. Huang, Z. Q. Peng, W. M. Zhang, L. G. Zhang, and K. J. Li, “Design of humanoid complicated dynamic motion based on human motion capture,” IEEE/RSJ Int. Conf. Intelligent Robots and Systems, pp. 3536-3541, Aug. 2005.
[34] I.W. Park, J.Y. Kim, and J.H. Oh, “Online biped walking pattern generation for humanoid robot KHR-3 (KAIST Humanoid Robot - 3: HUBO),” IEEE-RAS Int. Conf. on Humanoid Robots, pp. 398-403, Dec. 2006.
[35] S. Behnke, M. Schreiber, J. Stückler, R. Renner, and H. Strasdat, “See, walk, and kick: Humanoid robots start to play soccer,” IEEE-RAS Int. Conf. on Humanoid Robots, pp. 497-503, Dec. 2006.
[36] http://www.robocup.org/
[37] http://www.fira.net/
[38] K. H. Huang, Vision-based Autonomous Humanoid Robot Design, Master thesis, Department of Electrical Engineering, Tamkang University, 2006.
[39] Y. T. Yang, Design and Implementation of Obstacle Avoidance and Vision-based Shoot Ball for Autonomous Humanoid Robot, Master thesis, Department of Electrical Engineering, Tamkang University, 2007.

[40] L. Davis, Handbook of Genetic Algorithms, Van Nostrand Reinhold, 1991.
[41] D.E. Goldberg, Genetic Algorithms in Search, Optimization, and Machine Learning, Addison-Wesley, Reading, 1989.
論文使用權限
  • 同意紙本無償授權給館內讀者為學術之目的重製使用,於2013-06-30公開。
  • 同意授權瀏覽/列印電子全文服務,於2013-06-30起公開。


  • 若您有任何疑問,請與我們聯絡!
    圖書館: 請來電 (02)2621-5656 轉 2281 或 來信