系統識別號 | U0002-0803201109362700 |
---|---|
DOI | 10.6846/TKU.2011.00242 |
論文名稱(中文) | 模糊行為決策於視覺自主人形機器人之設計 |
論文名稱(英文) | Fuzzy-Based Behavior Decision Design on a Vision-Based Autonomous Humanoid Robot |
第三語言論文名稱 | |
校院名稱 | 淡江大學 |
系所名稱(中文) | 電機工程學系博士班 |
系所名稱(英文) | Department of Electrical and Computer Engineering |
外國學位學校名稱 | |
外國學位學院名稱 | |
外國學位研究所名稱 | |
學年度 | 99 |
學期 | 1 |
出版年 | 100 |
研究生(中文) | 黃楷翔 |
研究生(英文) | Kai-Hsiang Huang |
學號 | 895440096 |
學位類別 | 博士 |
語言別 | 繁體中文 |
第二語言別 | |
口試日期 | 2011-01-13 |
論文頁數 | 180頁 |
口試委員 |
指導教授
-
翁慶昌(iclabee@gmail.com)
共同指導教授 - 黃志良(clhwang@mail.tku.edu.tw) 委員 - 王偉彥 委員 - 龔宗鈞 委員 - 許陳鑑 委員 - 王銀添 委員 - 李世安 委員 - 黃志良 |
關鍵字(中) |
人形機器人 自主移動機器人 視覺機器人 模糊系統 |
關鍵字(英) |
Humanoid robot Autonomous mobile robot Vision-based robot Fuzzy system |
第三語言關鍵字 | |
學科別分類 | |
中文摘要 |
本論文應用模糊概念提出一些行為決策,讓視覺自主人形機器人可以完成「FIRA世界盃機器人足球賽:人形機器人組(HuroCup)」之障礙賽跑(Obstacle Run)、罰球(Penalty Kick)、馬拉松(Marathon)與籃球(Basketball)等四項競賽任務。在障礙賽跑競賽中,本論文提出一個模糊行為決策,是以十五條影像掃描線來擷取機器人週遭環境的障礙物資訊,並以機器人與障礙物的相對距離以及機器人與目的方向的相對角度為模糊系統的輸入變數,此模糊系統所架構的行為決策是在每一次的決策中從六個基本移動動作中決定出最合適的行為動作,讓人形機器人可以在不碰觸到任何障礙物的情況下順利穿越障礙物環境。在罰球競賽中,本論文提出以兩個模糊系統用相同的輸入變數各別獲得移動向量的角度與長度,再將其合成一個最合適的行為動作,並以此架構應用於有限狀態機制行為決策系統中追球狀態的逼近球與射門狀態的瞄準球。此外,在射門之前,本論文亦提出另一個模糊系統來調整機器人射門路線的轉向行為,以提高進球率。在馬拉松競賽中,本論文提出一個循線軌跡追蹤的模糊行為決策,透過依據影像畫面中目標線段的結束點位置分成三種狀況以規劃模糊系統,決定出一個最合適的行為動作。在籃球競賽中,機器人所用的模糊行為決策的設計方式如同罰球競賽所用的行為決策。此外,本論文利用倒傳遞類神經網路訓練逆向運動學來推算機器人拿球時所需伺服機的角度,再利用正向運動學進行驗證。從模擬結果與實驗結果的驗證可知,本論文所提出之模糊行為決策確實可以讓視覺自主人形機器人有效的完成障礙賽跑、罰球、馬拉松與籃球等四項競賽任務。 |
英文摘要 |
In this dissertation, some behavior decisions based on the fuzzy concept are proposed for a vision-based autonomous humanoid robot so that it can accomplish four competition events of Obstacle Run, Penalty Kick, Marathon, and Basketball in HuroCup of FIRA (Federation of International Robot-soccer Association). In the event of Obstacle Run, a fuzzy behavior decision is proposed by using fifteen vision scanning lines to retrieve the information of obstacles around the robot. The relative distance between the robot and the obstacle and the relative angle between the robot and the direction of the destination are considered as the inputs of the fuzzy system. One of six basic motions with a highest value is selected to be the next motion in every decision so that the humanoid robot can avoid obstacles successfully and arrive at the terminal area effectively. In the event of Penalty Kick, the same inputs in two fuzzy systems are considered to obtain the angle and the length of the moving vector separately, then they are combined to be the next behavior motion. The structure is implemented on two states of the finite state transition mechanism containing the behavior of approaching ball in the tracing ball state and the behavior of aiming ball in the shooting ball state. Moreover, another fuzzy system used on the turning behavior of adjusting shooting path before shooting ball is also proposed to increase the probability of goal. In the event of Marathon, a fuzzy behavior decision of trajectory tracing by following a visible line is proposed. Three situations are proposed to design fuzzy systems according the terminal point of the visible line in the image frame so that an appropriate behavior motion is decided. In the event of Basketball, the design method of the behavior decision on the Basketball event is similar to that on the Penalty Kick event. Moreover, backpropagation neural network is used to train inverse kinematics to obtain the angle of motors to let the robot can pick up a ping-pong ball and the direct kinematics is used to check it. From the simulations and experiment results, we can see that the proposed fuzzy-based behavior decisions can let the vision-based autonomous humanoid robot effectively accomplish these four events of Obstacle Run, Penalty Kick, Marathon, and Basketball. |
第三語言摘要 | |
論文目次 |
目錄 目錄 I 圖目錄 IV 表目錄 XII 第一章 緒論 1 1.1 研究背景 1 1.2 研究目的 6 1.3 論文架構 9 第二章 人形機器人系統架構設計 10 2.1 機構設計 10 2.2 電子系統設計 15 2.3 影像系統設計 19 2.4 步態設計 20 第三章 基於模糊理論之避障行為決策設計 22 3.1 避障環境介紹 22 3.2 障礙物距離偵測 23 3.3 避障行為模糊決策系統 27 3.4 避障模擬與實驗結果 35 第四章 基於模糊理論之罰球行為決策設計 41 4.1 罰球環境介紹 41 4.2 有限狀態機行為決策系統架構 42 4.3 追球行為模糊決策設計 48 4.4 射門行為模糊決策設計 59 4.5 罰球模擬與實驗結果 76 第五章 基於模糊理論之馬拉松行為決策設計 88 5.1 馬拉松環境介紹 88 5.2 基本馬拉松行為決策系統 89 5.3 馬拉松行為模糊決策系統 92 5.4 馬拉松模擬與實驗結果 106 第六章 基於模糊理論之籃球行為決策設計 111 6.1 籃球環境介紹 111 6.2 籃球行為模糊決策系統 112 6.3 正向運動學 150 6.4 逆向運動學 155 6.5 籃球模擬與實驗結果 160 第七章 結論與未來展望 170 參考文獻 172 研究著作 177 獲獎經歷 180 圖目錄 圖2.1人形機器人自由度配置規劃與實體圖 11 圖2.2人形機器人Solidwork機構設計圖 11 圖2.3機器人頭部機構設計圖 12 圖2.4機器人腰部機構設計圖 13 圖2.5機器人手部機構設計圖 13 圖2.6機器人腿部機構設計圖 14 圖2.7機器人軀幹部機構設計圖 15 圖2.8本論文所應用之人形機器人系統架構方塊圖 16 圖2.9 TKU-Board之實體圖 18 圖2.10 NIOS II發展板之實體圖 18 圖2.11影像擷取、影像建模與影像處理後之影像顯示介面中目標物之影像 19 圖2.12原地踏步的分解動作 20 圖3.1人形機器人障礙賽跑競賽場地示意圖 22 圖3.2單一方向之單張影像畫面中所分割出五個長條狀區域示意圖 23 圖3.3機器人與障礙物之間不同距離的實際情況與影像畫面 24 圖3.4只依靠頭部二維搜尋機制於偵測左方75°之實際情況與影像畫面 26 圖3.5混合頭部二維搜尋機制與腰部馬達於偵測左方75°之實際情況與影像畫面 26 圖3.6人形機器人三個不同偵測方向之實際動作 26 圖3.7十五條影像掃描線示意圖 27 圖3.8避障行為模糊決策系統架構圖 28 圖3.9人形機器人於避障行為模糊決策系統之六種基本移動動作 28 圖3.10機器人身體方向與目的地方向之相對角度 31 圖3.11避障行為模糊決策系統中模糊系統的歸屬函數 34 圖3.12避障場地的模擬環境 35 圖3.13使用紅外線感測器偵測與使用影像掃描線偵測之情況 36 圖3.14本論文所提出之使用十五條影像掃描線測距的避障行為模糊決策系統的模擬結果 37 圖3.15使用四顆紅外線感測器測距的避障行為模糊決策系統的模擬結果 38 圖3.16本論文所提出的避障行為模糊決策系統應用於人形機器人之實際避障結果 40 圖4.1人形機器人罰球競賽場地示意圖 42 圖4.2有限狀態機行為決策系統於罰球之行為策略主程式流程 43 圖4.3找球策略流程 45 圖4.4追球策略流程 46 圖4.5射門策略流程 47 圖4.6追球行為模糊決策架構圖 49 圖4.7機器人移動向量的角度之模糊行為決策的歸屬函數 53 圖4.8機器人移動向量的長度之模糊行為決策的歸屬函數 56 圖4.9加入追球行為模糊決策的追球狀態行為決策流程 57 圖4.10射門行為模糊決策之轉向行為中的模糊系統架構 60 圖4.11射門行為模糊決策之轉向行為中模糊系統的歸屬函數 64 圖4.12加入射門行為模糊決策之轉向行為的射門狀態行為決策流程 65 圖4.13射門行為模糊決策之起腳位置微調修正中的模糊系統架構 66 圖4.14機器人移動向量的角度之模糊行為決策的歸屬函數 70 圖4.15機器人移動向量的長度之模糊行為決策的歸屬函數 73 圖4.16最終射門狀態行為決策流程 74 圖4.17罰球模擬的13個放球位置 77 圖4.18球於三角形放球區之中頂點的罰球模擬結果(情況1) 78 圖4.19球於三角形放球區之中頂點左前方的罰球模擬結果(情況2) 78 圖4.20球於三角形放球區之中頂點右前方的罰球模擬結果(情況3) 78 圖4.21球於三角形放球區之左斜邊的罰球模擬結果(情況4) 78 圖4.22球於三角形放球區之左斜邊右方的罰球模擬結果(情況5) 79 圖4.23球於三角形放球區之中線中央的罰球模擬結果(情況6) 79 圖4.24球於三角形放球區之右斜邊左方的罰球模擬結果(情況7) 79 圖4.25球於三角形放球區之右斜邊的罰球模擬結果(情況8) 79 圖4.26球於三角形放球區之底邊左頂點的罰球模擬結果(情況9) 80 圖4.27球於三角形放球區之底邊左中央的罰球模擬結果(情況10) 80 圖4.28球於三角形放球區之底邊正中央的罰球模擬結果(情況11) 80 圖4.29球於三角形放球區之底邊右中央的罰球模擬結果(情況12) 80 圖4.30球於三角形放球區之底邊右頂點的罰球模擬結果(情況13) 81 圖4.31球於三角形放球區之中頂點的罰球實驗結果(情況1) 81 圖4.32球於三角形放球區之中頂點左前方的罰球實驗結果(情況2) 82 圖4.33球於三角形放球區之中頂點右前方的罰球實驗結果(情況3) 82 圖4.34球於三角形放球區之左斜邊的罰球實驗結果(情況4) 83 圖4.35球於三角形放球區之左斜邊右方的罰球實驗結果(情況5) 83 圖4.36球於三角形放球區之中線中央的罰球實驗結果(情況6) 84 圖4.37球於三角形放球區之右斜邊左方的罰球實驗結果(情況7) 84 圖4.38球於三角形放球區之右斜邊的罰球實驗結果(情況8) 85 圖4.39球於三角形放球區之底邊左頂點的罰球實驗結果(情況9) 85 圖4.40球於三角形放球區之底邊左中央的罰球實驗結果(情況10) 86 圖4.41球於三角形放球區之底邊正中央的罰球實驗結果(情況11) 86 圖4.42球於三角形放球區之底邊右中央的罰球實驗結果(情況12) 87 圖4.43球於三角形放球區之底邊右頂點的罰球實驗結果(情況13) 87 圖5.1人形機器人馬拉松競賽場地示意圖 88 圖5.2標示點於白色方框相對座標示意圖 90 圖5.3整張影像座標與九宮格分割示意圖 90 圖5.4基本馬拉松行為決策系統之動作查表循線軌跡追蹤策略流程圖 91 圖5.5馬拉松行為模糊決策之三種狀況示意圖 93 圖5.6馬拉松行為模糊決策架構圖 93 圖5.7馬拉松行為模糊決策之狀況一模糊行為決策的歸屬函數 97 圖5.8人形機器人於馬拉松行為模糊決策系統中狀況一之四種移動動作 98 圖5.9馬拉松行為模糊決策之狀況二模糊行為決策的歸屬函數 101 圖5.10人形機器人於馬拉松行為模糊決策系統中狀況二之五種移動動作 102 圖5.11馬拉松行為模糊決策之狀況三模糊行為決策的歸屬函數 105 圖5.12人形機器人於馬拉松行為模糊決策系統中狀況三之四種移動動作 106 圖5.13右斜直線馬拉松模擬結果 107 圖5.14左斜直線馬拉松模擬結果 107 圖5.15右曲線馬拉松模擬結果 108 圖5.16左曲線馬拉松模擬結果 109 圖5.17右曲線馬拉松實驗結果 110 圖6.1人形機器人籃球競賽場地示意圖 112 圖6.2有限狀態機行為決策系統於罰球之行為策略主程式流程 113 圖6.3籃球行為決策之追球行為模糊決策架構圖 115 圖6.4機器人移動向量的角度之模糊行為決策的歸屬函數 118 圖6.5機器人移動向量的長度之模糊行為決策的歸屬函數 121 圖6.6籃球行為決策之拿球行為模糊決策架構圖 123 圖6.7機器人移動向量的角度之模糊行為決策的歸屬函數 127 圖6.8機器人移動向量的長度之模糊行為決策的歸屬函數 130 圖6.9籃球行為決策之追籃行為模糊決策架構圖 132 圖6.10機器人移動向量的角度之模糊行為決策的歸屬函數 136 圖6.11機器人移動向量的長度之模糊行為決策的歸屬函數 139 圖6.12籃球行為決策之投籃行為模糊決策架構圖 141 圖6.13機器人移動向量的角度之模糊行為決策的歸屬函數 145 圖6.14機器人移動向量的長度之模糊行為決策的歸屬函數 148 圖6.15連桿與參數的關係圖 152 圖6.16人形機器人桿件名稱與關節角度定義示意圖 153 圖6.17人形機器人桿件名稱與桿件座標系定義示意圖 154 圖6.18學習率誤差收斂曲線 157 圖6.19隨機產生50個球的位置之倒傳遞類神經網路的訓練結果 157 圖6.20球柱高度為20cm但遠近程度不同的5組球的位置之倒傳遞類神經網路訓練逆向運動學的結果 158 圖6.21籃球模擬的8個放球位置 160 圖6.22球於弧形放球區之正中央頂點的籃球模擬結果(情況1) 161 圖6.23球於弧形放球區之左弧線中間的籃球模擬結果(情況2) 162 圖6.24球於弧形放球區之左弧線右方的籃球模擬結果(情況3) 162 圖6.25球於弧形放球區之右弧線左方的籃球模擬結果(情況4) 163 圖6.26球於弧形放球區之右弧線中間的籃球模擬結果(情況5) 163 圖6.27球於弧形放球區之左弧線底端的籃球模擬結果(情況6) 164 圖6.28球於弧形放球區之正中央底端的籃球模擬結果(情況7) 164 圖6.29球於弧形放球區之右弧線底端的籃球模擬結果(情況8) 165 圖6.30球於弧形放球區之正中央頂點的籃球實驗結果(情況1) 166 圖6.31球於弧形放球區之左弧線中間的籃球實驗結果(情況2) 166 圖6.32球於弧形放球區之左弧線右方的籃球實驗結果(情況3) 167 圖6.33球於弧形放球區之右弧線左方的籃球實驗結果(情況4) 167 圖6.34球於弧形放球區之右弧線中間的籃球實驗結果(情況5) 168 圖6.35球於弧形放球區之左弧線底端的籃球實驗結果(情況6) 168 圖6.36球於弧形放球區之正中央底端的籃球實驗結果(情況7) 169 圖6.37球於弧形放球區之右弧線底端的籃球實驗結果(情況8) 169 表目錄 表1.1「智慧型控制實驗室」所完成之八款人形機器人(1/4) 4 表1.2「智慧型控制實驗室」所完成之八款人形機器人(2/4) 5 表1.3「智慧型控制實驗室」所完成之八款人形機器人(3/4) 5 表1.4「智慧型控制實驗室」所完成之八款人形機器人(4/4) 6 表3.1避障行為模糊決策系統中模糊系統的規則庫 33 表3.2使用四顆紅外線感測器與使用十五條影像掃描線之避障行為模糊決策系統的動作執行次數比較 38 表4.1機器人移動向量的角度之模糊行為決策的規則庫 51 表4.2機器人移動向量的長度之模糊行為決策的規則庫 55 表4.3人形機器人於追球行為模糊決策系統之二十一種基本移動動作 58 表4.4射門行為模糊決策之轉向行為中模糊系統的規則庫 62 表4.5機器人移動向量的角度之模糊行為決策的規則庫 69 表4.6機器人移動向量的長度之模糊行為決策的規則庫 72 表4.7人形機器人於射門行為模糊決策系統之二十一種基本移動動作 75 表5.1視線範圍內目標線段標示之名稱與定義 89 表5.2馬拉松行為模糊決策之狀況一模糊行為決策的規則庫 95 表5.3馬拉松行為模糊決策之狀況二模糊行為決策的規則庫 100 表5.4馬拉松行為模糊決策之狀況三模糊行為決策的規則庫 103 表6.1機器人移動向量的角度之模糊行為決策的規則庫 117 表6.2機器人移動向量的長度之模糊行為決策的規則庫 120 表6.3人形機器人於追球行為模糊決策系統之二十一種基本移動動作 122 表6.4機器人移動向量的角度之模糊行為決策的規則庫 125 表6.5機器人移動向量的長度之模糊行為決策的規則庫 129 表6.6人形機器人於拿球行為模糊決策系統之二十一種基本移動動作 131 表6.7機器人移動向量的角度之模糊行為決策的規則庫 134 表6.8機器人移動向量的長度之模糊行為決策的規則庫 138 表6.9人形機器人於追籃行為模糊決策系統之二十一種基本移動動作 140 表6.10機器人移動向量的角度之模糊行為決策的規則庫 143 表6.11機器人移動向量的長度之模糊行為決策的規則庫 147 表6.12人形機器人於投籃行為模糊決策系統之二十一種基本移動動作 149 表6.13機器人於彎腰拿球動作時的DH參數表 154 表6.14供倒傳遞類神經網路學習之50組隨機位置 156 表6.15倒傳遞類神經網路訓練後之5組驗證位置的結果 158 表6.16倒傳遞類神經網路訓練後之20組供機器人查表位置 159 |
參考文獻 |
[1] L.A. Zadeh, “Fuzzy sets,” Information and Control, vol. 8, pp. 338-353, 1965. [2] L.A. Zadeh, “A rationale for fuzzy control,” Transactions of the ASME Journal Dynamic Systems Measurement, and Control, vol. 94, pp. 3-4, 1972. [3] L.A. Zadeh, “Outline of a new approach to the analysis complex systems and decision processes,” IEEE Transactions Systems, Man, and Cybernet, vol. 3, pp. 28-44, 1973. [4] E.H. Mamdani, “Applications of fuzzy algorithms for simple dynamic plant,” Proceedings of the IEE, vol. 121, no. 12, pp. 1585-1588, 1974. [5] J. Yen, “Fuzzy logic - A modern perspective,” IEEE Transactions on Knowledge and Data Engineering, vol. 11, no. 1, pp. 153-165, 1999. [6] C.H. Chao, B.Y. Hsueh, M.Y. Hsiao, S.H. Tsai, and T.H.S. Li, “Fuzzy target tracking and obstacle avoidance of mobile robots with a stereo vision system,” International Journal of Fuzzy Systems, vol.11, no.3, pp.183-191, 2009. [7] B.C. Min, M.S. Lee, and D. Kim, “Fuzzy logic path planner and motion controller by evolutionary programming for mobile robots,” International Journal of Fuzzy Systems, vol.11, no.3, pp.154-163, 2009. [8] S. Park, Y. Han, and H. Hahn, “Fuzzy controller based biped robot balance control using 3D Image,” International Journal of Fuzzy Systems, vol.11, no.3, pp.202-212, 2009. [9] C.T. Cheng, H.C. Chen, Y.Y. Hu, and C.C. Wong, “Fuzzy balancing control of a small-size humanoid robot based on accelerometer,” International Journal of Fuzzy Systems, vol.11, no.3, pp.146-153, 2009. [10] C.C. Wong, C.T. Cheng, K.H. Huang, and Y.T. Yang, “Fuzzy control of humanoid robot for obstacle avoidance,” International Journal of Fuzzy Systems vol.10, no.1, pp.261-270, 2008. [11] P.J. Lee, C.H. Yen, C.L. Chan, M.S. Lee, and R.C. Wang, “Implementation of a fuzzy control based intelligent robot fish,” International Journal of Fuzzy Systems, vol.11, no.4, pp.287-297, 2009. [12] K. Koganezawa, A. Takanishi, and S. Sugano, Development of Waseda Robot: The Study of Biomechanisms and Kato Laboratory (3rd Edition). Waseda University, 1991. [13] K. Kaneko, F. Kanehiro, S. Kajita, K. Yokoyama, K. Akachi, T. Kawasaki, S. Ota, and T. Isozumi, “Design of prototype humanoid robotics platform for HRP,” IEEE/RSJ International Conference on Intelligent Robots and Systems, vol. 3, pp. 2431-2436, 2002. [14] K. Fujiwara, F. Kanehiro, S. Kajita, K. Yokoi, H. Saito, K. Kaneko, K. Harada, and H. Hirukawa, “The first human-size humanoid that can fall over safely and stand-up again,” IEEE/RSJ International Conference. on Intelligent Robots and Systems, vol. 2, pp. 1920-1926, 2003. [15] K. Kaneko, F. Kanehiro, S. Kajita, H. Hirukawa, T. Kawasaki, M. Hirata, K. Akachi, and T. Isozumi, “Humanoid robot HRP-2,” IEEE International Conference on Robotics and Automation, vol. 2, pp. 1083-1090, Apr. 2004. [16] K. Kenji, H. Kensuke, K. Fumio, M. Go, and A. Kazuhiko, “Humanoid Robot HRP-3,” 2008 IEEE/RSJ International Conference on Intelligent Robots and Systems, pp. 2471-2478, 2008. [17] K. Hirai, M. Hirose, Y. Haikawa, and T. Takenaka, “The development of Honda humanoid robot,” IEEE International Conference on Robotics and Automation, vol. 2, pp. 1321-1326, 1998. [18] Y. Sakagami, R. Watanabe, C. Aoyama, S. Matsunaga, N. Higaki, and K. Fujimura, “The intelligent ASIMO: System overview and integration,” IEEE/RSJ International Conference on Intelligent Robots and Systems, vol. 3, pp. 2478-2483, Sep. 2002. [19] Victor Ng-Thow-Hing, J. Lim, J. Wormer, R. K. Sarvadevabhatla, C. Rocha, K. Fujimura, and Y. Sakagami, “The memory game: Creating a human-robot interactive scenario for ASIMO,” 2008 IEEE/RSJ International Conference on Intelligent Robots and Systems, pp. 779-786, 2008. [20] Sandra Y. Okita and Victor Ng-Thow-Hing, “Learning Together: ASIMO developing an interactive learning partnership with children,” The 18th IEEE International Symposium on Robot and Human Interactive Communication, pp. 1125-1130, 2009. [21] Y. Kuroki, M. Fujita, T. Ishida, K. Nagasaka, and J. Yamaguchi, “A small biped entertainment robot exploring attractive applications,” IEEE International Conference on Robotics and Automation, vol. 1, pp. 471-476, 2003. [22] Website http://www.robocup.org/ [23] Website http://www.fira.net/ [24] K. H. Huang, Vision-based Autonomous Humanoid Robot Design, Master thesis, Department of Electrical Engineering, Tamkang University, 2006. (In Chinese) [25] Y. T. Yang, Design and Implementation of Obstacle Avoidance and Vision-based Shoot Ball for Autonomous Humanoid Robot, Master thesis, Department of Electrical Engineering, Tamkang University, 2007. (In Chinese) [26] C. T. Cheng, Design and Implementation of Intelligent Entertainment Robots, Doctor dissertation, Department of Electrical Engineering, Tamkang University, 2008. (In Chinese) [27] H. M. Chan, Mechanism Design of Humanoid Robots and Their Applications, Master thesis, Department of Electrical Engineering, Tamkang University, 2008. (In Chinese) [28] Y. Y. Hu, Design and Implementation of Humanoid Robot for Skating Motion, Master thesis, Department of Electrical Engineering, Tamkang University, 2008. (In Chinese) [29] H. C. Chen, Design and Implementation of SOPC-Based Omnidirectional Walking System for Humanoid Robot, Master thesis, Department of Electrical Engineering, Tamkang University, 2010. (In Chinese) [30] C. H. Hung, Design and Implementation of Vision System with Feature Recognition for Humanoid Robot, Master thesis, Department of Electrical Engineering, Tamkang University, 2010. (In Chinese) [31] Y. Guan, E. S. Neo, K. Yokoi, and K. Tanie, “Stepping Over Obstacles With Humanoid Robots,” IEEE Transactions on Robotics, vol.22, no.5, pp.958-973, 2006. [32] O. Stasse, B. Verrelst, B. Vanderborght, and K. Yokoi, “Strategies for humanoid robots to dynamically walk over large obstacles,” IEEE Transactions on Robotics, vol.25, no.4, pp.960-967, 2009. [33] Y. Guan, K. Yokoi, and K. Tanie, “Can humanoid robots overcome given obstacles,” Proceedings of the 2005 IEEE International Conference on Robotics and Automation, pp.1054-1059, 2005. [34] D. Tsetserukou, N. Kawakami, and S. Tachi, “Obstacle avoidance control of humanoid robot arm through tactile interaction,” 2008 8th IEEE-RAS International Conference on Humanoid Robots, pp.379-384, 2008. [35] G. Digioia, H. Arisumi, and K. Yokoi, “Trajectory planner for a humanoid robot passing through a door,”2009 9th IEEE-RAS International Conference on Humanoid Robots, pp.134-141, 2009. [36] H. Sanada, E. Yoshida, and K. Yokoi, “Passing under obstacles with humanoid robots,” 2007 IEEE/RSJ International Conference on Intelligent Robots and Systems, pp.4028-4034, 2007. [37] J.K. Yoo ,Y.D. Kim, B.J. Lee, I.W. Park, N. S. Kuppuswamy and J.H. Kim, “Hybrid architecture for kick motion of small-sized humanoid robot, HanSaRam-VI,” SICE-ICASE International Joint Conference 2006, pp.1174-1179, 2006. [38] J. Stückler and S. Behnke, “Soccer behaviors for humanoid robots,” 2006 IEEE-RAS International Conference on Humanoid Robots, pp.62-70, 2006. [39] Y.T. Su, T.H.S. Li, C.L. Hsu, M.F. Lu, C.Y. Hu, and S.H. Liu, “Omni-directional vision-based control strategy for humanoid soccer robot,” The 33rd Annual Conference of the IEEE Industrial Electronics Society, pp.2950-2955, 2007. [40] S. Behnke, M. Schreiber, J. Stückler, R. Renner, and H. Strasdat, “See, walk, and kick: Humanoid robots start to play soccer,” 2006 IEEE-RAS International Conference on Humanoid Robots, pp.497-503, 2006. [41] N. Greggio, G. Silvestri, S. Antonello, E. Menegatti, and E. Pagello, “A 3D model of a humanoid for USARSim simulator,” 2006 IEEE-RAS International Conference on Humanoid Robots, pp.17-24, 2006. [42] M. Friedmann, J. Kiener, S. Petters, D. Thomas, O. von Stryk, and H. Sakamoto, “Versatile, high-quality motions and behavior control of humanoid soccer robots,” 2006 IEEE-RAS International Conference on Humanoid Robots, pp.9-16, 2006. [43] N. Greggio, G. Silvestri, E. Menegatti, and E. Pagello, “A realistic simulation of a humanoid robot in USARSim,” Proceeding of the 4th International Symposium on Mechatronics and its Applications, pp.1-6, 2007. [44] J.K. Yoo,Y.D. Kim, B.J. Lee, I.W. Park, and J.H. Kim, “Humanoid robot system, HanSaRam-VII for RoboMarathon in HuroCup,” The 17th World Congress on the International Federation of Automatic Control, pp.3042-3047, 2008. [45] S.M. Lin, and C.C. Wong, “Design and realization of a hardware platform based on the Pineview processor,” 2010 National Symposium on System Science and Engineering, 2010. (In Chinese) |
論文全文使用權限 |
如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信