§ 瀏覽學位論文書目資料
  
系統識別號 U0002-3007200721551100
DOI 10.6846/TKU.2007.01017
論文名稱(中文) 自主人形機器人的避障與視覺為基射門之設計與實現
論文名稱(英文) Design and Implementation of Obstacle Avoidance and Vision-based Shoot Ball for Autonomous Humanoid Robot
第三語言論文名稱
校院名稱 淡江大學
系所名稱(中文) 電機工程學系碩士班
系所名稱(英文) Department of Electrical and Computer Engineering
外國學位學校名稱
外國學位學院名稱
外國學位研究所名稱
學年度 95
學期 2
出版年 96
研究生(中文) 楊玉婷
研究生(英文) Yu-Ting Yang
學號 694380030
學位類別 碩士
語言別 繁體中文
第二語言別
口試日期 2007-07-20
論文頁數 70頁
口試委員 指導教授 - 翁慶昌(wong@ee.tku.edu.tw)
委員 - 龔宗鈞
委員 - 李祖聖
委員 - 王銀添
委員 - 楊智旭
委員 - 翁慶昌(wong@ee.tku.edu.tw)
關鍵字(中) 人形機器人
避障
視覺自主
關鍵字(英) humanoid robot
obstacle avoidance
vision-based
第三語言關鍵字
學科別分類
中文摘要
本論文提出一個以六個紅外線感測器為基的避障方法與一個以視覺為基的射門方法,並且將其實現在人形機器人上。本論文首先對所設計與實現的小型人形機器人做一個整體的描述,機器人的高度與重量分別為43公分及3.4公斤。26個自由度的機構設計讓機器人可以完成前進、左右轉、左右平移、尋球與射門的動作,自由度的規劃分別在腳部有14個自由度、在腰部有2個自由度、在手部有8個自由度以及在頭部有2個自由度。本論文使用CMOS感測器、紅外線感測器與電子指南針來讓機器人可以獲得環境資訊。本論文以Nios II發展板做機器人的運動控制器,而十六位元數位訊號處理器μ'nsp負責處理CMOS感測器所擷取的物體影像資訊以及決定機器人的動作行為。本論文以Borland C++ Builder程式架構一個人機介面來讓使用者可以容易的設計與規劃機器人的動作。在避障的設計與實現上,本論文依據電子指南針與紅外線感測器分別獲得機器人與目的地的方向資訊以及機器人與障礙物的距離資訊,提出一個可以在五種動作(左平移、左轉、前進、右轉、右平移)當中決定一種最適合的動作來閃避障礙物的方法。從連續圖示所展現的實驗結果中,可以看出所提的避障方法確實可以讓機器人能夠自主閃避障礙物,並且有效的往目的地方向移動。此外,在射門的設計與實現上,本論文依據機器人頭上之CMOS感測器所擷取的影像資訊,提出一個視覺為基射門的方法。由實際測試中,可以看出所提的方法確實可以讓機器人能夠自主的尋球及決定移動路徑,並且移動至一個適當位置踢球。
英文摘要
In this thesis, an obstacle avoidance method based on six infrared (IR) sensors and a vision-based shoot ball method are proposed and implemented on a humanoid robot. First, a design and implementation method of a small-size humanoid robot with 26 DOFs (degrees of freedom) is described. The height and weight of the implemented robot is 43 cm and 3.4 kg, respectively. A mechanical structure is design so that the implemented humanoid robot can walk forward, turn right and left, slip right and left, find the ball, and kick the ball. There are 2 DOFs on the head, 2 DOFs on the trunk, 4 DOFs on each arm, and 7 DOFs on each leg. A CMOS sensor, six infrared sensors, and a digital compass are integrated so that the robot can obtain the environmental information. A Nios II development board is used to be the motion controller of the robot. A 16-bit DSP processor, μ’nsp, is used to process the image captured by a CMOS sensor to find some objects and decide an action behavior. A human-machine interface established by Borland C++ Builder is constructed to let the user can easily design and plan the behaviors of robot. One electronic compass and six infrared sensors are mounted on the robot to obtain the head direction of the robot and detect obstacles, respectively. Then, based on the obtained information from these sensors in each decision, an obstacle avoidance method is proposed to decide one behavior from five movements: walk forward, turn right and left, and slip right and left. One real experiment is presented to illustrate that the robot can autonomously avoid obstacles and go to the destination effectively. Furthermore, a vision-based shoot ball method is proposed based on the image information captured by the CMOS sensor installed in the head of the humanoid robot. From the practical test, we can see that the implemented robot can autonomously find the ball, determine a mobile path, and walk to the desired position to kick the ball. Some experimental results are presented to illustrate that the implemented humanoid robot can autonomously avoid obstacles and shoot ball.
第三語言摘要
論文目次
中文摘要	I
英文摘要	II
目錄	III
圖目錄	V
表目錄	VIII
第一章 緒論	1
1.1 研究背景	1
1.2 論文架構	4
第二章 人形機器人系統設計	5
2.1 人形機器人硬體設計	5
2.2 人形機器人控制核心設計	7
2.3 人形機器人人機介面設計	19
2.4 人形機器人影像設計	28
第三章 人形機器人避障功能設計	32
3.1 環境介紹	32
3.2 避障策略設計	34
3.3 避障功能成果	48
第四章 人形機器人視覺自主射門功能設計	50
4.1 環境介紹	50
4.2 自主射門策略設計	52
4.3 自主射門功能成果	65
第五章 結論與未來展望	66
5.1 結論	66
5.2 未來展望	67
參考文獻	69

圖目錄
圖2.1.1、 機器人機構圖	6
圖2.2.1、 系統架構圖	8
圖2.2.2、 資料分析模組	10
圖2.2.3、 全部清除之時序圖	12
圖2.2.4、 部分清除之時序圖	12
圖2.2.5、 寫入之時序圖	13
圖2.2.6、 讀取之時序圖	13
圖2.2.7、 動作執行模組連結示意圖	14
圖2.2.8、 動作執行模組讀取Flash資料的過程示意圖	14
圖2.2.9、 馬達控制器連結示意圖	15
圖2.2.10、μ’nsp與Nios II的傳輸架構設計	16
圖2.2.11、μ’nsp與Nios II傳輸流程圖	18
圖2.3.1、 編輯介面	20
圖2.3.2、 特殊操作介面	21
圖2.3.3、 單筆傳送介面	26
圖2.3.4、 多筆傳送介面	26
圖2.3.5、 感測器回傳介面	27

圖2.4.1、 機器人CMOS感測器可視距離示意圖	29
圖2.4.2、 影像畫面處理前後比較圖	29
圖2.4.3、 影像顏色資訊分部位置示意圖	31
圖3.1.1、 避障環境示意圖	33
圖3.2.1、 紅外線距離感測器之外觀	35
圖3.2.2、 紅外線感測有效測距範圍示意圖	36
圖3.2.3、 紅外線感測器之位置示意圖	37
圖3.2.4、 人形機器人的五個移動方式之示意圖	38
圖3.2.5、 合適度選擇的舉例說明圖示	39
圖3.2.6、 影像示意圖(原始影像)	40
圖3.2.7、 影像示意圖(選取方塊)	40
圖3.2.8、 機器人紅外線位置示意圖	41
圖3.2.9、 機器人電子指南針方向示意圖	41
圖3.2.10、距離歸類圖	42
圖3.2.11、角度示意圖	44
圖3.2.12、角度歸類圖	44
圖3.3.1、 避障功能呈現圖	49

圖4.1.1、 自主射門環境示意圖	51
圖4.2.1、 有限狀態機制策略架構圖	52
圖4.2.2、 機器人的CMOS感測器搜尋場地上的粉紅色的球	54
圖4.2.3、 搜尋到球後下達移動指令接近球	54
圖4.2.4、 到達球的前方後執行踢球指令	54
圖4.2.5、 有限狀態機策略主程式流程	55
圖4.2.6、 找球(尋球與移動尋球)策略流程	56
圖4.2.7、 追球策略流程	57
圖4.2.8、 射門策略流程.	58
圖4.2.9、 目標物左右位置之關係對應圖	59
圖4.2.10、目標物距離遠近之關係對應圖	60
圖4.2.11、目標物置於正前方與機器人相對位置之影像畫面
          與執行動作對應圖	62
圖4.2.12、目標物置於左前方與機器人相對位置之影像畫面
          與執行動作對應圖	63
圖4.2.13、目標物置於右前方與機器人相對位置之影像畫面
          與執行動作對應圖	64
圖4.3.1、 射門功能成果展示	65

表目錄
表1.1.1、實驗室自行設計實現之四款人形機器人	3
表2.1.1、機器人之規格	7
表2.2.1、指令封包	10
表2.2.2、指令封包中的命令	11
表2.2.3、資料封包格式	11
表2.2.4、執行全部清除、部分清除與寫入之資料值表	13
表2.2.5、馬達固定角度資料封包格式	15
表2.2.6、馬達加減角度資料封包格式	15
表2.4.1、顏色代碼表	30
表3.2.1、紅外線距離感測器之腳位表	35
表3.2.2、紅外線距離感測器之規格表	35
表3.2.3、五種動作及其所依據紅外線感測器的距離公式之對照表	42
表3.2.4、五種動作及其所依據電子指南針的方向角度公式之對照表	43
表3.2.4、第i個動作之合適度規則表	45
表3.2.6、本論文採用的第i個動作之合適度規則表	46
參考文獻
[1]	C.C. Wong, C.T. Cheng, K.H. Huang, H.C. Wu, C.L. Hsu, Y.T. Yang, S.C. Wan, L.C. Chen, and Y.Y. Hu, “Humanoid soccer robot design for FIRA cup,” 2004 FIRA Robot World Congress, Oct. 2004.
[2]	C.C. Wong, C.T. Cheng, H.Y. Wang, S.A. Li, K.H. Huang, S.C. Wan, Y.T. Yang, C.L. Hsu, Y.T. Wang, S.D. Jhou, H.M. Chan, J.C. Huang, and Y.Y. Hu, “Description of TKU-PaPaGo team for humanoid league of RoboCup 2005,” 2005 RoboCup International Symposium, Jul. 2005.
[3]	C.C. Wong, C.T. Cheng, K.H. Huang, and Y.T. Yang, “Description of TKU team for humanoid league of RoboCup 2006,” 2006 RoboCup International Symposium, Jun. 2006.
[4]	C.C. Wong, C.T. Cheng, K.H. Huang, Y.T. Yang, and H.Y. Wang, “Humanoid soccer robot design for FIRA cup 2006,” 2006 FIRA Robot World Congres, Jun. 2006.
[5]	C.C. Wong, C.T. Cheng, K.H. Huang, and Y.T. Yang, “Design and implementation of humanoid robot for obstacle avoidance,” 2007 FIRA Robot World Congress, Jun. 2007.
[6]	J. Borenstein and Y. Koren, “Real-time obstacle avoidance for fact mobile robots,” IEEE Tran. on Systems, Man and Cybernetics, vol. 19, pp.1179-1187, Sep.-Oct. 1989.
[7]	K. Kaneko, F. Kanehiro, S. Kajita, H. Hirukawa, T. Kawasaki, M. Hirata, K. Akachi, and T. Isozumi, “Humanoid robot HRP-2,” IEEE Int. Conf. on Robotics and Automation, vol. 2, pp. 1083-1090, Apr. 2004.
[8]	T. Shang and S. Wang, “Analysis of environmental factors limiting humans' obstacle avoidance ability,” Active Media Technology, pp. 369 -374, May 2005.
[9]	Y. Ogura, H. Aikawa, K. Shimomura, H. Kondo, A. Morishima, H.O. Lim, and A. Takanishi, “Development of a new humanoid robot WABIAN-2,” IEEE Int. Conf. on Robotics and Automation, pp. 835 - 840, Feb. 2006.
[10]	Y. Sakagami, R. Watanabe, C. Aoyama, S. Matsunaga, N. Higaki, and K. Fujimura, “The intelligent ASIMO: System overview and integration,” Intelligent Robots and System, vol.3, pp.2478-2483, Sep. 2002.
[11]	Homepage of FIRA: http://www.fira.net/
[12]	Homepage of GWS: http://www.gws.com.tw/
[13]	Homepage of KONDO: http://www.kondo-robot.com/
[14]	Homepage of RoboCup: http://www.robocup.org/
[15]	伍寒楨、許嘉玲、楊玉婷、萬先強、陳立哲,視覺自主人型機器足球員,淡江大學電機系智慧型控制實驗室專題實驗報告,2004。
[16]	蔡依伶、黃俊捷、詹翔閔、胡越陽,人形機器人之設計與實現,淡江大學電機系智慧型控制實驗室專題實驗報告,2005。
[17]	陳慶逸、林柏辰,VHDL數位電路實習與專題設計,文魁資訊,2003。
[18]	立雅科技,SolidWorks 2004實戰演練─基礎篇,知城數位,2003。
[19]	撰文╱比爾‧蓋茲(Bill Gates)、翻譯/鍾樹人,家家都有機器人,《科學人》雜誌,2007。
論文全文使用權限
校內
紙本論文於授權書繳交後5年公開
同意電子論文全文授權校園內公開
校內電子論文於授權書繳交後5年公開
校外
同意授權
校外電子論文於授權書繳交後5年公開

如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信