系統識別號 | U0002-1308201520221200 |
---|---|
DOI | 10.6846/TKU.2015.00360 |
論文名稱(中文) | 視覺自主人形機器人之定位與導航 |
論文名稱(英文) | Localization and Navigation for Vision-based Autonomous Humanoid Robot |
第三語言論文名稱 | |
校院名稱 | 淡江大學 |
系所名稱(中文) | 電機工程學系碩士班 |
系所名稱(英文) | Department of Electrical and Computer Engineering |
外國學位學校名稱 | |
外國學位學院名稱 | |
外國學位研究所名稱 | |
學年度 | 103 |
學期 | 2 |
出版年 | 104 |
研究生(中文) | 溫泯毅 |
研究生(英文) | Min-Yi Wen |
學號 | 603470047 |
學位類別 | 碩士 |
語言別 | 繁體中文 |
第二語言別 | |
口試日期 | 2015-07-14 |
論文頁數 | 52頁 |
口試委員 |
指導教授
-
翁慶昌(wong@ee.tku.edu.tw)
共同指導教授 - 鄭吉泰(124646@mail.tku.edu.tw) 委員 - 龔宗鈞(cckung@ttu.edu.tw) 委員 - 蔡奇謚(chiyi_tsai@mail.tku.edu.tw) 委員 - 翁慶昌(wong@ee.tku.edu.tw) |
關鍵字(中) |
蒙地卡羅自我定位法 粒子濾波器 導航 人形機器人 路徑規劃 |
關鍵字(英) |
Monte-Carlo self-localization method Particle Filter Navigation Humanoid robot Path Planning |
第三語言關鍵字 | |
學科別分類 | |
中文摘要 |
針對視覺自主的小型人形機器人,本論文提出一個定位與導航的設計與實現方法,主要有三大項:視覺系統、定位系統以及路徑規劃系統。在視覺系統的設計與實現上,本論文將影像中感興趣的顏色區塊標記為特徵,藉以作為定位的標準。在定位系統的設計與實現上,本論文首先建立一個有障礙物資訊的虛擬地圖,然後以蒙地卡羅自我定位法搭配粒子濾波器來推算機器人在環境中的位置。在路徑規劃系統的設計與實現上,本論文首先以近似度來求障礙物的適應值,使機器人不走向障礙物以減少碰撞之機率,然後以改良式A*演算法來規劃一個具有較少轉折點的全域規劃路徑,最後以虛擬路徑點作為區域避障的方式,使機器人在避開障礙物的同時,亦可以追尋全域路徑規劃的路徑點。從實驗結果可知,本論文所提出的方法確實可以讓機器人具備自我定位以及導航的能力,可以安全地避開障礙物並順利抵達目的地。 |
英文摘要 |
In this thesis, a localization and navigation system is proposed to be implemented on a vision-based autonomous small-sized humanoid robot. There are three main parts: a vision system, a localization system, and a path planning system. In the design and implementation of visual system, some interested color blocks in the image are labeled as features. In the design and implementation of localization system, a virtual map with some obstacle information is first established. Then a method based on the Monte Carlo self-localization method and the particle filter is proposed to calculate the localization of the robot in the environment. In the design and implementation of path planning system, In order to reduce the probability of collision, the degree of similarity is used to evaluate fitness values of obstacles so that the robot does not walk toward obstacles. Then a modified A * algorithm is proposed to plan a global path planning which has less turning point. Finally, some virtual points are considered for a regional obstacle avoidance path, so that the robot can simultaneously avoid obstacles and pursue the assigned path points of global path planning method. From the experimental results, we can see that the proposed method really lets the robot with the ability to self-positioning and navigation. Moreover, the robot can safely avoid obstacles and successfully reach the destination. |
第三語言摘要 | |
論文目次 |
目錄 I 圖目錄 III 表目錄 VI 第一章 序論 1 1.1 研究背景 1 1.2 研究動機 2 1.3 論文架構 4 第二章 人形機器人系統 5 2.1 人形機器人核心簡介 7 2.2 影像處理模組 10 2.2.1 RGB色彩模型 10 2.2.2 HSV色彩模型 12 2.2.3 影像二值化 13 2.2.4 影像色彩分割 15 2.3 策略與軌跡規劃模組 18 2.4 資料收送模組 19 2.5 人形機器人軟體架構 20 第三章 定位與導航系統 21 3.1 機器人自我定位 21 3.1.1 蒙地卡羅定位法 22 3.1.2 粒子濾波器 24 3.2 導航系統簡介 27 3.2.1 A*演算法 27 3.2.2 改良式A*演算法 31 第四章 避障策略建立與應用 33 4.1 觀測模型 33 4.2 運動模型 38 4.3 避障策略規劃 38 4.3.1 地圖建置 40 4.3.2 全域路徑規劃 42 4.3.3 區域路徑避障 43 4.3.4 自我定位 46 第五章 實驗結果 48 第六章 結論與未來展望 50 參考文獻 51 圖目錄 圖2.1、人形機器人之硬體設計 5 圖2.2、人形機器人之系統架構 6 圖2.3、MIO-2261:(a)正面、(b)反面 7 圖2.4、H3C120-V6核心板 9 圖2.5、RGB色彩模型 11 圖2.6、HSV色彩模型 12 圖2.7、影像建模:(a)HSV色彩模型數值調整、(b)原始影像、(c)二值化處理 14 圖2.8、影像遮罩:(a)4連結、(b)8連結 15 圖2.9、連通物件標記法的示意圖 16 圖2.10、物件分割示意圖 17 圖2.11、腰部與腳步軌跡示意圖 18 圖2.12、人形機器人之軟體架構 20 圖3.1、機器人狀態推測 21 圖3.2、常態分布機率 24 圖3.3、粒子濾波器流程圖 26 圖3.4、A*演算法流程圖 28 圖3.5、A*演算法實例 29 圖3.6、搜尋相鄰節點並評估成本 29 圖3.7、新節點為中心再次搜尋 30 圖3.8、A*演算法路徑搜尋結果 30 圖3.9、A*演算法與改良式A*演算法示意圖 31 圖0.10、改良式A*搜尋流程 32 圖0.11、傳統A*與改良式A*之結果比較 32 圖4.1、影像座標示意圖 34 圖4.2、 軸距離計算示意圖 35 圖4.3、 軸距離計算示意圖 36 圖4.4、物件距離偵測:(a)100 cm、(b)90 cm、(c)80 cm、(d)70 cm、(e)60 cm與(f)40 cm 36 圖4.5、實測距離誤圖 37 圖4.6、導航系統架構 39 圖4.7、實際環境與虛擬地圖建置 40 圖4.8、近似度地圖 41 圖4.9、價值度規劃示意圖 41 圖4.10、全域路徑規劃 42 圖4.11、安全距離示意圖:(a)1 cm、(b)5 cm、(c)15 cm與(d)25 cm 43 圖4.12、虛擬路徑點 44 圖4.13、計算安全路徑點 45 圖4.14、機器人視覺:(a)左旋轉20度、(b)右旋轉20度 46 圖4.15、障礙物資訊合成 46 圖4.16、粒子障礙物映射圖 47 圖5.1、人形機器人導航與避障過程 48 圖5.2、機器人在導航與避障過程中所建立的虛擬地圖 49 表目錄 表2.1、MIO-2261詳細規格表 8 表2.2、FPGA開發板規格 9 表2.3、顏色模型之色彩代碼表 13 表4.1、實測距離誤差表 37 |
參考文獻 |
[1] URL: https://en.wikipedia.org/wiki/Robot [2] URL: http://world.honda.com/ASIMO/history/e0/index.html [3] T. Takenaka, T. Matsumoto, and T. Yoshiike, “Real time motion generation and control for biped robot -1st report: walking gait pattern generation-,” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp.1084–1091, 2009. [4] T. Takenaka, T. Matsumoto, T. Yoshiike, and S. Shirokura, “Real time motion genera-tion and control for biped robot -2nd report: Running gait pattern generation-,” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 1092–1099, 2009. [5] T. Takenaka, T. Matsumoto, and T. Yoshiike, “Real time motion generation and con¬trol for bipedrobot -3rd report: Dynamics error compensation-,” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 1594–1600, 2009. [6] T. Takenaka, T. Matsumoto, T. Yoshiike, T. Hasegawa, S. Shirokura, H. Kaneko, and A. Orita, “Real time motion generation and control for biped robot -4th report: Integrated balance control-,” IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pp. 1601–1608, 2009. [7] G. Oriolo, A. Paolillo, L. Rosa, and M. Vendittelli, “Vision-based odometric localization for humanoids using a kinematic EKF,” IEEE/RAS International Conference on Humanoid Robots, pp. 153-158, 2012. [8] P.E. Hart, N.J. Nilsson, and B. Raphael, “A formal basis for the heuristic determination of minimum cost paths in graphs,” IEEE Transaction of Systems Science and Cybernetics, vol. ssc-4, no.2, pp.100-107, 1968. [9] G.E. Jan, K.Y. Chang, and I. Parberry, “Optimal path planning for mobile robot navigation,” IEEE/ASME Transaction on Mechatronics, vol. 13, no. 4, pp. 451-459, 2008. [10] URL: http://www.fira.net/main/ [11] URL: https://docs.google.com/document/d/11dfuKMQvzFcbTlFgz6OBNYFeh7RHyVuHptdivkjnzyE/pub [12] Z. Zhong, J. Yi, D. Zhao, Y. Hong, and X. Li, “Motion vision for mobile robot localization,” IEEE Internationalconference on Control, Automation, Robotics and Vision, vol. 1, pp. 261-266, 2004. [13] J. K. David, T. Ernst, and O. B. Thomas, “Stereovision and navigation in building for mobilerobots,”IEEE Transaction on Robotics and Automation,vol. 5, pp. 792-803, 1989. [14] H. -S. Baek, J. –M. Choi, and B. –S. Lee, “Improvement of distance measurement algorithm on stereo vision system(SVS),” CUTE International Conference on Ubiquitous Information Technologies and Applications, no. 5678176, 2010. [15] S. D. Blostein, and T.S. Huang, “Error analysis instereo determination of 3-d point position,” IEEETransactionon Pattern Analysis and Machine Intelligence,vol. 9, pp. 752-765, 1987. [16] Y. Matsumoto, K. Ikeda, M. Inaba, and H. Inoue, “Visual navigation using omnidirectional view sequence,” IEEE/RSJ International Conference on Intelligent Robots and System, pp. 317-322, 1999. [17] J. Huber, and V. Graefe, “Motion Stereo for Mobile Robots,” IEEE Transactions on Industrial Electronics, vol. 41, pp. 378-383, 1994. [18] M. S. Arulampalam, S. Maskell, N. Gordon, and T. Clapp, “A tutorial on particle filters for online nonlinear/non-gaussian bayesian tracking,”IEEE Transaction onSignal Processing, vol. 50, no. 2, pp.174-188, 2002. [19] J. Baltes, C. T. Cheng, M. C. Lau, and A. Espinola, “Real-time navigation for a humanoid robot using particle filter,” ICETI Applied Mechanics and Materials, vol. 284-287, pp. 1914-1918, 2012. [20] M. Fu, and B. Xue, “A path planning algorithm based on dynamic networks and restricted searching area,” IEEE International Conference on Automation and Logistics, pp.1193-1197, 2007. [21] I. Chabini, and L. Shan, “Adaptations of the A* algorithm for the computation of fastest paths in deterministic discrete-time dynamic networks,” IEEE Transactions on Intelligent Transportation Systems, vol.3, no.1, pp.60-74, 2002. [22] C.J. Yu, Y.H. Chen, and C.C. Wong, “Path planning method design for mobile robots,” SICE Annual Conference, pp.1681-1686, 2011. |
論文全文使用權限 |
如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信