系統識別號 | U0002-2107202118520300 |
---|---|
DOI | 10.6846/TKU.2021.00553 |
論文名稱(中文) | 多機器人之視覺定位與協作策略規劃 |
論文名稱(英文) | Multi-Robot Visual Localization and Collaborative Strategy Planning |
第三語言論文名稱 | |
校院名稱 | 淡江大學 |
系所名稱(中文) | 電機工程學系機器人工程碩士班 |
系所名稱(英文) | Master's Program In Robotics Engineering, Department Of Electrical And Computer Engineering |
外國學位學校名稱 | |
外國學位學院名稱 | |
外國學位研究所名稱 | |
學年度 | 109 |
學期 | 2 |
出版年 | 110 |
研究生(中文) | 李宗晏 |
研究生(英文) | Tsung-Yen Lee |
學號 | 608470042 |
學位類別 | 碩士 |
語言別 | 繁體中文 |
第二語言別 | |
口試日期 | 2021-07-06 |
論文頁數 | 88頁 |
口試委員 |
指導教授
-
劉智誠
共同指導教授 - 李祖添 委員 - 楊玉婷 委員 - 李世安 委員 - 劉智誠 |
關鍵字(中) |
人形機器人 視覺定位 蒙地卡羅定位 機器人操作系統第二代 多機器人協作 視覺遮蔽 |
關鍵字(英) |
Humanoid Robot Vision-based Localization Monte-Carlo Localization Robot Operating System 2 Multi-Robot Collaboration Visual Obscuration |
第三語言關鍵字 | |
學科別分類 | |
中文摘要 |
本論文提出一個多機器人之協作定位與協作策略的系統架構與方法,多機器人協作定位主要包含了四個部分:定位演算法、多機器人的資訊傳輸、物件測量以及數據融合。在定位演算法上,單一機器人的定位使用改良型蒙地卡羅定位法(Improved Monte-Carlo Localization, IMCL)。在多機器人的資訊傳輸上,結合機器人操作系統以及機器人操作系統第二代,讓機器人互相通訊來達到資訊交換和共享的目的。在物件測量上,透過攝影機水平角度以及畫面深度距離來獲取物件與機器人的距離。在數據融合上,Position Mapping (PM)演算法根據每個機器人的定位權重值來判斷,當權重值越高代表機器人所回傳的資訊可性度越高。從實驗結果可知,本論文所提出的多機器人協作定位可以有效地改良視覺遮蔽的問題並提升多機器人定位的精準度。 |
英文摘要 |
This thesis proposes a system structure and method for multi-robot collaborative localization (MRCL) and collaborative strategy. The MRCL includes four main parts: localization algorithm, information transmission of multi-robot, object measuring and, data fusion. In the localization algorithm, single robot localization is improved Monte-Carlo localization (IMCL) method. In the information transmission of multi-robot, robots communication with each other combines robot operating system (ROS) with robot operating system 2 (ROS 2) to achieve the purpose of information exchanging and sharing. In the object measuring, the horizontal angle of camera and the depth distance of scene are used to obtain the distance between the object and the robot. In the data fusion, Position Mapping (PM) algorithm judges based on the localization weight value of each robot. When the weight value of robot is higher, the reliability of the returned information is better. In the experimental results, the proposed MRCL can effectively improve the visual obscuration problem and enhance the accuracy of the multi-robot localization. |
第三語言摘要 | |
論文目次 |
中文摘要 I 英文摘要 II 目錄 III 圖目錄 VI 表目錄 X 第一章 緒論 1 1.1 研究背景 1 1.2 研究動機 2 1.3 論文架構 4 第二章 人形機器人之平台介紹 5 2.1 前言 5 2.2 人形機器人之機構介紹 6 2.3 人形機器人之核心控制板介紹 8 2.3.1 NUC迷你電腦 8 2.3.2 SoC FPGA開發板 10 2.4 人形機器人之電路介紹 11 2.4.1 馬達訊號轉換 11 2.4.2 感測器資訊接收 12 第三章 人形機器人之系統架構 15 3.1 前言 15 3.2 ROS的系統架構 16 3.3 ROS 2的系統架構 17 3.4 影像策略 18 3.5 運動控制 19 3.6 影像處理 19 3.7 策略與資料收送 21 第四章 人形機器人之多機器人協作定位 22 4.1 前言 22 4.2 改良型蒙地卡羅定位 22 4.3 多機器人協作定位 26 4.3.1 GameController 27 4.3.2 ROS的傳輸架構 28 4.3.3 ROS 2的傳輸架構 31 4.3.4 測量物件距離 34 4.3.5 數據融合 45 4.3.6 定位流程與應用 55 第五章 實驗結果 62 5.1 前言 62 5.2 傳輸效率驗證 62 5.3 測量物件距離驗證 65 5.3.1 攝影機高度驗證 65 5.3.2 垂直距離驗證 66 5.3.3 水平距離驗證 71 5.4 定位實驗 75 5.4.1 物件定位 75 5.4.2 視覺遮蔽與數據融合 78 5.4.3 動態定位 81 第六章 結論與未來展望 84 6.1 結論 84 6.2 未來展望 85 參考文獻 86 圖目錄 圖2.1、第十一代小型人形機器人機構設計與尺寸圖 7 圖2.2、NUC迷你電腦實體圖 9 圖2.3、SoC FPGA開發板實體圖 10 圖2.4、轉接電路板實體圖 11 圖2.5、馬達訊號轉換流程圖 12 圖2.6、感測器資訊接收訊號轉換流程圖 14 圖3.1、第十一代小型人形機器人系統架構圖 15 圖3.2、PR2機器人實體圖 16 圖3.3、ROS層次圖 17 圖3.4、ROS與ROS 2的系統架構比較圖 18 圖4.1、改良型蒙地卡羅定位流程圖 26 圖4.2、GameController的控制狀態介面圖 27 圖4.3、ROS人形機器人內部傳輸架構圖 31 圖4.4、ROS 2的傳輸架構圖 32 圖4.5、ROS 2人形機器人之間的傳輸架構圖 34 圖4.6、計算頭部垂直馬達高度與寬度的方法比較圖 35 圖4.7、計算頭部垂直馬達高度示意圖 36 圖4.8、計算頭部垂直馬達寬度示意圖 37 圖4.9、人形機器人前傾與後傾示意圖 38 圖4.10、計算地面與攝影機之間的角度示意圖 39 圖4.11、計算人形機器人前傾時攝影機高度示意圖 40 圖4.12、計算人形機器人後傾時攝影機高度示意圖 41 圖4.13、RGB-D攝影機觀測物件示意圖 42 圖4.14、計算物件水平距離示意圖 43 圖4.15、計算物件垂直距離示意圖 44 圖4.16、座標轉換示意圖 45 圖4.17、狀態一時自身定位數據融合之虛擬程式碼圖 47 圖4.18、狀態二時自身定位數據融合之上半部虛擬程式碼圖 48 圖4.19、狀態二時自身定位數據融合之下半部虛擬程式碼圖 49 圖4.20、狀態三時自身定位數據融合之上半部虛擬程式碼圖 49 圖4.21、狀態三時自身定位數據融合之下半部虛擬程式碼圖 50 圖4.22、狀態一時物件定位數據融合之虛擬程式碼圖 51 圖4.23、狀態二時物件定位數據融合之上半部虛擬程式碼圖 52 圖4.24、狀態二時物件定位數據融合之下半部虛擬程式碼圖 53 圖4.25、狀態三時物件定位數據融合之上半部虛擬程式碼圖 53 圖4.26、狀態三時物件定位數據融合之下半部虛擬程式碼圖 54 圖4.27、狀態四時物件定位數據融合之虛擬程式碼圖 55 圖4.28、單次循環的影像系統流程圖 57 圖4.29、單次循環的定位系統流程圖 59 圖4.30、RoboCup足球場地圖 60 圖4.31、足球的物件觀測資訊不足模擬圖 61 圖5.1、Robot1無指定傳輸的更新時間圖 63 圖5.2、Robot2無指定傳輸的更新時間圖 63 圖5.3、Robot1指定傳輸的更新時間圖 64 圖5.4、Robot2指定傳輸的更新時間圖 64 圖5.5、人形機器人攝影機高度誤差圖 66 圖5.6、人形機器人垂直距離誤差圖 67 圖5.7、人形機器人65度時垂直距離方法誤差比較圖 68 圖5.8、人形機器人70度時垂直距離方法誤差比較圖 69 圖5.9、人形機器人75度時垂直距離方法誤差比較圖 70 圖5.10、人形機器人水平距離誤差圖 71 圖5.11、人形機器人65度時水平距離方法誤差比較圖 72 圖5.12、人形機器人70度時水平距離方法誤差比較圖 73 圖5.13、人形機器人75度時水平距離方法誤差比較圖 74 圖5.14、人形機器人左前方的足球實際位置圖 76 圖5.15、人形機器人左前方的足球定位資訊圖 76 圖5.16、人形機器人左後方的足球實際位置圖 76 圖5.17、人形機器人左後方的足球定位資訊圖 77 圖5.18、人形機器人右後方的足球實際位置圖 77 圖5.19、人形機器人右後方的足球定位資訊圖 77 圖5.20、人形機器人右前方的足球實際位置圖 78 圖5.21、人形機器人左前方的足球定位資訊圖 78 圖5.22、足球場地情況模擬圖 79 圖5.23、Robot1視覺遮蔽前所獲取的資訊圖 79 圖5.24、Robot1視覺遮蔽時所獲取的資訊圖 79 圖5.25、Robot2所獲取的資訊圖 80 圖5.26、機器人定位的權重值圖 81 圖5.27、人形機器人接收定位資訊圖 82 圖5.28、人形機器人旋轉圖 82 圖5.29、人形機器人對準足球圖 83 圖5.30、人形機器人前進圖 83 圖5.31、人形機器人停止圖 83 表目錄 表2.1、第十一代小型人形機器人規格表 5 表2.2、MX-64、XM430-W350-R以及XH540-W270-R馬達的比較表 8 表2.3、NUC迷你電腦規格表 9 表2.4、SoC FPGA開發板規格表 10 表2.5、9DoF Razor IMU M0規格表 13 表3.1、Intel RealSense D435i規格表 20 表4.1、RoboCup足球場地規格表 60 表5.1、人形機器人攝影機高度誤差表 66 表5.2、人形機器人垂直距離誤差表 67 表5.3、人形機器人65度時垂直距離方法誤差比較表 68 表5.4、人形機器人70度時垂直距離方法誤差比較表 69 表5.5、人形機器人75度時垂直距離方法誤差比較表 70 表5.6、人形機器人水平距離誤差表 71 表5.7、人形機器人65度時水平距離方法誤差比較表 72 表5.8、人形機器人70度時水平距離方法誤差比較表 73 表5.9、人形機器人75度時水平距離方法誤差比較表 74 |
參考文獻 |
[1] A. W. Stroupe, M. C. Martin, and T. Balch, “Distributed sensor fusion for object position estimation by multi-robot systems,” Proceedings of the IEEE International Conference on Robotics and Automation, Seoul , Korea, vol. 2, May 21-26, 2001, pp. 1092-1098. [2] S.I. Roumeliotis and G.A. Bekey, “Distributed Multirobot Localization,” IEEE Transaction on Robotics and Automation, vol. 18, no. 5, Oct. 2002, pp. 781-795. [3] S.I. Roumeliotis and I.M.Rekleitis, “Analysis of Multirobot Localization Uncertainty Propagation,” Proceedings of the IEEE/RSJ International Conference on Intelligent Robots and Systems, Las Vegas, USA, vol. 2, Oct. 27-31, 2003, pp. 1763-1770. [4] Agostino Martinelli, Frederic Pont, and Roland Siegwart, “Multi-Robot Localization Using Relative Observations,” Proceedings of the IEEE International Conference on Intelligent Robot and Systems, Barcelona, Spain, Apr. 18-22, 2005, pp. 2797-2802. [5] D. Fox, W. Burgard, H. Kruppa, and S. Thrun, “Collaborative multi-robot localization,” Autonomous robots on heterogeneous multi-robot systems, Special Issue, Aug. 3, 2000, pp. 325-344. [6] A. Howard, M. J. Mataric, and G. S. Sukhatme, “Cooperative Relative localization for Mobile Robot Teams: An EGO-Centric Approach,” Proceedings of the Naval Research Laboratory Workshop on Multi-Robot Systems, Washington, DC, Mar. 17-19, 2003, pp. 65-76. [7] I. M. Rekleitis, G. Dudek, and E. E. Milios, “Multi-robot cooperative localization: a study of trade-off between efficiency and accuracy,” Proceedings of the IEEE International Conference on Intelligent Robot and Systems, Lausanne, Switzerland, vol. 3, Sept. 30- Oct. 4, 2002, pp. 2690-2695. [8] L. Montesano, J. Gaspar, J. Santos-Victor, and L. Montano, “Cooperative Localization by Fusing Vision-based Bearing Measurements and Motion,” Proceedings of the IEEE International Conference on Intelligent Robot and Systems, Edmonton, Alta., Canada, Aug. 2-6, 2005 [9] P. Pinheiro and P. U. Lima, “Bayesian sensor fusion for cooperative object localization and world modeling,” In Conf. on Intelligent Autonomous Systems, Amsterdam, Netherlands, Jan. 2004. [10] J. Spletzer, K. Das, R. Fiero, C. J. Taylor, V. Kumar, and J. P. Ostrowski, “Cooperative localization and control for multi-robot manipulation,” Proceedings of the IEEE International Conference on Intelligent Robots and Systems, Maui, HI, USA, Oct. 29- Nov. 3, 2001. [11] A. Howard, M.J. Mataric, and G.S. Sukhatme, “Localization for Mobile Robot Teams Using Maximum Likelihood Estimation,” Proceedings of the IEEE International Conference on Intelligent Robot and Systems (IROS02), Vol. 3, Sept. 30- Oct. 5, 2002, pp. 2849-2854. [12] J. K. David, T. Ernst, and O. B. Thomas, “Stereovision and navigation in building for mobile robots,” IEEE Transaction on Robotics and Automation, vol. 5, no. 6, Dec. 1989, pp. 792-803. [13] H. S. Baek, J. M. Choi, and B. S. Lee, “Improvement of distance measurement algorithm on stereo vision system (SVS),” International Conference on Ubiquitous Information Technologies and Applications, Sanya, China, no. 5678176, Dev. 16-18, 2010, pp. 1-3. [14] Y. Matsumoto, K. Ikeda, M. Inaba, and H. Inoue, “Visual navigation using omnidirectional view sequence,” IEEE/RSJ International Conference on Intelligent Robots and Systems, Kyongju, South Korea, vol. 1, Oct. 17-21, 1999, pp. 317-322. [15] J. Huber and V. Graefe, “Motion stereo for mobile robots,” IEEE Transactions on Industrial Electronics, vol. 41, 1994, pp. 378-383. [16] RoboCup, URL: https://www.robocup.org [17] 王亮欽,基於人形機器人視覺之改良型蒙地卡羅定位法,淡江大學電機工程學系碩士論文(指導教授:劉智誠),2020。 [18] F. Dellaert, D. Fox, W. Burgard, and S. Thrun, “Monte Carlo localization for mobile robots,” Proceedings 1999 IEEE International Conference on Robotics and Automation, Detroit, MI, USA, vol. 2, May 10-15, 1999, pp. 1322-1328. [19] L. Zhang, R. Zapata, and P. Lepinay, “Self-adaptive Monte Carlo for single-robot and multi-robot localization,” IEEE International Conference on Automation and Logistics, Shenyang, China, Aug. 5-7, 2009, pp.1927-1933. [20] C. C. Hsu, C. C. Wong, H. C. Teng, and C. Y. Ho, “Localization of mobile robots via an enhanced particle filter incorporating tournament selection and nelder-mead simplex search,” International Journal of Innovative Computing, Information and Control, vol. 7, no. 7A, Jul. 2011, pp. 3725-3737. [21] 黎乃仁,結合單體搜尋法之改良式粒子濾波器及其在非線性函數追蹤及機器人定位之研究,淡江大學電機工程學系碩士論文(指導教授:許陳鑑),2009。 [22] 郭家瑞,增強型蒙地卡羅定位法及其在單板電腦之實現,臺灣師範大學應用電子科技學系碩士論文(指導教授:許陳鑑),2014。 [23] ROBOTIS, URL: https://www.robotis.com [24] ROS官網, URL: http://wiki.ros.org [25] ROBOREN, URL: https://roboren.wordpress.com/tag/willow-garage [26] ROS官網架構說明, URL: http://wiki.ros.org/ROS/Concepts [27] ROS 2官網eloquent版本, URL: https://docs.ros.org/en/eloquent [28] ROS 2整體架構說明, URL: https://blog.csdn.net/xmy306538517/article/details/78770788 [29] N. Metropolis, and S. Ulam, “The Monte Carlo method,” Journal of the American Statistical Association, vol. 44, no. 247, 1949, pp. 335-341. [30] N. J. Gordon, D. J. Salmond, and A. F. Smith, “Novel approach to nonlinear/non-Gaussian Bayesian state estimation,” IEE Proceedings F - Radar and Signal Processing, vol. 140, no. 2, 1993, pp. 107-113. [31] J. S. Liu and R. Chen, “Sequential Monte Carlo methods for dynamic systems,” Journal of the American Statistical Association, vol. 93, no. 443, 1998, pp. 1032-1044. [32] Rhoban GitHub, URL: https://github.com/Rhoban [33] RoboCup SPL GitHub, URL: https://github.com/RoboCup-SPL |
論文全文使用權限 |
如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信