系統識別號 | U0002-1608201611451800 |
---|---|
DOI | 10.6846/TKU.2016.00427 |
論文名稱(中文) | 移動機器人之即時路徑規劃與控制 |
論文名稱(英文) | Real-time Path Planning and Control for Mobile Robot |
第三語言論文名稱 | |
校院名稱 | 淡江大學 |
系所名稱(中文) | 機械與機電工程學系碩士班 |
系所名稱(英文) | Department of Mechanical and Electro-Mechanical Engineering |
外國學位學校名稱 | |
外國學位學院名稱 | |
外國學位研究所名稱 | |
學年度 | 104 |
學期 | 2 |
出版年 | 105 |
研究生(中文) | 黃聖凱 |
研究生(英文) | Sheng-Kai Huang |
學號 | 603370155 |
學位類別 | 碩士 |
語言別 | 繁體中文 |
第二語言別 | |
口試日期 | 2016-07-04 |
論文頁數 | 55頁 |
口試委員 |
指導教授
-
孫崇訓
委員 - 王文俊 委員 - 鄭穎仁 委員 - 孫崇訓 |
關鍵字(中) |
雙眼攝影機 同時定位與建圖 路徑規劃 室內導航 輪型機器人控制 |
關鍵字(英) |
Binocular vision Simultaneous Localization and mapping Path planning indoor navigation wheeled robot control |
第三語言關鍵字 | |
學科別分類 | |
中文摘要 |
本論文結合了式內定位、路徑規劃與控制實現了室內自主導航系統。整合了雙眼攝影機、雷射測距儀(Laser rangefinder, LRF)與慣性量測單元(Inertial measurement unit, IMU)三種感測器之建立。LRF混和IMU定位與建圖系統負責機器人之核心定位。視覺輔助定位用於機器人之初始定位。路徑規劃採用Voronoi地圖劃分與Dijkstra路徑選擇規劃出最短路徑。依據路徑加入控制系統即可實現機器人之室內即時導航。最後透過實驗驗證本研究的即時性與優異性。 |
英文摘要 |
This study integrates the indoor localization, path planning and control to achieve indoor navigation system for the wheeled mobile robot. The sensors used in this system include binocular camera, laser rangefinder (LRF) and inertial measurement unit (IMU). The robot localization is mainly based on the LRF with IMU sensors. The initialization of the robot is assisted by binocular visual localization. The Voronoi diagram and Dijkstra's algorithms plans shortest path. Following the path, the control system can achieve real-time indoor navigation. Finally, the experimental results demonstrate Real-time Path Planning and Control for the Mobile Robot is achieved. |
第三語言摘要 | |
論文目次 |
目錄 中文摘要 Ⅰ 目錄 III 第1章 緒論 1 1.1 研究動機 1 1.2 研究目的與文獻探討 1 1.3 研究範圍 3 第2章 架構及硬體設備 4 2.1 架構介紹 4 2.2 車體規格 5 2.3 雷射測距儀規格 6 2.3 PC及視覺感測器 7 2.4 慣性量測單元 8 第3章 定位建圖與路徑規劃 10 3.1同時定位與建圖 10 3.1.1結合雷射測距儀與IMU之定位與建圖 10 3.2 路徑規劃系統與流程 15 3.2.1地圖格點化與侵蝕膨脹 15 3.2.2角點偵測與Voronoi劃分 16 3.2.3路徑規劃 17 3.3控制系統 18 3.3.1二輪式機器人之運動學模型與控制 18 3.4 視覺初始定位系統 21 3.4.1視覺輔助定位 21 3.4.2雙眼特徵偵測 22 3.4.3雙眼立體視覺 24 3.4.4視覺式特徵地圖建立 28 第4章 實驗與比較 32 4.1開發軟體與人機介面 32 4.2單獨使用AMCL定位-實驗1 33 4.3單獨使用AMCL定位-實驗2 35 4.4利用視覺輔助之AMCL定位-實驗1 38 4.5利用視覺輔助之AMCL定位-實驗2 40 4.6比較與分析 42 4.7機器人自主移動實驗 48 4.8實驗結論與探討 52 第5章 結論與未來研究方向 53 參考文獻 54 圖目錄 圖 1、實驗架構-初始化建圖 4 圖 2、實驗架構-自主導航 4 圖 3、系統連接關係 5 圖 4、實驗車體I90 6 圖 5、雷射測距儀 7 圖 6、C120影像感測器 8 圖 7、慣性量測單元 8 圖 8、樹莓派2 9 圖 9、即時路徑規劃與控制系統架構 10 圖 10、RVIZ人機介面 11 圖 11、繞行方形場地 12 圖 12、LRF混和IMU定位之地面基準實驗 13 圖 13、原始環境地圖 14 圖 14、LRF繪製地圖與路徑規劃流程 15 圖 15、利用原始地圖進行格點化 15 圖 16、Laplacian遮罩 16 圖 17、Voronoi結構劃分之角點插補前後 16 圖 18、侵蝕膨脹處理(左)與廣義Voronoi結構劃分(右) 17 圖 19、Dijkstra最短路徑與捷徑搜尋結果 18 圖 20、機器人座標系統 19 圖 21、任意起始點與任意終點控制模擬 21 圖 22、視覺輔助定位流程圖 22 圖 23、SURF分層音階(上)與盒子濾波器(下) 22 圖 24、Harr小波濾波器描述影像地標特徵 23 圖 25、盒子濾波器循序式旋積運算虛擬程式碼 23 圖 26、擷取原始影像 24 圖 27、使用U-SURF偵測出的特徵點 24 圖 28、雙眼攝影機立體幾何 25 圖 29、地標點定位 26 圖 30、左右眼同時擷取影像 26 圖 31、左右眼特徵點比對 26 圖 32、P3P問題與攝影機與地標點關係示意圖 27 圖 33、RANSAC剔除離群點機制 28 圖 34、人機介面與地標點收集過程1 29 圖 35、地標點收集過程2 29 圖 36、地標點收集過程3 30 圖 37、地標點收集過程4 30 圖 38、地標點收集過程5 31 圖 39、2D環境特徵地圖 31 圖 40、視覺式特徵地圖 31 圖 41、多功能人機介面 33 圖 42、實驗1-機器人位置與朝向 33 圖 43、實驗1-初始化粒子分布情況 34 圖 44、實驗1-機器人實際移動路線(紅線)與AMCL計算路線(綠虛線) 35 圖 45、實驗1-2D環境特徵地圖與未使用視覺初始定位之AMCL路徑 35 圖 46、實驗2-機器人位置與朝向 36 圖 47、實驗2-機器人實際移動路線(紅線)與AMCL計算路線(綠折線) 36 圖 48、實驗2-初始化粒子分布情況 37 圖 49、實驗2-2D環境特徵地圖與未使用視覺初始定位之AMCL路徑 38 圖 50、實驗1-視覺初始定位結果 39 圖 51、實驗1-由視覺定位修正初始位置後 39 圖 52、實驗1-2D環境特徵地圖與使用視覺初始定位之AMCL路徑 40 圖 53、實驗2-視覺初始定位結果 41 圖 54、實驗2-由視覺定位修正初始位置後 41 圖 55、實驗2-2D環境特徵地圖與使用視覺初始定位之AMCL路徑 42 圖 56、實驗1-未使用視覺初始定位之AMCL定位之X共變異數 42 圖 57、實驗1-未使用視覺初始定位之AMCL定位之Y共變異數 43 圖 58、實驗1-未使用視覺初始定位之AMCL定位 之共變異數 43 圖 59、實驗2-未使用視覺初始定位之AMCL定位之X共變異數 44 圖 60、實驗2-未使用視覺初始定位之AMCL定位之Y共變異數 44 圖 61、實驗2-未使用視覺初始定位之AMCL定位之 共變異數 44 圖 62、實驗1-使用視覺初始定位之AMCL定位之X共變異數 45 圖 63、實驗1-使用視覺初始定位之AMCL定位之Y共變異數 45 圖 64、實驗1-使用視覺初始定位之AMCL定位之 共變異數 46 圖 65、實驗2-使用視覺初始定位之AMCL定位之X共變異數 46 圖 66、實驗2-使用視覺初始定位之AMCL定位之Y共變異數 47 圖 67、實驗2-使用視覺初始定位之AMCL定位之 共變異數 47 圖 68、路徑規劃流程1 48 圖 69、路徑規劃流程2 49 圖 70、大致實際行走路線 49 圖 71、初始化定位與路徑規劃結果 50 圖 72、抵達第一個路徑優化節點 50 圖 73、抵達第二個路徑優化節點 50 圖 74、抵達第三個路徑優化節點 50 圖 75、抵達目標點(大圖) 51 圖 76、抵達目標點路徑-Matlab清晰圖 51 表目錄 表 1、I90車體規格 5 表 2、雷射測距儀規格 6 表 3、PC電腦規格 7 表 4、C120影像感測器規格 7 表 5、MPU-6050規格 8 表 6、樹莓派2規格 9 表 7、各點總平均值與標準差 12 表 8、A點定位平均值與標準差 13 表 9、B點定位平均值與標準差 13 表 10、C點定位平均值與標準差 14 表 11、D點定位平均值與標準差 14 表 12、特徵點對應其視線向量與影像座標 26 表 13、有無使用視覺輔助初始定位結果比較 47 |
參考文獻 |
[1] T. Ogino, M. Tomono, T. Akimoto, and A. Matsumoto, “Human following by an omnidirectional mobile robot using maps built from laser range-finder measurement,” in Proc. Journal of Robotics and Mechatronics, 22, pp. 28-35, 2010. [2] M. Ruhnke, R. Kummerle, G. Grisetti, and W. Burgard, “Highly accurate maximum likelihood laser mapping by jointly optimizing laser points and robot poses,” in Proc. 2011 IEEE International Conference on Robotics and Automation (ICRA), 2011, pp. 2812-2817. [3] Y. Tobata, R. Kurazume, Y. Noda, K. Lingemann, Y. Iwashita, and T. Hasegawa, “Laser-based geometrical modeling of large-scale architectural structures using co-operative multiple robots,” Autonomous Robots, vol. 32, pp. 49-62, 2012. [4] R. Hartley and A. Zisserman, “Multiple view geometry in computer vision,” vol. 2: Cambridge University Press, 2000. [5] H. Durrant-Whyte, and T. Bailey, “Simultaneous localization and mapping: part I,” IEEE Robotics & Automation Magazine, vol. 13, pp. 99-110, 2006. [6] T. Bailey, and H. Durrant-Whyte, “Simultaneous localization and mapping (SLAM): part II,” IEEE Robotics & Automation Magazine, vol. 13, pp. 108-117, 2006. [7] A. J. Davison, I. D. Reid, N.D. Molton and O. Stasse, “MonoSLAM: real time single camera SLAM,” IEEE Trans. Pattern Analysis and Machine Intelligence, vol. 29, pp.1052-1067, 2007. [8] Y. T. Wang, D. Y. Hung, and C .H. Sun, “Improving data association in robot SLAM with monocular vision,” Journal of Information Science and Engineering, vol. 27, pp.1-15, 2011. [9] M. Bosse and R. Zlot, “Map matching and data association for large-scale two-dimensional laser scan-based slam,” The International Journal of Robotics Research, vol. 27, pp. 667-691, 2008. [10] C. C. Wang, C. Thorpe, S. Thrun, M. Hebert, and H. Durrant-Whyte, “Simultaneous localization, mapping and moving object tracking,” The International Journal of Robotics Research, vol. 26, pp.889-916, 2007. [11] D. G. Lowe, “Distinctive image features from scale-invariant keypoints,” International Journal of Computer Vision, vol. 60, pp. 91-110, 2004. [12] H. Bay, A. Ess, T. Tuytelaars, and L. Van Gool, “Speeded-up robust features (SURF),” Computer Vision and Image Understanding, vol. 110, pp. 346-359, 2008. [13] C. Y. Yang, J. S. Yang, and F. L. Lian, “Safe and smooth: mobile agent trajectory smoothing by SVM,” International Journal of Innovation Computing Information and Control, vol. 8, pp. 4959-4978, 2012. [14] D. G. Kirkpatrick, “Efficient computation of continuous skeletons,” in Proc. 20th IEEE Annual Symposium on Foundations of Computer Science,1979, pp. 18-27. [15] G. J. Yang and B. W. Choi, “Robot velocity based path planning along bezier curve path,” in Proc. The 5th International Conference on Advanced Science and Technology, 2013, pp. 31-34. [16] P. M. Hsu, C. L. Lin, and M. Y. Yang, “On the complete coverage path planning for mobile robots,” Journal of Intelligent & Robotic Systems, pp. 1-19, 2013. [17] A. Censi, “An ICP variant using a point-to-line metric,” in Proc. IEEE International Conference Robotics and Automation, 2008. [18] http://wiki.ros.org/gmapping [Accessed 2016 January 20]. [19] G. Grisetti, C. Stachniss, and W. Burgard, “Improved techniques for grid mapping with Rao-Blackwellized particle filters,” IEEE Trans. Robotics, Volume 23, pp. 34-46, 2007. [20] G. Grisetti, C. Stachniss, and W. Burgard, “Improving grid-based SLAM with Rao-Blackwellized particle filters by adaptive proposals and selective resampling,” in Proc. IEEE International Conference on Robotics and Automation, 2005. [21] D. Fox, “KLD-sampling: adaptive particle filters,” Advances in Neural Information Processing Systems, pp. 713-720, 2001. [22] 王瀚森,"視覺里程計之即時性與準確性改善",淡江大學機械與機電工程學系碩士論文,2014。 [23] F. Aurenhammer, “Voronoi diagrams—a survey of a fundamental geometric data structure, ” ACM Computing Surveys, Volume 23, pp. 345-405, 1991. |
論文全文使用權限 |
如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信