§ 瀏覽學位論文書目資料
  
系統識別號 U0002-1608201611451800
DOI 10.6846/TKU.2016.00427
論文名稱(中文) 移動機器人之即時路徑規劃與控制
論文名稱(英文) Real-time Path Planning and Control for Mobile Robot
第三語言論文名稱
校院名稱 淡江大學
系所名稱(中文) 機械與機電工程學系碩士班
系所名稱(英文) Department of Mechanical and Electro-Mechanical Engineering
外國學位學校名稱
外國學位學院名稱
外國學位研究所名稱
學年度 104
學期 2
出版年 105
研究生(中文) 黃聖凱
研究生(英文) Sheng-Kai Huang
學號 603370155
學位類別 碩士
語言別 繁體中文
第二語言別
口試日期 2016-07-04
論文頁數 55頁
口試委員 指導教授 - 孫崇訓
委員 - 王文俊
委員 - 鄭穎仁
委員 - 孫崇訓
關鍵字(中) 雙眼攝影機
同時定位與建圖
路徑規劃
室內導航
輪型機器人控制
關鍵字(英) Binocular vision
Simultaneous Localization and mapping
Path planning
indoor navigation
wheeled robot control
第三語言關鍵字
學科別分類
中文摘要
本論文結合了式內定位、路徑規劃與控制實現了室內自主導航系統。整合了雙眼攝影機、雷射測距儀(Laser rangefinder, LRF)與慣性量測單元(Inertial measurement unit, IMU)三種感測器之建立。LRF混和IMU定位與建圖系統負責機器人之核心定位。視覺輔助定位用於機器人之初始定位。路徑規劃採用Voronoi地圖劃分與Dijkstra路徑選擇規劃出最短路徑。依據路徑加入控制系統即可實現機器人之室內即時導航。最後透過實驗驗證本研究的即時性與優異性。
英文摘要
This study integrates the indoor localization, path planning and control to achieve indoor navigation system for the wheeled mobile robot. The sensors used in this system include binocular camera, laser rangefinder (LRF) and inertial measurement unit (IMU). The robot localization is mainly based on the LRF with IMU sensors. The initialization of the robot is assisted by binocular visual localization. The Voronoi diagram and Dijkstra's algorithms plans shortest path. Following the path, the control system can achieve real-time indoor navigation. Finally, the experimental results demonstrate Real-time Path Planning and Control for the Mobile Robot is achieved.
第三語言摘要
論文目次
目錄
中文摘要	Ⅰ
目錄	III
第1章 緒論	1
1.1 研究動機	1
1.2 研究目的與文獻探討	1
1.3 研究範圍	3
第2章 架構及硬體設備	4
2.1 架構介紹	4
2.2 車體規格	5
2.3 雷射測距儀規格	6
2.3 PC及視覺感測器	7
2.4 慣性量測單元	8
第3章 定位建圖與路徑規劃	10
3.1同時定位與建圖	10
3.1.1結合雷射測距儀與IMU之定位與建圖	10
3.2 路徑規劃系統與流程	15
3.2.1地圖格點化與侵蝕膨脹	15
3.2.2角點偵測與Voronoi劃分	16
3.2.3路徑規劃	17
3.3控制系統	18
3.3.1二輪式機器人之運動學模型與控制	18
3.4 視覺初始定位系統	21
3.4.1視覺輔助定位	21
3.4.2雙眼特徵偵測	22
3.4.3雙眼立體視覺	24
3.4.4視覺式特徵地圖建立	28
第4章 實驗與比較	32
4.1開發軟體與人機介面	32
4.2單獨使用AMCL定位-實驗1	33
4.3單獨使用AMCL定位-實驗2	35
4.4利用視覺輔助之AMCL定位-實驗1	38
4.5利用視覺輔助之AMCL定位-實驗2	40
4.6比較與分析	42
4.7機器人自主移動實驗	48
4.8實驗結論與探討	52
第5章 結論與未來研究方向	53
參考文獻	54

圖目錄
圖 1、實驗架構-初始化建圖	4
圖 2、實驗架構-自主導航	4
圖 3、系統連接關係	5
圖 4、實驗車體I90	6
圖 5、雷射測距儀	7
圖 6、C120影像感測器	8
圖 7、慣性量測單元	8
圖 8、樹莓派2	9
圖 9、即時路徑規劃與控制系統架構	10
圖 10、RVIZ人機介面	11
圖 11、繞行方形場地	12
圖 12、LRF混和IMU定位之地面基準實驗	13
圖 13、原始環境地圖	14
圖 14、LRF繪製地圖與路徑規劃流程	15
圖 15、利用原始地圖進行格點化	15
圖 16、Laplacian遮罩	16
圖 17、Voronoi結構劃分之角點插補前後	16
圖 18、侵蝕膨脹處理(左)與廣義Voronoi結構劃分(右)	17
圖 19、Dijkstra最短路徑與捷徑搜尋結果	18
圖 20、機器人座標系統	19
圖 21、任意起始點與任意終點控制模擬	21
圖 22、視覺輔助定位流程圖	22
圖 23、SURF分層音階(上)與盒子濾波器(下)	22
圖 24、Harr小波濾波器描述影像地標特徵	23
圖 25、盒子濾波器循序式旋積運算虛擬程式碼	23
圖 26、擷取原始影像	24
圖 27、使用U-SURF偵測出的特徵點	24
圖 28、雙眼攝影機立體幾何	25
圖 29、地標點定位	26
圖 30、左右眼同時擷取影像	26
圖 31、左右眼特徵點比對	26
圖 32、P3P問題與攝影機與地標點關係示意圖	27
圖 33、RANSAC剔除離群點機制	28
圖 34、人機介面與地標點收集過程1	29
圖 35、地標點收集過程2	29
圖 36、地標點收集過程3	30
圖 37、地標點收集過程4	30
圖 38、地標點收集過程5	31
圖 39、2D環境特徵地圖	31
圖 40、視覺式特徵地圖	31
圖 41、多功能人機介面	33
圖 42、實驗1-機器人位置與朝向	33
圖 43、實驗1-初始化粒子分布情況	34
圖 44、實驗1-機器人實際移動路線(紅線)與AMCL計算路線(綠虛線)	35
圖 45、實驗1-2D環境特徵地圖與未使用視覺初始定位之AMCL路徑	35
圖 46、實驗2-機器人位置與朝向	36
圖 47、實驗2-機器人實際移動路線(紅線)與AMCL計算路線(綠折線)	36
圖 48、實驗2-初始化粒子分布情況	37
圖 49、實驗2-2D環境特徵地圖與未使用視覺初始定位之AMCL路徑	38
圖 50、實驗1-視覺初始定位結果	39
圖 51、實驗1-由視覺定位修正初始位置後	39
圖 52、實驗1-2D環境特徵地圖與使用視覺初始定位之AMCL路徑	40
圖 53、實驗2-視覺初始定位結果	41
圖 54、實驗2-由視覺定位修正初始位置後	41
圖 55、實驗2-2D環境特徵地圖與使用視覺初始定位之AMCL路徑	42
圖 56、實驗1-未使用視覺初始定位之AMCL定位之X共變異數	42
圖 57、實驗1-未使用視覺初始定位之AMCL定位之Y共變異數	43
圖 58、實驗1-未使用視覺初始定位之AMCL定位 之共變異數	43
圖 59、實驗2-未使用視覺初始定位之AMCL定位之X共變異數	44
圖 60、實驗2-未使用視覺初始定位之AMCL定位之Y共變異數	44
圖 61、實驗2-未使用視覺初始定位之AMCL定位之 共變異數	44
圖 62、實驗1-使用視覺初始定位之AMCL定位之X共變異數	45
圖 63、實驗1-使用視覺初始定位之AMCL定位之Y共變異數	45
圖 64、實驗1-使用視覺初始定位之AMCL定位之 共變異數	46
圖 65、實驗2-使用視覺初始定位之AMCL定位之X共變異數	46
圖 66、實驗2-使用視覺初始定位之AMCL定位之Y共變異數	47
圖 67、實驗2-使用視覺初始定位之AMCL定位之 共變異數	47
圖 68、路徑規劃流程1	48
圖 69、路徑規劃流程2	49
圖 70、大致實際行走路線	49
圖 71、初始化定位與路徑規劃結果	50
圖 72、抵達第一個路徑優化節點	50
圖 73、抵達第二個路徑優化節點	50
圖 74、抵達第三個路徑優化節點	50
圖 75、抵達目標點(大圖)	51
圖 76、抵達目標點路徑-Matlab清晰圖	51

表目錄
表 1、I90車體規格	5
表 2、雷射測距儀規格	6
表 3、PC電腦規格	7
表 4、C120影像感測器規格	7
表 5、MPU-6050規格	8
表 6、樹莓派2規格	9
表 7、各點總平均值與標準差	12
表 8、A點定位平均值與標準差	13
表 9、B點定位平均值與標準差	13
表 10、C點定位平均值與標準差	14
表 11、D點定位平均值與標準差	14
表 12、特徵點對應其視線向量與影像座標	26
表 13、有無使用視覺輔助初始定位結果比較	47
參考文獻
[1]	T. Ogino, M. Tomono, T. Akimoto, and A. Matsumoto, “Human following by an omnidirectional mobile robot using maps built from laser range-finder measurement,” in Proc. Journal of Robotics and Mechatronics, 22, pp. 28-35, 2010.
[2]	M. Ruhnke, R. Kummerle, G. Grisetti, and W. Burgard, “Highly accurate maximum likelihood laser mapping by jointly optimizing laser points and robot poses,” in Proc. 2011 IEEE International Conference on Robotics and Automation (ICRA), 2011, pp. 2812-2817.
[3]	Y. Tobata, R. Kurazume, Y. Noda, K. Lingemann, Y. Iwashita, and T. Hasegawa, “Laser-based geometrical modeling of large-scale architectural structures using co-operative multiple robots,” Autonomous Robots, vol. 32, pp. 49-62, 2012.
[4]	R. Hartley and A. Zisserman, “Multiple view geometry in computer vision,” vol. 2: Cambridge University Press, 2000.
[5]	H. Durrant-Whyte, and T. Bailey, “Simultaneous localization and mapping: part I,” IEEE Robotics & Automation Magazine, vol. 13, pp. 99-110, 2006.
[6]	T. Bailey, and H. Durrant-Whyte, “Simultaneous localization and mapping (SLAM): part II,” IEEE Robotics & Automation Magazine, vol. 13, pp. 108-117, 2006.
[7]	A. J. Davison, I. D. Reid, N.D. Molton and O. Stasse, “MonoSLAM: real time single camera SLAM,” IEEE Trans. Pattern Analysis and Machine Intelligence, vol. 29, pp.1052-1067, 2007.
[8]	Y. T. Wang, D. Y. Hung, and C .H. Sun, “Improving data association in robot SLAM with monocular vision,” Journal of Information Science and Engineering, vol. 27, pp.1-15, 2011.
[9]	M. Bosse and R. Zlot, “Map matching and data association for large-scale two-dimensional laser scan-based slam,” The International Journal of Robotics Research, vol. 27, pp. 667-691, 2008.
[10]	C. C. Wang, C. Thorpe, S. Thrun, M. Hebert, and H. Durrant-Whyte, “Simultaneous localization, mapping and moving object tracking,” The International Journal of Robotics Research, vol. 26, pp.889-916, 2007.
[11]	D. G. Lowe, “Distinctive image features from scale-invariant keypoints,” International Journal of Computer Vision, vol. 60, pp. 91-110, 2004.
[12]	H. Bay, A. Ess, T. Tuytelaars, and L. Van Gool, “Speeded-up robust features (SURF),” Computer Vision and Image Understanding, vol. 110, pp. 346-359, 2008.
[13]	C. Y. Yang, J. S. Yang, and F. L. Lian, “Safe and smooth: mobile agent trajectory smoothing by SVM,” International Journal of Innovation Computing Information and Control, vol. 8, pp. 4959-4978, 2012.
[14]	D. G. Kirkpatrick, “Efficient computation of continuous skeletons,” in Proc. 20th IEEE Annual Symposium on Foundations of Computer Science,1979, pp. 18-27.
[15]	G. J. Yang and B. W. Choi, “Robot velocity based path planning along bezier curve path,” in Proc. The 5th International Conference on Advanced Science and Technology, 2013, pp. 31-34.
[16]	P. M. Hsu, C. L. Lin, and M. Y. Yang, “On the complete coverage path planning for mobile robots,” Journal of Intelligent & Robotic Systems, pp. 1-19, 2013.
[17]	A. Censi, “An ICP variant using a point-to-line metric,” in Proc. IEEE International Conference Robotics and Automation, 2008.
[18]	http://wiki.ros.org/gmapping [Accessed 2016 January 20].
[19]	G. Grisetti, C. Stachniss, and W. Burgard, “Improved techniques for grid mapping with Rao-Blackwellized particle filters,” IEEE Trans. Robotics, Volume 23, pp. 34-46, 2007.
[20]	G. Grisetti, C. Stachniss, and W. Burgard, “Improving grid-based SLAM with Rao-Blackwellized particle filters by adaptive proposals and selective resampling,” in Proc. IEEE International Conference on Robotics and Automation, 2005.
[21]	D. Fox, “KLD-sampling: adaptive particle filters,” Advances in Neural Information Processing Systems, pp. 713-720, 2001.
[22]	王瀚森,"視覺里程計之即時性與準確性改善",淡江大學機械與機電工程學系碩士論文,2014。
[23]	F. Aurenhammer, “Voronoi diagrams—a survey of a fundamental geometric data structure, ” ACM Computing Surveys, Volume 23, pp. 345-405, 1991.
論文全文使用權限
校內
校內紙本論文立即公開
同意電子論文全文授權校園內公開
校內電子論文於授權書繳交後5年公開
校外
同意授權
校外電子論文於授權書繳交後5年公開

如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信