淡江大學覺生紀念圖書館 (TKU Library)
進階搜尋


下載電子全文限經由淡江IP使用) 
系統識別號 U0002-2109201011313500
中文論文名稱 超音波感測資訊融合之未知環境地圖建立
英文論文名稱 Map building of unknown environment based on sensor fusion of ultrasonic ranging data
校院名稱 淡江大學
系所名稱(中) 電機工程學系碩士班
系所名稱(英) Department of Electrical Engineering
學年度 98
學期 2
出版年 99
研究生中文姓名 陳秉宏
研究生英文姓名 Bing-Hung Chen
學號 697460037
學位類別 碩士
語文別 中文
口試日期 2010-07-20
論文頁數 49頁
口試委員 指導教授-許陳鑑
委員-王偉彥
委員-許陳鑑
委員-李佩君
委員-盧明智
委員-王銀添
中文關鍵字 感測器融合  Dempster-Shafer 理論  障礙物格狀地圖 
英文關鍵字 sensor fusion  Dempster-Shafer theory  occupancy grid map 
學科別分類 學科別應用科學電機及電子
中文摘要 本論文提供ㄧ基於已確立之超音波感測器模型並配合感測器融合技術,用以改進障礙物格狀地圖建立之方法。首先,對配置在Pioneer P3-DX Mobile Robot上的超音波感測器,進行實驗測試與數學推論以建立適當的感測器模型。用以在偵測障礙物空間時,給定地圖中網格一機率值,來表示該網格存在障礙物之可能性。
再利用Dempster-Shafer 理論進行感測器融合,將網格機率加以結合、運算得出一新機率值,進一步確認該網格存在障礙物之機率。
隨著機器人移動,地圖內格點資訊不斷地被計算更新。最終便可描繪出一未知環境的輪廓,獲得一正確、完整障礙物格狀地圖,以用於自主機器人之定位、導航等。
英文摘要 This paper provides a sensor fusion approach to improve the accuracy in building an occupancy map based on an established ultrasonic sensor model.
We first construct a sensor model for the ultrasonic range finders mounted on the Pioneer P3-DX mobile robot by experimental test and mathematical reasoning. Based on the sensor model established, a probability can be assigned to each cell of the grid map that represents the possibility of obstacles.
Second, by using sensor fusion technique, like Dempster-Shafer theory, probabilities of the cells can be combined to derive a new probability for representing the cell. As mobile robot moves, the probability of cell will be updated continuously. Finally, a complete occupancy grid map for the unknown environment can be established for use in navigation of the autonomous robot.
論文目次 中文摘要 I
英文摘要 II
目錄 III
圖目錄 V
表目錄 VIII
第一章 緒論 1
1.1 研究背景及動機 1
1.2 研究目的與方法 3
1.3 論文架構 4
第二章 超音波感測器及其模型探討 5
2.1 超音波感測器 5
2.2 感測器模型 8
2.2.1 距離量測實驗 10
2.2.2 角度量測實驗 12
2.2.3 建立感測器模型 16
第三章 感測器融合 25
3.1 Dempster-Shafer理論 25
3.2感測器融合之模擬實驗 30
第四章 以超音波感測資料融合之環境地圖建立 34
4.1 直線走道 36
4.2 ㄇ字型走廊 39
第五章 結論與未來研究方向 45
5.1 結論 45
5.2 未來研究方向 45
參考文獻 47


圖2.1超音波感測器物理模型 6
圖2.2超音波感測器實際波形圖 7
圖2.3超音波感測器量測示意圖 8
圖2.4 Pioneer P3-DX Mobile Robot超音波感測器配置情形 9
圖2.5距離量測實驗之環境 10
圖2.6距離量測實驗過程示意圖 10
圖2.7角度量測實驗之環境 12
圖2.8角度量測實驗過程示意圖 12
圖2.9位於機器人前方兩感測器之量測範圍示意圖 13
圖2.10感測器可測角度邊界修正示意圖 15
圖2.11簡易超音波感測模型 16
圖2.12角度調變函數 17
圖2.13距離調變函數 17
圖2.14有障礙物可能性之容許誤差模型 18
圖2.15無障礙物可能性之容許誤差模型 18
圖2.16由前述實驗為基礎改良之超音波距離模型 19
圖2.17由前述實驗為基礎改良之超音波角度模型 20
圖2.18描述無障礙物情形之改良超音波感測模型 20
圖2.19本論文使用之改良超音波感測器距離模型 21
圖2.20本論文使用之改良超音波感測器角度模型(有障礙物存在時) 21
圖2.21本論文使用之改良超音波感測器角度模型(無障礙物存在時) 22
圖2.22本論文使用之改良超音波感測器三維模型 23
圖2.23改良後超音波感測器模型於障礙物格狀地圖上之呈現 23
圖3.1初始位置示意圖 29
圖3.2三秒後機器人之移動示意圖 29
圖3.3感測器融合之模擬實驗環境 31
圖3.4模擬實驗環境相對位置示意圖 31
圖3.5模擬實驗環境之灰階地圖 32
圖3.6加入障礙物相對位置資訊之實驗環境灰階地圖 33
圖4.1模擬走廊環境所繪製之地圖 35
圖4.2使用距離調變函數調整讀值所繪製之地圖 35
圖4.3淡江大學工學大樓E401教室外走廊 36
圖4.4機器人行進路線圖[直線走道] 37
圖4.5僅依感測器讀值配合簡易超音波模型所繪製之直線走道地圖 37
圖4.6综合前述理論所得之對直線走道感測資訊融合地圖 39
圖4.7工學大樓六樓資工系教授辦公室前走廊 41
圖4.8機器人行進路線圖[ㄇ字型走廊] 41
圖4.9僅依感測器讀值配合簡易超音波模型所繪製之ㄇ字型走廊地圖 42
圖4.10综合前述理論所得之對ㄇ字型走廊感測資訊融合地圖 43
圖4. 11特定角度造成超音波無法順利接收情形 44


表2.1各感測器與中心點之距離關係 9
表2.2距離量測實驗數據 11
表2.3角度量測實驗數據 14
參考文獻 [1] Mark A. Lanthier, Doron Nussbaum, and An Sheng, “Improving vision-based maps by using sonar and infrared data,” Proceedings of the IASTED International Conference on Robotics and Applications, 2004, pp. 118-123.
[2] Sv. Noykov, Ch. Roumenin, “Calibration and interface of a polaroid ultrasonic sensor for mobile robots,” Sensors and Actuators A, Vol. 135, No. 1, 2007, pp. 169-178.
[3] R. Gutierrez-Osuna, J.A. Janet, R.C. Luo, “Modeling of Ultrasonic Range Sensors for Localization of Autonomous Mobile Robots,” IEEE Transactions on Industrial Electronics, Vol. 45, No. 4, 1998, pp. 654-662.
[4] T.Wilhelm, H.-J. Bぴohme, and H.M. Gross, “Sensor Fusion for Vision and Sonar Based People Tracking on a Mobile Service Robot,” Proc. Int. Workshop on Dynamic Perception, Bochum, 2002, pp. 315-320.
[5] Zou Yi, Ho-Yeong Khing, Chua-Chin Seng, and Zhou-Xiao Wei, “Multi-ultrasonic sensor fusion for mobile robots,” Proceedings of the IEEE Intelligent Vehicles Symposium, Dearborn (MI), USA, 2000, pp.387-391.
[6] Kiyotaka Izumi, Keigo Watanabe, Masaaki Shindo and Ryoichi Sato, “A Sensor Fusion Technique Using Visual and Ultrasonic Information to Acquire Obstacle Avoidance Behaviors for Quadruped Robots,” SICE-ICASE International Joint Conference, Bexco, 2006, pp. 5120-5125.
[7] Greg Welch and Gary Bishop, “An Introduction to the Kalman Filter,” SIGGRAPH, Los Angeles, CA , 2001.
[8] P. Sykacek and I. Rezek, Markov Chain Monte Carlo Methods for Bayesian Sensor Fusion, Kluwer Acadamic Publishers, 2000.
[9] Humberto Mart´ınez Barber´a, Antonio G´omez Skarmeta, Miguel Zamora Izquierdo and Juan Bot´ıa Blaya, Neural Networks for Sonar and Infrared Sensors Fusion, 3rd Intl. Fusion Conference (FUSION 2000), Paris, France, 2000.
[10] M. Lopez, F.J. Rodriguez and J.C. Corredra, Fuzzy Reasoning for Multisensor Management, 1995 IEEE Int. Conf. on Systems, Man and Cybernetics, Vol. 2, New York, USA, 1995, pp. 1398-1403.
[11] Kam, M., Zhu, M. G., and Kalata, P., “Sensor fusion for mobile robot navigation,” Proceedings of the IEEE, Vol. 85, pp. 108-119, 1997.
[12] Mohammad Reza Asharif, Behzad Moshiri, and Reza HoseinNezhad, “Sensor fusion by pseudo information measure: A mobile robot application,” ISA Transactions, Vol. 41, pp. 283-301, 2002.
[13] Van Dam, J. W. M., Krose, B. J. A., and Groen, F. C. A., “Neural network Applications in Sensor Fusion for An Autonomous Mobile Robot,” University of Amsterdam, Technical Report, 1998.
[14] S. Thrun, “Learning metric-topological maps for indoor mobile robot navigation,” Artif. Intel. Vol. 99, pp. 22–71, 1998.
[15] S. Thrun, “Bayesian landmark learning for mobile robot localization,” Mach. Learn., vol. 33, pp. 41–76 , 1998.
[16] S. Thrun, “A probabilistic online mapping algorithm for teams of robots,” Int. J. Robot., Res. 20, 335–363, 2001.
[17] C. Martin, E. Schaffernicht, A. Scheidig, and H.-M. Gross, “Multi-modal sensor fusion using a probabilistic aggregation scheme for people detection and tracking,” Robotics and Autonomous Systems, Vol. 54, No. 9, pp. 721-728, 2006.
[18] H.P. Moravec and A. Elfes, “High Resolution Maps from Wide Angle Sonar,” Proc. IEEE Int’l Conf. Robotics and Automation, pp. 116-121, 1985.
[19] 盧明智, 盧鵬任, “感測器應用與線路分析,” 全華, 2001 年.
[20] B. Barshan and R. Kuc, “Differentiating Sonar Reflections from Corners and Planes by Employing an Intelligent Sensor,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 12, no.6, pp. 560-569, 1990.
[21] Polaroid, “Technical Specifications for 6500 Series Sonar Ranging Module,” 1999.
[22] 張家瑋,研製具有探索未知室內環境功能之影像導航自走車,聖約翰科技大學電機工程系碩士論文,2009。
[23] G. Oriolo, G. Ulivi, and M. Vendittelli, “Fuzzy maps: A new tool for mobile robot perception and planning,” Journal of Robotic Systems, Vol.14, 1997, pp. 179-197.
[24] Jasmin Velagic, Bakir Lacevic, Branislava Perunicic, “A 3-level autonomous mobile robot navigation system designed by using reasoning/search approaches,” Robotics and Autonomous Systems, Vol. 54, No. 12, 2006, pp. 989-1004.
[25] A. P. Dempster, “A generalization of Bayesian inference,” J. Royal Statistical Soc., B, vol. 30, no. 2, pp. 205–247, 1968.
[26] G. Shafer, A Mathematical Theory of Evidence. Princeton, NJ: Princeton Univ. Press, 1976.
[27] Stuart Russell and Peter Norvig 著, 高超群 編譯, 人工智慧─現代方法(第二版). 臺北市:臺灣培生教育出版公司, 2006.
[28] Huadong Wu, Mel Siegel, Rainer Stiefelhagen, Jie Yang, “Sensor fusion using Dempster-Shafer theory [for context-aware HCI],” Instrumentation and Measurement Technology Conference, 2002. IMTC/2002. Proceedings of the 19th IEEE, USA, 2002, pp. 7-12.
[29] Robin R. Murphy, “Dempster-Shafer theory for sensor fusion in autonomous mobile robots,” Robotics and Automation, IEEE Transactions on, Vol. 14, No.2, pp. 197-206, 1998.
[30] D. Koks and S. Challa, An Introduction to Bayesian and Dempster-Shafer Data Fusion, 2003.
[31] Bruce G. Buchanan and Edward H. Shortliffe, Rule-Based Expert Systems:The MYCIN Experiments of the Stanford Heuristic Programming Project. MA: Addison Wesley, 1984.
論文使用權限
  • 同意紙本無償授權給館內讀者為學術之目的重製使用,於2013-09-21公開。
  • 同意授權瀏覽/列印電子全文服務,於2013-09-21起公開。


  • 若您有任何疑問,請與我們聯絡!
    圖書館: 請來電 (02)2621-5656 轉 2281 或 來信