淡江大學覺生紀念圖書館 (TKU Library)
進階搜尋


下載電子全文限經由淡江IP使用) 
系統識別號 U0002-0708200613333700
中文論文名稱 雙眼視覺兩輪移動機器人之追蹤控制
英文論文名稱 Tracking Control of a Two-wheeled Mobile Robot with a Binocular Vision
校院名稱 淡江大學
系所名稱(中) 機械與機電工程學系碩士班
系所名稱(英) Department of Mechanical and Electro-Mechanical Engineering
學年度 94
學期 2
出版年 95
研究生中文姓名 盧俊宇
研究生英文姓名 Chun-Yu Lu
學號 693340605
學位類別 碩士
語文別 中文
口試日期 2006-07-13
論文頁數 69頁
口試委員 指導教授-王銀添
委員-張文中
委員-劉昭華
中文關鍵字 雙眼視覺  兩輪機器人 
英文關鍵字 Binocular Vision  Two-wheeled Mobile Robot 
學科別分類 學科別應用科學機械工程
中文摘要   本論文針對具備雙眼視覺的兩輪移動機器人系統,發展機器人物件追蹤控制行為。首先,將推導兩輪移動機器人在機體座標的動態模式,進而使用Lyapunov直接方法與逆動力學控制,設計兩種機器人的運動控制器。其次,結合雙眼視覺的距離量測與物件辨識功能,發展機器人位置式影像伺服控制。最後,利用Lyapunov控制與逆動力學控制的特性,規劃兩輪機器人的雙眼視覺輔助物件追蹤行為。本論文將規劃的物件追蹤控制行為應用在配備雙眼視覺的兩輪移動機器人系統。模擬與實測的結果顯示,所規劃的控制器可以提供兩輪機器人進行物件追蹤功能。此整合系統可應用在居家巡防機器人,使具備偵測與追蹤入侵者的能力;或是應用在家用寵物機器人,使具備偵測主人臉龐與跟隨主人的能力。
英文摘要   An object tracking behavior is developed in this thesis for a two-wheeled mobile robot system with a binocular vision. First stage of the research, the dynamics model of the two-wheeled robot in body-fixed coordinates is derived. Based on this dynamics model, two different motion controllers are designed using the concepts of Lyapunov’s direct method and inverse dynamics control. Second, equipped with a binocular vision system which has the capabilities of target distance measurement and object identification, a position-based visual servo control is developed for the two-wheeled mobile robot system. In final stage, an object tracking behavior is planned for the robot utilizing specific functions of Lyapunov control and inverse dynamics control. The proposed object-tracking behavior is tested and verified on a two-wheeled mobile robot system with a binocular vision. Simulation and experimental results show that the developed controllers are well-designed for a two-wheeled robot to track the face of a person. In the future, the integrated system can be applied to a household cruise robot and enable it to detect and track the invader, or to a pet robot which has the capability to detect the face of its master and follow him.
論文目次 中文摘要 I
英文摘要 II
目錄 III
圖目錄 V
表目錄 X
第1章 緒論 1
1.1 研究目的與動機 1
1.2 文獻探討 1
1.3 研究範圍 2
1.4 論文架構 2
第2章 雙眼視覺輔助伺服控制 3
2.1 雙眼視覺座標轉換 4
2.2 兩輪機器人運動控制 6
2.3 位置式視覺伺服控制 9
2.4 機體座標運動控制 10
2.5 機體座標追蹤控制 12
第3章 影像輔助物件辨識與追蹤 15
3.1 利用色彩辨識影像中的物件 15
3.2 利用形狀特徵辨識影像中的物件 20
3.3 利用動體偵測辨識影像中的物件 23
3.4 結合色彩、形狀、與動體偵測辨識影像中物件 27
3.5 追蹤窗口 28
第4章 系統設備 29
4.1 雙眼視覺平台設計 29
4.2 雙眼視覺行動機器人設計 30
4.3 控制軟體 32
4.4 控制電路 34
4.5 8051組合語言 41
第5章 實測範例 45
5.1 攝影機參數 測試 45
5.2 影像中物件辨識與追蹤範例 48
5.3 具備雙眼之機器人物件追蹤控制 49
第6章 結論 53
6.1 研究成果 53
6.2 未來展望 53
參考文獻 54
附錄A 兩輪機器人機體座標動態方程式 56
附錄B 兩輪移動機器人系統參數 57
附錄C 色彩模型 58
附錄D 雙眼視覺機架 60





















圖目錄
圖2.1 具備雙眼視覺的行動機器人 3
圖2.2 行動機器人座標的設定 3
圖2.3 空間中的點成像於攝影機的影像平面 5
圖2.4 目標點與兩部攝影機的幾何關係 5
圖2.5 目標點與攝影座標系統的關係 6
圖2.6 馬達驅動兩輪機器人 8
圖2.7 兩輪機器人Lyapunov控制方塊圖 8
圖2.8 兩輪機器人逆動力學控制方塊圖 8
圖2.9 兩輪機器人機體座標Lyapunov控制 12
圖2.10 兩輪機器人機體座標逆動力學控制 12
圖2.11 機體控制路徑規劃 13
圖2.12 機體在場地座標系中的移動軌跡 13
圖2.13 目標物在機體座標系中的移動軌跡 14
圖3.1 膚色在RGB色彩空間中的分佈 16
圖3.2 膚色在R-G-B色彩平面上的分佈 17
(a) 膚色在R-G色彩平面上的分佈 16
(b) 膚色在G-B色彩平面上的分佈 17
(c) 膚色在R-B色彩平面上的分佈 17
圖3.3 膚色在HSV色彩空間中的分佈 18
圖3.4 膚色在YCrCb色彩空間中的分佈 18
圖3.5 膚色在Cr-Cb色彩平面上的分佈 19
圖3.6 膚色偵測 19
(a) 原始影像 19
(b) 膚色分割影像 19
圖3.7 斷開運算遮罩 19
圖3.8 斷開運算 20
(a) 二值化後的膚色分割影像 20
(b) (a)經斷開運算後的結果 20
圖3.9 數位橢圓產生演算法 21
圖3.10 數位橢圓 22
圖3.11 橢圓的四個斷點 22
圖3.12 建構橢圓模型 23
圖3.13 橢圓模型座標系 23
圖3.14 連續影像的變化 25
(a) t = 0時的影像 24
(b) t = 1時的影像 24
(c) (b)-(a)後得到的影像 25
圖3.15 索貝爾遮罩 25
(a) 水平遮罩 25
(b) 垂直遮罩 25
圖3.16 物體邊緣的偵測 25
(a) 原始影像 25
(b) 邊緣影像 25
圖3.17 平滑遮罩 25
(a) 大小為3×3 25
(b) 大小為5×5 25
圖3.18 有無平滑處理的比較 26
(a) 原始影像 26
(b) 平滑影像 26
(c) (a)的邊緣影像 26
(d) (b)的邊緣影像 26
圖3.19 灰階相減影像 26
(a) 移動速度過快 26
(b) 移動速度適中 26
圖3.20 移動物體的偵測 27
(a) 相減影像 27
(b) 邊緣影像 27
(c) 移動邊緣影像 27
圖3.21 人頭追蹤流程圖 27
圖3.22 追蹤窗口 28
圖3.23 旋轉方向示意圖 28
圖4.1 雙眼視覺系統示意圖 29
圖4.2 雙眼視覺行動機器人設計圖 30
圖4.3 雙眼視覺行動機器人實體圖 30
圖4.4 雙眼視覺平台設計圖 31
圖4.5 行動機器人平台設計圖 31
圖4.6 程式流程圖 33
圖4.7 準位轉換示意圖 33
圖4.8 行動機器人驅動電路流程 34
圖4.9 8051周邊電路 35
圖4.10 準位轉換晶片與無線傳輸模組傳送端周邊電路 36
圖4.11 無線傳輸模組接收端周邊電路 36
圖4.12 TA7291P內部構造圖與腳位規劃 37
圖4.13 馬達驅動晶片周邊電路 37
圖4.14 光耦合器周邊電路 38
圖4.15 SHARP PC817內部示意圖 38
圖4.16 電源周邊電路 39
圖4.17 LED周邊電路 39
圖4.18 電路板整體設計圖 40
圖4.19 電路板實體圖 40
圖4.20 89C51控制程式流程圖 41
圖4.21 命令格式 42
圖4.22 責任週期示意圖 43
圖4.23 不同PWM示意圖 43
圖5.1 攝影機參數 測試用方格紙 45
圖5.2 在不同距離下之 值 46
圖5.3 方均根誤差測試用方格紙 47
圖5.4 在不同距離下之方均根誤差 48
圖5.5 追蹤窗口 49
(a) 窗口圍住移動物體 49
(b) 窗口圍住整個畫面 49
圖5.6 人頭偵測 49
(a) 失誤範例 49
(b) 成功範例 49
圖5.7 靜止目標物在機體座標系中的運動軌跡 50
圖5.8 機器人追蹤靜止目標的運動軌跡 50
圖5.9 機器人追蹤靜止目標的實際情況 51
圖5.10 移動目標物在機體座標系中的運動軌跡 51
圖5.11 機器人追蹤移動目標的運動軌跡 52
圖5.12 機器人追蹤移動目標的實際情況 52
圖D.1 雙眼視覺機架 61
圖D.2 內部視覺模組 61
圖D.3 凹槽夾板 62
圖D.4 將模組嵌入凹槽 62
圖D.5 固定視覺模組 62
圖D.6 固定頭部伺服機 62
圖D.7 頭部架構 63
圖D.8 以y為軸旋轉±θ 63
圖D.9 平面止推滾珠軸承 63
圖D.10 嵌軸承圓盤 63
圖D.11 上、下嵌入 64
圖D.12 嵌入完畢 64
圖D.13 固定頸部伺服機 64
圖D.14 頸部架構 64
圖D.15 墊高器 65
圖D.16 連接墊高器 65
圖D.17 固定墊高器 65
圖D.18 以z為軸旋轉±θ 65
圖D.19 肩膀 66
圖D.20 固定頸部 66
圖D.21 IBM Net Camera 66
圖D.22 S06MG伺服器 67
圖D.23 控制訊號示意圖 67
表目錄
表5.1 在不同距離下之 值 46
表5.2 在不同距離下之方均根誤差 47
表B.1 兩輪移動機器人系統參數 57
表D.1 伺服機規格 67
表D.2 廣營伺服機脈寬與轉角規格特性表 68

參考文獻 [1] Barraquand, J. and J.C. Latombe, “Nonholonomic multibody mobile robots: controllability and motion planning in the presence of obstacles”, Proceeding of IEEE International Conference of Robotics and Automation, pp.2328-2335, 1991.
[2] Birchfield, Stan, “An Ellipse Head Tracker”, 31st Asilomar Conference on Signals, Systems, and Computers, November 1997.
[3] Bloch, A.M. and N.H. McClamroch, “Control of mechanical systems with classical nonholonomic constraints”, Proceeding IEEE Conference on Decision and Control, pp.201-205, 1989.
[4] Brunelli, R. and T. Poggio, “Template Matching: Matched Spatial Filters And Beyond”, MIT AI Memo 1549, July 1995.
[5] Campion, G., B. d’Andrea-Novel, and G. Bastin, “Controllability and state feedback stability of nonholonomic mechanical systems”, Proceedings of International Workshop in Adaptive and Nonlinear Control: Issues in Robotics, pp.106-124, Grenoble, 1990.
[6] Foresti, G., L. C. Micheloni, L. Snidaro, C. Marchiol, “Face Detection for Visual Surveillance”, Proc. of the 12th International Conference on Image Analysis and Processing, 2003.
[7] Gonzalez, R. C., Woods, R. E., “Digital Image Processing”, 2nd ed., Prentice-Hall, New Jersey, 2002.
[8] Horn, B.K.P., Robot vision. Cambridge, MA: MIT Press, 1986.
[9] Hutchinson, S., G.D. Hager, and P.I. Corke, “A Tutorial on Visual Servo Control”, IEEE Transactions on Robotics and Automation, vol.12, no.5, pp.651-670, October 1996.
[10] Jeng, S. H., H. Y. Mark Liao, C. C. Han, M. Y. Chern, and Y. T. Liu, “An Efficient Approach for Facial Feature Detection Using Geometrical Face Model”, to appear in Pattern Recognition, 1997.
[11] Kuo, T. K., 2002, A Robust Visual Servo Based Headtracker with Auto-Zooming in Cluttered Environment, Master Thesis, Department of Electrical Engineering, Notional Taiwan University.
[12] Kuo, T. K., C. M. Huang, L. C. Fu, P. Y. Chen, “A Robust Visual Servo Based Headtracker with Auto-Zooming in Cluttered Environment”, Proc. of the American Control Conference, Denver, Colorado, June 4-6 2003.
[13] Laumond, J.P., “Feasible trajectories for mobile robots with kinematic and environment constraints”, International Conference on Intelligent Autonomous Systems, pp.346-354, Amsterdam, 1986.
[14] Sobel, I. E., 1970, Camera Models and Machine Perception, Ph.D. Thesis, Department of Electrical Engineering, Stanford University.
[15] Sobottka, K. and Pitas, I., “Extraction of Facial Regions and Features Using Color and Shape Information”, in Proc. 13th International Conference on Pattern Recognition, pp.421-425, Vienna, Austria, August 1996.
[16] Turk, M. and Pentland, A., “Eigenfaces for recognition”, Journal of Cognitive Neuro-science, vol.3, no.1, pp.71-86, 1991.
[17] 林煌山,「利用膚色及區域極小值作人臉特徵是否遮蔽之偵測判斷」,碩士論文,國立中央大學資訊工程研究所,民國九十二年六月。
[18] 黃泰祥,「具備人臉追蹤與辨識功能的一個智慧型數位監視系統」,碩士論文,中原大學電子工程學系,民國九十三年六月。
[19] 許鈞程,「在室內複雜環境下實現自動人頭追蹤系統」,碩士論文,國立台北科技大學電機工程研究所,民國九十四年七月。
[20] 陳添義,「追蹤控制具備全方位視覺之兩輪足球機器人」,碩士論文,淡江大學機械與機電工程學系,九十五年七月。
[21] 陳彥良,「即時立體視覺物體追蹤系統」,碩士論文,中原大學機械工程學系,民國九十二年七月。

論文使用權限
  • 同意紙本無償授權給館內讀者為學術之目的重製使用,於2007-08-08公開。
  • 同意授權瀏覽/列印電子全文服務,於2007-08-08起公開。


  • 若您有任何疑問,請與我們聯絡!
    圖書館: 請來電 (02)2621-5656 轉 2281 或 來信