淡江大學覺生紀念圖書館 (TKU Library)
進階搜尋


下載電子全文限經由淡江IP使用) 
系統識別號 U0002-3006201113123200
中文論文名稱 立體視覺人形機器人於競走項目之實現
英文論文名稱 Stereo Vision based Humanoid Robot Design for Sprint
校院名稱 淡江大學
系所名稱(中) 電機工程學系碩士班
系所名稱(英) Department of Electrical Engineering
學年度 99
學期 2
出版年 100
研究生中文姓名 徐瑋甯
研究生英文姓名 Wei-Ning Hsu
學號 698470043
學位類別 碩士
語文別 中文
口試日期 2011-05-16
論文頁數 58頁
口試委員 指導教授-翁慶昌
委員-龔宗鈞
委員-許陳鑑
委員-李宜勳
委員-李世安
委員-翁慶昌
中文關鍵字 立體視覺  攝影機校正  特徵點擷取  特徵點匹配  類神經網路 
英文關鍵字 Stereo Vision  Camera Calibration  Feature Points Extraction  Feature Points Matching  Neural Network. 
學科別分類 學科別應用科學電機及電子
中文摘要 本論文設計實現一個具有兩個攝影機的立體視覺系統來探討目標物體的距離量測,並且將其應用於FIRA人形機器人競賽的競走項目。在目標物體的距離量測上,本論文探討攝影機參數的校正、特定目標的標定、特徵點的擷取、特徵點的匹配以及距離的量測,並且應用類神經網路做誤差修正來得到一個更正確的距離資訊,同時利用立體視覺的深度擷取特性以及特徵點的位置判別來讓機器人自主判斷其目前所在的位置,進而完成競走比賽的策略。實驗結果驗證本論文所提之類神經立體視覺演算法確實可以獲得較精確的距離資訊。
英文摘要 A stereo vision system with two cameras is implemented in this thesis. Based on the stereo vision system, a distance measurement of a target object is investigated and applied to the Sprint event of FIRA HuroCup. In the distance measurement of the target object, these topics of the camera calibration, specific target selection, feature point extraction, feature point matching, and distance measurement are discussed. A neural network is used to obtain more correct measurement data. The depth capture of stereo vision and the location judgment of feature points are used to let the robot can autonomously determine its current location. Furthermore, the strategy for the Spring event of FIRA HuroCup is completed. Some experimental results and comparison are presented to illustrate the implemented method can indeed obtain more accurate distance information.
論文目次 目錄
圖目錄 ................................................. III
表目錄 ................................................. VII
第一章 序論 ........................................... 1
1.1 研究背景與動機 ...................................... 1
1.2 論文架構 ........................................... 2
第二章 人形機器人系統設計 .............................. 4
2.1 人形機器人硬體介紹 ................................. 4
2.2 人形機器人系統架構介紹 .............................. 7
第三章 攝影機校正與物體框選 ........................... 12
3.1 攝影機校正 ........................................ 12
3.2 HSV 色彩模型 ....................................... 16
3.3 形態學 ............................................ 18
3.4 ROI ............................................... 18
第四章 立體視覺系統 .................................. 20
4.1 特徵點擷取 ........................................ 20
4.2 特徵匹配 .......................................... 23
目錄
II
4.3 立體視覺測距 ...................................... 25
4.3 倒傳遞類神經網路 .................................. 26
第五章 競走策略 ...................................... 32
5.1 機器人基本動作 .................................... 32
5.2 機器人定位 ........................................ 33
5.3 策略撰寫 .......................................... 36
第六章 實驗結果與分析 ................................ 43
6.1 校正前影像與校正後影像比較 ......................... 43
6.2 競走項目環境之目標物測距結果 ....................... 43
第七章 結論與未來展望 ................................ 56
參考文獻 ................................................ 57

圖目錄
圖1.1、Sprint 比賽場地圖 ........................................................................ 1
圖2.1、小型人形機器人外觀 .................................................................. 4
圖2.2、立體攝影機外觀:(a)立體攝影機正面,(b)立體攝影機俯視 . 5
圖2.3、TKU Board 單板電腦 .................................................................. 8
圖2.4、NIOS II FPGA 開發板 ................................................................. 8
圖2.6、人形機器人影像處理以及行為決策系統流程圖 .................... 10
圖3.1、針像孔模型 ................................................................................ 13
圖3.2、在不同位置拍攝棋盤: (a)左攝影機拍攝之影像,(b)右攝影機
拍攝之影像 ............................................................................... 13
圖3.3、找出棋盤上之角點 .................................................................... 14
圖3.4、x 軸與y 軸旋轉示意圖 ............................................................. 15
圖3.5、HSV 色彩模型 ........................................................................... 16
圖3.6、HSV 數值設定介面 ................................................................... 17
圖3.7、對黃色物體做ROI 框選 ........................................................... 19
圖4.1、特徵點比較圖:(a)原始圖片,(b) Harris Corner,(c) Susan,(d)
Harr,(e) Zheng,(f) Multisolution Contrast Based ................ 20
圖4.1、旋量分類圖 ................................................................................ 23
圖4.2、影像梯度變化:(a)邊緣,(b)角點,(c)面 ............................... 23
圖4.3、特徵點匹配過程:(a)左圖第一個特徵點與右圖所有特徵點做
比對,(b)左圖第二個特徵點與右圖所有特徵點做比對 ...... 24
圖4.4、特徵點匹配流程圖 .................................................................... 25
圖4.5、特徵點匹配結果 ........................................................................ 25
圖4.6、立體視覺模型 ............................................................................ 26
圖4.7、類神經網路架構 ........................................................................ 27
圖目錄
IV
圖4.8、三種轉移函數之圖示:(a)線性轉移函數,(b)對數雙彎曲轉移
函數,(c)正切雙彎曲轉移函數 .............................................. 29
圖5.1、人形機器人6 種動作示意圖:(a)前進,(b)後退,(c)左轉,(d)
右轉,(e)左平移,(f)右平移 .................................................. 32
圖5.2、人形機器人之標的物影像關係圖 ............................................ 33
圖5.3、人形機器人與目標物方位俯視圖:(a)機器人偏左,(b)機器人
正中,(c)機器人偏右............................................................... 34
圖5.4、人形機器人之標的物影像圖:(a)機器人位於圖5.3 a 位置之視
角畫面,(b)機器人位於圖5.3 b 位置之視角畫面,(c)機器人
位於圖5.3 c 位置之視角畫面 ................................................. 35
圖5.5、標的物之圖像:(a)位於圖5.3a 位置,(b)位於圖5.3b 位置,(c)
位於圖5.3c 位置 ...................................................................... 36
圖5.6、策略流程圖:狀態一 ................................................................ 38
圖5.10、策略流程圖:狀態五 .............................................................. 42
圖6.1、影像校正前與後的比較圖:(a)校正前影像,(b)校正後影像
................................................................................................... 43
圖6.2、標的物......................................................................................... 44
圖6.3、機器人與標的物在不同距離之特徵點擷取與匹配結果: (a)
50cm,(b) 60cm,(c) 70cm,(d) 80cm,(e) 90cm,(f) 100cm,
(g) 110cm,(h) 120cm,(i) 130cm,(j) 140cm,(k) 150cm,(l)
160cm,(n) 170cm,(m) 180cm,(o) 200cm,(p) 220cm,(q)
240cm,(r) 270cm,(s) 300cm ................................................ 44
圖6.3(續)、機器人與標的物在不同距離之特徵點擷取與匹配結果: (a)
50cm,(b) 60cm,(c) 70cm,(d) 80cm,(e) 90cm,(f) 100cm,
(g) 110cm,(h) 120cm,(i) 130cm,(j) 140cm,(k) 150cm,(l)
圖目錄
V
160cm,(n) 170cm,(m) 180cm,(o) 200cm,(p) 220cm,(q)
240cm,(r) 270cm,(s) 300cm ................................................ 45
圖6.3(續)、機器人與標的物在不同距離之特徵點擷取與匹配結果: (a)
50cm,(b) 60cm,(c) 70cm,(d) 80cm,(e) 90cm,(f) 100cm,
(g) 110cm,(h) 120cm,(i) 130cm,(j) 140cm,(k) 150cm,(l)
160cm,(n) 170cm,(m) 180cm,(o) 200cm,(p) 220cm,(q)
240cm,(r) 270cm,(s) 300cm ................................................ 46
圖6.3(續)、機器人與標的物在不同距離之特徵點擷取與匹配結果: (a)
50cm,(b) 60cm,(c) 70cm,(d) 80cm,(e) 90cm,(f) 100cm,
(g) 110cm,(h) 120cm,(i) 130cm,(j) 140cm,(k) 150cm,(l)
160cm,(n) 170cm,(m) 180cm,(o) 200cm,(p) 220cm,(q)
240cm,(r) 270cm,(s) 300cm ................................................ 47
圖6.3(續)、機器人與標的物在不同距離之特徵點擷取與匹配結果: (a)
50cm,(b) 60cm,(c) 70cm,(d) 80cm,(e) 90cm,(f) 100cm,
(g) 110cm,(h) 120cm,(i) 130cm,(j) 140cm,(k) 150cm,(l)
160cm,(n) 170cm,(m) 180cm,(o) 200cm,(p) 220cm,(q)
240cm,(r) 270cm,(s) 300cm ................................................ 48
圖6.3(續)、機器人與標的物在不同距離之特徵點擷取與匹配結果: (a)
50cm,(b) 60cm,(c) 70cm,(d) 80cm,(e) 90cm,(f) 100cm,
(g) 110cm,(h) 120cm,(i) 130cm,(j) 140cm,(k) 150cm,(l)
160cm,(n) 170cm,(m) 180cm,(o) 200cm,(p) 220cm,(q)
240cm,(r) 270cm,(s) 300cm ................................................ 49
圖6.3(續)、機器人與標的物在不同距離之特徵點擷取與匹配結果: (a)
50cm,(b) 60cm,(c) 70cm,(d) 80cm,(e) 90cm,(f) 100cm,
(g) 110cm,(h) 120cm,(i) 130cm,(j) 140cm,(k) 150cm,(l)
圖目錄
VI
160cm,(n) 170cm,(m) 180cm,(o) 200cm,(p) 220cm,(q)
240cm,(r) 270cm,(s) 300cm ................................................ 50
圖6.4、類神經演算法與校正影像之三角定位演算法實際測距比較折
線圖 ........................................................................................... 55

表目錄
表2.1、攝影機規格 .................................................................................. 5
表2.2、RX-12 伺服機規格....................................................................... 6
表2.3、RX-28 伺服機規格....................................................................... 6
表2.4、RX-64 伺服機規格....................................................................... 6
表2.5、TKU Board 單板電腦之系統規格 .............................................. 7
表4.1、類神經輸入及輸出 .................................................................... 31
表6.1、未校正影像之三角定位立體視覺的距離偵測結果 ................ 52
表6.2、校正影像之三角定位立體視覺的距離偵測結果 .................... 53
表6.3、類神經立體視覺的距離偵測結果 ............................................ 54
表6.4、未校正影像之三角定位、校正影像之三角定位與類神經演算
法的誤差比較 ........................................................................... 55
參考文獻 參考文獻
[1] http://www.robocup.org/
[2] http://www.fira.net/
[3] Tomono and Masahiro,“Robust 3D SLAM with a stereo camera based on an edge-point ICP algorithm,”IEEE International Conference on Robotics and Automation, pp.275-0016, 2009.
[4] 詹翔閔,人形機器人機構設計與應用,淡江大學電機工程學系碩士論文,民97。
[5] 黃楷翔,視覺自主人形機器人之設計與實現,淡江大學電機工程學系碩士論文,民95。
[6] G. Bradski and A. Kaebler, “Learning OpenCV,”O’REILLY, 2008.
[7] http://www.vision.caltech.edu/bouguetj/calib_doc/
[8] http://zh.wikipedia.org/wiki/HSL%E5%92%8CHSV%E8%89%B2%
E5%BD%A9%E7%A9%BA%E9%97%B4
[9] 求是科技,Visual C++ 數位影像處理大全,文魁資訊,2010。
[10] 莊仁輝,家用機器人之電腦視覺系統研究,行政院國家科學委員會專題研究計畫 期中進度報告,民91。
[11] C. Harris and M. Stephens, “A combined corner and edge detector,”
4th Alvey Vision Conference, pp.189-192, 1988.
[12] http://www.cse.psu.edu/~rcollins/CSE486/lecture06_6pp.pdf
[13]https://siddhantahuja.wordpress.com/tag/sum-of-absolute-differences-sad/
[14] http://zone.ni.com/devzone/cda/tut/p/id/8176
[15]http://zh.wikipedia.org/wiki/%E4%BA%BA%E5%B7%A5%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C
[16]尹相志,SQL Server 2008 Data Mining,悅知文化,民98。
[17] http://ktchenkm.iem.mcut.edu.tw/xms/read_attach.php?id=903
[18] P. Moreels and P. Perona, “Evaluation of features detectors and descriptors based on 3D objects,” International Jouranl of Computer Vision, Volume 73, Number 3, 263-284, 2007.
[19] R.Y. Tsai, “A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses,” IEEE Journal of Robotics and Automation, pp. 323-344, 1987.
[20] D. G. Lowe, “Distinctive Image Features from Scale-Invariant Keypoints,” Computer Science Department University of British Columbia, Vancouver, B.C., Canada, 2004.
[21] Z. Z. Rachid D, O. Faugeras, Q. T. Luong, “A robust technique for matching two uncalibrated images through the recovery of the unknown epipolar geometry,” Institut National De Recherche En Informatique Et En Automatique, 1992.
[22] P. Azad, T. Asfour, and R. Dillmann, “Combining Harris interest points and the SIFT descriptor for fast scale-invariant object recognition,” IEEE International Conference on Intelligent Robots and Systems, pp.4275 - 4280, 2009.
論文使用權限
  • 同意紙本無償授權給館內讀者為學術之目的重製使用,於2016-07-05公開。
  • 同意授權瀏覽/列印電子全文服務,於2016-07-05起公開。


  • 若您有任何疑問,請與我們聯絡!
    圖書館: 請來電 (02)2621-5656 轉 2281 或 來信