淡江大學覺生紀念圖書館 (TKU Library)
進階搜尋


下載電子全文限經由淡江IP使用) 
系統識別號 U0002-0608201210255600
中文論文名稱 基於SURF之實體物件辨識及其應用
英文論文名稱 SURF-based Object Recognition and Its Application
校院名稱 淡江大學
系所名稱(中) 電機工程學系碩士班
系所名稱(英) Department of Electrical Engineering
學年度 100
學期 2
出版年 101
研究生中文姓名 邱俊銘
研究生英文姓名 Chung-Ming Chiu
學號 698440103
學位類別 碩士
語文別 中文
口試日期 2012-07-10
論文頁數 76頁
口試委員 指導教授-謝景棠
委員-謝君偉
委員-謝景棠
委員-陳慶逸
委員-許志旭
委員-林慧珍
中文關鍵字 加速強健特徵  CAMSHIFT演算法  擴增實境  無標誌 
英文關鍵字 SURF  CamShift  Augmented Reality  markerless 
學科別分類 學科別應用科學電機及電子
中文摘要 博物館一直以來都具有重要的地位,收藏有意義之歷史古蹟、文物、作品,隨著時代演變至今,多媒體影音媒體已成為資訊來源的另一起新秀,其在聲光影音部份都為過去平面書籍所無法提供,如須呈現動態3D、影音呈現的內容時,書籍依然受傳統印刷形式限制而無法呈現上述形式的資訊。因此本文以淡江大學海事博物館為例,期以達到多元的影音經驗與資訊。

本論文以加速強健特徵(speeded-up robust features, SURF)為基礎,使用CamShift (Continuously Adaptive Mean Shift)對SURF 特徵區域做追蹤。SURF 是在尺度空間(scale space)中尋找穩定點,計算其主要方向,用於匹配特徵點的對齊,而後在鄰近區域內的Haar 小波響應當作紋理特徵進而對特徵點加以描述,因此可以克服物件辨識中影像的縮放大小、旋轉變化、光影變幻等干擾,再利用CamShift來追蹤使用者響導覽的物件,進而顯示擴增實境令使用者有不同的視覺感受.
英文摘要 The museum has important status in all the time, collection of significant historical sites, artifacts, works with the changing times so far,but along with the time evolution, the multimedia has until now become the information to originate together is in addition beautiful, it all was unable in the acousto-optic video and music part for the past plane books to provide, when like had to present the content which dynamic 3D, the video and music presented, the books still received the traditional printing form to limit to are unable to present the above form the information.


In this thesis, in order to accelerate the robust features (speeded-up robust features, SURF), based on use CamShift (Continuously Adaptive Mean Shift) SURF feature regions to follow them. SURF is to find a stable point in the scale space (scale space), to calculate the main direction of alignment for matching feature points, then the Haar wavelet response in the neighboring area and then the feature point described as the texture features, so you can overcome the interference of object recognition, image zoom size, rotate, changing light and shadow, re-use CamShift to track the user sound guide to the object, and then display the augmented reality users have different visual experience.
論文目次 目錄
致謝 I
中文摘要 II
英文摘要 III
目錄 IV
圖目錄 VI
表目錄 VIII
第1章 緒論 1
1.1研究動機 1
1.2研究方法 3
1.3論文架構 3
第2章 基礎技術與相關研究 4
2.1相關研究與討論 4
2.2 相關技術 9
2.2.1 尺度空間 9
2.2.2 SURF特徵 [11] 11
2.2.3 彩色模型 19
2.2.4 CamShift 22
2.2.5 擴增實境 26
第3章 基於SURF與CamShift之實體物件辨識及擴增實境 35
3.1 系統流程 35
3.2資料庫建立 36
3.3 SURF特徵點偵測 40
3.4 匹配 43
3.4.1 特徵描述子的匹配 44
3.5 CamShift追蹤 45
3.5.1 追蹤流程圖 45
3.5.2 追蹤步驟 46
3.5 顯示擴增實境 48
3.5.1 顯示擴增實境流程圖 49
第4章 實驗 52
4.1 實驗環境 52
4.2強健性測試 52
4.2.1複雜背景下測試 52
4.2.2有效距離之測試 54
4.2.3環境干擾下測試 57
4.2.4背景環境變化下測試 59
4.3系統比較 60
4.3.1 有標誌與無標誌 60
4.3.2 SURF與CamShift 61
4.3.3 實體與平面 64
4.3.4 資料庫 66
第5章 結論與未來展望 72
5.1 結論 72
5.2 未來展望 73
参考文獻 74



圖目錄
圖1.1 (a)為大英博物館 (b)博物館內復活節島毛伊石像 1
圖1.2 (a)為博物館內導覽人員 (b)數位導覽方式 2
圖1.3 AR的產品應用 3
圖2.1 張樹安所提出之AR應用[1] 4
圖2.2 陳連福等人利用QR code所提出之AR應用[2] 5
圖2.3 [3]所提出之利用定位之AR應用 6
圖2.4 周承諺運用AR,令使用者加深導覽經驗[4]. 7
圖2.5 郭等人運用隱形招牌技術於戶外導覽[5]. 8
圖2.6 Burdea[10]虛擬實境三大特性 9
圖2.7 影像金字塔示意圖 10
圖2.8 高斯尺度參數越大影像越模糊 11
圖2.9 (x,y)的積分影像值 12
圖2.10 原始影像與積分影像分布圖 12
圖2.11 利用積分影像計算原影像中矩形區域內像素值總和 13
圖2.12 y方向和xy方向的高斯二階差分運算子 14
圖2.13 不同遮罩大小變化示意圖 15
圖2.14 SURF及SIFT尺度空間金字塔 15
圖2.15 X為項素質特徵點 16
圖2.16 選擇主方向示意圖 17
圖2.17 特徵向量描述子示意圖 18
圖2.18 不同紋理在dx'、 dy'、 dx、dy的示意圖 18
圖2.19 RGB色彩模型 20
圖2.20 HSI色彩模型 21
圖2.21 色彩直方圖結果 22
圖2.22 可看出搜尋框由(a)開始至(d)搜尋框不斷地朝向質心靠近 24
圖2.23 [19]ARToolkit的運作原理方式 27
圖2.24 QRcode 讀取方式 27
圖2.25 各種常見的擴增實境的標誌。 28
圖2.26 [21]使用者可自己更改家具擺設 29
圖2.27 [22]利用書當標誌顯示AR 30
圖2.28 [23]實驗結果 31
圖2.29 [24]實驗結果 32
圖2.30 [25]實驗結果 33
圖2.31 [25]實驗結果 33
圖2.32 [27]實驗結果 34
圖3.1 系統流程圖 35
圖3.2 平面展示作品資料庫 36
圖3.3 兩種不同類別實體船隻 37
圖3.4 針對靠牆壁船隻三種角度取特徵 38
圖3.5 大和號8種不同角度的拍攝 39
圖3.6 針對靠牆壁船隻三種角度取特徵 40
圖3.7 不同遮蔽結果 41
圖3.8 大範圍遮蔽的影響 41
圖3.9 複雜環境中 42
圖3.10 (a)原圖 (b)原圖的特徵點 (c)SURF辨識結果 43
圖3.11 系統流程圖 45
圖3.12 SURF匹配到船隻後找到對應圖 46
圖3.13 針對原圖色彩直方圖做反投影 47
圖3.14 不受其他展覽物影響,亦可繼續即時追蹤 48
圖3.15 顯示AR流程圖 49
圖3.16 (a)~(l)為拍照鐵達尼在螢幕上所顯示出3D擴增實境 50
圖3.17 海霸王號所顯示出擴增實境導覽文字 51
圖4.1 (a)-(d)複雜環境下本系統之CamShift追蹤結果 53
圖4.2 本系統追蹤抓取失敗之影像 54
圖4.3 本系統有效距離測試 56
圖4.4 本系統不同程度干擾測試 57
圖4.5 環境干擾之影響結果 58
圖4.6 (a)-(d)背景變化與干擾下本系統之運作影像 59
圖4.7 [2]實驗結果與本系統實驗結果 61
圖4.8 (a)(b)為SURF傾斜結果 (d)(e)為CamShift傾斜結果 62
圖4.9 (a)~(c)為SURF遮蔽之結果 (d)~(f)為CamShift遮蔽之結果 63
圖4.10 [2][4][5]實驗結果與本系統實驗結果 64
圖4.11 本系統立體物件實驗結果 65
圖4.12 兩張不同角度訓練圖 66
圖4.13 四張不同角度隻訓練圖 67
圖4.11 六張不同角度之訓練圖 68
圖4.12 本系統所使用之8張訓練用圖 69
圖4.13 旋轉360度辨識成功實驗結果 70
圖4.14 旋轉360失敗之結果 71

表目錄
表2.1 [13]SIFT,PCA-SIFT 與SURF 的實驗結果 19
表4.1 本系統於複雜背景下之追蹤成功率 54
表4.2 本系統於環境干擾下之追蹤成功率 58
表4.3 本系統於背景變化下之追蹤成功率 60
表4.4 SURF與加上CamShift傾斜結果 62
表4.5 SURF與加上CamShift遮蔽結果 63
表4.6 訓練兩張影像之結果 66
表4.7 訓練四張影像之結果 67
表4.8 訓練六張影像之結果 68
表4.9 訓練八張影像之結果 69
表4.10 訓練不同角度張數之結果 71
參考文獻 [1] 張樹安,3D 擴增實境應用於行動導覽之研究,國立政治大學數位內容碩士學位課程碩士論文,民國一百年。

[2] 陳連福、洪琮昇、杜青原,數位典藏導覽資訊輔助閱讀之研究,資
管理暨商務科技研討會(IMCT),2008。

[3]白仁德和邱式鴻,以智慧型行動裝置進行即時校園導覽,國立政治大
學地政學系,校務發展研究計畫,民國九十九年。

[4]周承諺,應用於古蹟建築導覽之行動研究擴增實境使用者介面,大同大學工業設計研究所碩士論文,民國九十九年。

[5]郭其綱和鄭泰昇,擴增實境定位技術應用於建築與城市戶外導覽之研
究—以「古蹟導覽系統」與「隱形招牌」應用為例,中華民國建築學會「建築學報」第66 期,p145~146,2008。

[6] T. Iijima, "Basic theory of pattern normalization," Bulletin of The Electrotechnical Laboratory, pp. 368-388, 1962.

[7] A. P. Witkin, "Scale space filtering," Proceedings of the International Joint Conference on Artificial Intelligence, pp. 1019-1021, 1983.

[8] J. J. Koenderink, "The structure of image," Biological Cybernetics, pp. 363-370, 1984.

[9] J. Sporring, "The entropy of scale-sapce," Proceedings of the 13th International Conference on Pattern Recognition, pp. 900-904, 1996.

[10] Grigore Burdea and Philippe Coiffet, "Virtual Reality Technology", Teleoperators and Virtual Environments, Vol. 12, No. 6, Pages 663-664, 1994.

[11] Herbert Bay, "Speeded-Up Robust Features (SURF), "Herbert Computer Vision and Image Understanding 110 (2008) 346–359, 2007.

[12] D. G. Lowe, "Distinctive image features from scale-invariant keypoints," International Journal of Computer Vision, vol. 60, pp. 91-110, 2004.

[13] L. Juan and O. Gwun, "A comparison of SIFT, PCA-SIFT and SURF," International Journal of Image Processing, vol. 3, pp. 143-152, 2009.

[14] K. Fukunaga, Introduction to Statistical Pattern Recognition,Boston:Academic Press, 1990.

[15] Z. Zhang, “A flexible new technique for camera calibration,” IEEE Transactions on Pattern Analysis and Machine Intelligence22, 2000.

[16]http://www.wisdom.weizmann.ac.il/~vision/courses/2004_2/files/mean_shift/mean_shift.ppt

[17] G. R. Bradski, “ Computer vision face tracking for use in a perceptual user interface,” Intel Technology Journal, 2nd Quarter, 1998.

[18] Azuma R., “A Survey of Augmented Reality,” Teleoperators and Virual Environments, pp355-385, 1997.

[19] http://www.hitl.washington.edu/artoolkit/documentation/

[20] Edris I, “Mobile learning and video games, “ MSc Computer and Internet Technologies University of Trathclyde, 2009.

[21]莊寧,擴增實境導入家具賣場行銷研究。國立雲林科技大學
工業設計系碩士論文,民國九十六年。

[22] Mark Billinghurst, Julian Looser and Andy Cockburn, “ The MagicBook: a transitional AR interface “. Computers & Graphics 25, pp. 745–753, 2001.

[23] Ohan Oda, Levi J. Lister, Sean White, Steven Feiner, “Developing an augmented reality racing game,” Proceedings of the 2nd international conference on Intelligent Technologies for interactive entertainment, 2008.

[24] Hsi-Chun Wang, Wen-Hsin Liu, Chia-Long Chang, and Yi-Hui Chen, "Design of Halftone-Based AR Markers under Infrared Detection," CSSE, International Conference on Computer Science and Software Engineering, vol. 6, pp.97-100, 2008.

[25] Y. Nakazato, M. Kanbara, N. Yokoya, “Localization of wearable users using invisible retro-reflective markers and an IR camera,” Proc. SPIE Electronic Imaging, vol.5664,pp. 1234–1242, 2005.

[26] Hanhoon Park and Jong-Il Park, “Invisible Marker Based Augmented Reality System, “ Proceedings of the SPIE, Vol. 5960, pp. 501-508 , 2005.

[27]Yuki Nota, Yasuyuki Kono, “Augmenting Real-world Objects by Detecting “Invisible” Visual Markers”, UIST’08, October 19–22, 2008.
論文使用權限
  • 同意紙本無償授權給館內讀者為學術之目的重製使用,於2012-08-14公開。
  • 同意授權瀏覽/列印電子全文服務,於2012-08-14起公開。


  • 若您有任何疑問,請與我們聯絡!
    圖書館: 請來電 (02)2621-5656 轉 2281 或 來信