§ 瀏覽學位論文書目資料
  
系統識別號 U0002-0307201221444800
DOI 10.6846/TKU.2012.00106
論文名稱(中文) 無標誌擴增實境之實現-利用Kinect的觸摸人機介面設計
論文名稱(英文) Kinect-Based Touch Interface for Markless AR
第三語言論文名稱
校院名稱 淡江大學
系所名稱(中文) 電機工程學系碩士班
系所名稱(英文) Department of Electrical and Computer Engineering
外國學位學校名稱
外國學位學院名稱
外國學位研究所名稱
學年度 100
學期 2
出版年 101
研究生(中文) 郭泰谷
研究生(英文) Tai-Ku Kuo
學號 600440068
學位類別 碩士
語言別 繁體中文
第二語言別
口試日期 2012-06-18
論文頁數 68頁
口試委員 指導教授 - 謝景棠
委員 - 謝景棠
委員 - 陳稔
委員 - 謝君偉
委員 - 蘇木春
委員 - 顏淑惠
關鍵字(中) 人機互動
立體視覺
觸控螢幕介面
Markerless
AR
SVM
Kinect
關鍵字(英) Human–Computer Interaction
touch screen interface
Markerless
AR
SVM
Kinect
第三語言關鍵字
學科別分類
中文摘要
本研究提出利用Kinect垂直架設於桌面上所抓取之深度影像,經過多種處理後,產生一個類似觸控螢幕介面,讓使用者可以利用此介面進行繪畫,完成繪畫後,使用者便可以輸入此圖片之資料;本篇利用SVM訓練並分類得知此資料的類別,再將此資料對應之內建AR取出再放入Kinect彩色影像中的桌面上,使用者即可利用類似觸控螢幕之介面來控制AR,最後輸出一種可與使用者互動之無標記AR。在研究結果中顯示,我們可以訓練不同的繪畫影像,例如圓形、多邊形來做為顯示虛擬物件之基準,達到不用特定的標誌呈現3D 虛擬物件,於本系統中呈現出不錯之效果。但是如果使用者手位移速度太快,會提高系統之錯誤。未來希望以互動做為研究方向的重點,以增加更多AR之互動,並且提升繪畫部分的速度,達到寓教於樂等多重之目的。
英文摘要
We develop an augmented reality (AR) environment with hidden-marker via touch interface using Kinect device and then also set up a touch painting game with the AR environment. 
This environment is similar to that of the touch screen interface which allows user to paint picture on a tabletop with his fingers, and it is designed with depth image information from Kinect device setting up above a tabletop. 
We incorporate support vector machine (SVM) to classify painted pictures which correspond to the inner data and call out its AR into the tabletop in color images information from Kinect device. Because users can utilize this similar touch interface to control AR, we achieve a markerless AR and interactive environment.
第三語言摘要
論文目次
目錄
致謝                       	I
中文摘要                     	II
英文摘要                    	III
目錄                        	IV
圖目錄                        	VI
表目錄                    	IX
第1章  緒論               	1
1.1研究動機                     	1
1.2研究方法                     	4
1.3論文架構                 	4
第2章  相關研究與背景知識     	5
2.1相關研究               	5
2.2 相關技術                     	12
2.2.1 KINECT            	12
2.2.2 深度影像建立方法       	14
2.2.3連通法               	18
2.2.4形態學               	21
2.2.5 擴增實境            	25
2.2.6 SVM演算法           	28
第3章  觸摸繪畫和無標記擴增實境系統	32
3.1 系統架構              	32
3.2 Kinect輸出之影像      	33
3.3前處理形成觸摸繪畫介面     	34
3.4 SVM訓練及分類         	37
3.5 AR的3D影像合成          	38
3.6 系統操控模式           	40
3.6.1系統控制流程          	40
3.6.2繪畫控制              	41
3.6.3AR控制               	42
第4章 實驗結果           	        45
4.1 實驗環境               	46
4.2 介面比較              	46
4.3 SVM筆跡辨識測試比較     	49
4.4有標誌擴增實境與無標誌擴增實境	51
4.5系統強健性測試	                54
4.5.1遮蔽下之本系統執行測試   	55
4.5.2桌面有放置物體環境下系統執行測試	56
4.5.3光影變化環境下之系統執行測試	59
4.5.4照射牆壁下之系統執行測試	60
4.6系統相關應用-打地鼠             	61
第5章  結論與未來展望           	64
5.1 結論                      	64
5.2 未來展望                   	65
参考文獻                    	66

圖目錄
圖1.1體感套件遊戲機	1
圖1.2體感遊戲機XBOX360	2
圖1.3觸控輸入	2
圖1.4人性化互動界面	3
圖2.1Joe等人手指壓力顏色變化來判斷是否觸碰[1] 	5
圖2.2 Wilson提出用Kinect觸控介面[2] 	6
圖2.3 Kato和Billinghurst所提出用標誌定位虛擬物件[3] 	7
圖2.4 Lee等人所提出將標誌以浮水印之方式嵌入[4] 	8
圖2.5 Wang等人提出加入紅外線數位浮水印[5] 	9
圖2.6 Chen等人用自然標記虛擬物件呈現真實世界中[6] 	10
圖2.7 Taehee Lee等人利用手當座標[7] 	10
圖2.8 Nate Hagbi等人利用筆跡AR[8] 	11
圖2.9 Kinect	12
圖2.10 Kinect架構圖引用於PrimeSensor[10] 	13
圖2.11 Kinect輸出之彩色影像與深度資訊影像	14
圖2.12雙眼三角測距示意圖[8] 	15
圖2.13結構光掃描示意圖[11] 	16
圖2.14 Light Coding技術示意圖[13] 	17
圖2.15 4-neighborhood	20
圖2.16連通法九宮格	21
圖2.17物件連通法實驗圖(a)(b) 	21
圖2.18形態學(a)(b)(c)(d) 	23
圖2.19現實-虛擬連續統示意圖	26
圖2.20 SVM解釋圖 	29
圖3.1本系統流程圖	32
圖3.2 Kinect輸出之影像	33
圖3.3本系統工作環境	34
圖3.4 Wilson觸控示意圖[2] 	34
圖3.5彩色影像(左)和有雜訊的二值化影像(右) 	35
圖3.6手部深度資訊對於桌面關係(左)及去雜訊流程圖(右)	36
圖3.7彩色影像(左)和去雜訊後並標籤圖(右) 	36
圖3.8觸控畫出圖片簡易示意圖	37
圖3.9 SVM與系統簡易示意圖	38
圖3.10 SVM二維模型示意圖	38
圖3.11影像投影示意圖	39
圖3.12 AR影像與手指互動	39
圖3.13 AR虛擬物件與手指互動輸出擴增實境輸出圖	40
圖3.14本系統控制流程圖	41
圖3.15本系統繪畫控制介面	42
圖3.16 AR虛擬物件利用手指放大	43
圖3.17 AR虛擬物件利用手指縮小	43
圖3.18 AR虛擬物件利用手指移動定位位置(a)	44
圖3.19 AR虛擬物件利用手指移動定位位置(b)	44
圖3.20 AR虛擬物件利用手指控制其定位角度(a)	45
圖3.21 AR虛擬物件利用手指控制其定位角度(b)	45
圖4.1 微軟發售的Kinect	46
圖4.2 Nate Hagbi等人使用之介面[8] 	47
圖4.3 Su和Hsiao使用之介面[18] 	48
圖4.4本系統使用之介面	49
圖4.5(a)-(d) 利用標誌擴增實境輸出茶壺物件	52
圖4.6(a)-(d) 本系統擴增實境輸出茶壺物件	52
圖4.7(a)-(d) 利用標誌擴增實境輸出方塊物	53
圖4.8(a)-(d) 本系統擴增實境輸出方塊物件	54
圖4.9(a)-(d) 遮蔽物影響擴增實境輸出	55
圖4.10桌面放置物體觸控介面輸出	56
圖4.11桌桌面物體不影響擴增實境輸出	57
圖4.12受桌面物體影響擴增實境輸出	58
圖4.13受桌面物體影響控制擴增實境輸出	58
圖4.14光源黑暗系統實驗輸出	59
圖4.15光源黑暗普通標誌AR實驗輸出	59
圖4.16改成利用牆壁的實驗環境	60
圖4.17牆壁環境移動虛擬物件	60
圖4.18牆壁環境放大縮小虛擬物件	61
圖4.19牆壁環境改變虛擬物件形狀	61
圖4.20遊戲開始建置背景等候畫面	62
圖4.21擊中目標輸出	62
圖4.22未擊中目標輸出	63
圖4.23擊結束顯示分數	63

表目錄
表3.1  Kinect深度影像不同距離的灰階值變化	33
表4.1 Su和Hsiao筆跡影像辨識結果[18] 	50
表4.2 SVM筆跡影像訓練10張辨識結果	50
表4.3 SVM筆跡影像訓練100張辨識結果	51
參考文獻
[1] Joe Marshall, Tony Pridmore, Mike Pound, Steve Benford, and Boriana Koleva,“Pressing the Flesh: Sensing Multiple Touch and Finger Pressure on Arbitrary Surfaces,” LNCS 5013, p. 38–55, 2008.

[2] Andrew D. Wilson, “Using a Depth Camera as a Touch Sensor,”  ITS’10, Saarbrucken, Germany, 2010. 

[3] H. Kato and M. Billinghurst, “Marker tracking and hmd calibration for a video-based augmented reality conferencing system,” In 2nd IEEE and ACM International Workshop on Augmented Reality, p. 85-94, 1999. 

[4] Hong Ro Lee, Jung Sub Shin and Chi Jung Hwang,“Invisible Marker Tracking System Using Image Watermarking for Augment,” ICCE 2007. Digest of Technical Papers, p. 1 - 2, 2007. 

[5] Hsi-chun Wang, “Innovative Image Display with the Integration of Infrared Digital Watermark and Augmented Reality,” Journal of Technology vol. 24 no. 3 p. 213-219, 2009. 

[6] Zhuo Chen and Xinyu Li , “Markless Tracking based on Natural Feature for Augmented Reality,” IEEE International Conference on Educational and Information Technology (ICEIT) vol. 2, p. 126 – 129, 2010. 

[7] Taehee Lee and Tobias Hollerer, “Handy AR: Markerless Inspection of Augmented Reality Objects Using Fingertip Tracking,” IEEE ISWC, p. 83-90, 2007. 

[8] Nate Hagbi, Raphael Grasset, Oriel Bergig, Mark Billinghurst, and Jihad El-Sana, “In-Place Sketching for Content Authoring in Augmented Reality Games,” IEEE, p. 91-94, 2010.

[9] http://www.xbox.com/zh-TW/kinect

[10] http://www.primesense.tw/?p=741

[11] 張量鈞,基於立體視覺之手掌位移辨識系統,淡江大學電機工程學系碩士論文,民國九十九年。
[12] http://www.stockeryale.com/i/lasers/structured_light.htm

[13]Pasi Palojarvi,“Integrated electronic and optoelectronic circuits and devices for pulsed time-of-flight laser rangefinding,” Department of Electrical and Information Engineering and Infotech Oulu, University of Oulu,2003.

[14]http://www.bb.ustc.edu.cn/jpkc/guojia/dxwlsy/kj/part2/grade3/LaserSpeckle.html

[15] Albitar, I.C., Graebling, P., and Doignon, C.,“ Robust Structured Light Coding for 3D Reconstuction,” IEEE 11th International Conference on Computer Vision, p.1-6.2007.

[16]V.Vapnil., “Satistical Learning Theory,”  New York, 1998.

[17]V.Vapnil., “The Nature of Statistical Learning Theory,” 2nd edition,  New York, 1999.

[18] Mu-chun Su and, Ting-huan Hsiao, “An Interactive Platform on Which Painting Mingles with Storytelling,” Master paper on Department of Computer Science and Information Engineering at National Central University, 2011. 

[19]Chih-Chung Chang and Chih-Jen Lin, “LIBSVM -- A Library for Support Vector Machines,” Network : http://www.csie.ntu.edu.tw/. 

[20]CHRISTOPHER J.C. BURGES, “A Tutorial on Support Vector Machines for Pattern Recognition,” Data Mining and Knowledge Discovery, vol. 2, no. 2, p. 121-167, 1998. 

[21]Asa Ben-Hur and Jason Weston, “A User's Guide to Support Vector Machines,” Data Mining Techniques for the Life Sciences Methods in Molecular Biology, vol. 609, pp. 223-239, 2010. 

[22]Lifeng He, Yuyan Chao, Kenji Suzuki, and Hidenori Itoh, “A FAST FIRST-SCAN ALGORITHM FOR LABEL-EQUIVALENCE-BASED
CONNECTED-COMPONENT LABELING,” IEEE(ICIP), 2009.

[23]T.Y. ZHANG and C.Y. SUEN, “A Fast Parallel Algorithm for Thinning Digital Patterns,” ACM Vol. 27 N0. 3, 1984.

[24] Gonzalez, Woods “Digital Image Processing”.

[25] 陳冠廷,基於Kinect之雙手位移辨識系統,淡江大學電機工程學系碩士論文,民國一百年。

[26]http://zh.wikipedia.org/wiki/%E5%A2%9E%E5%BC%BA%E7%8E%B0%E5%AE%9E

[27]http://zh.wikipedia.org/wiki/%E6%94%AF%E6%8C%81%E5%90%91%E9%87%8F%E6%9C%BA
論文全文使用權限
校內
紙本論文於授權書繳交後2年公開
同意電子論文全文授權校園內公開
校內電子論文於授權書繳交後2年公開
校外
同意授權
校外電子論文於授權書繳交後2年公開

如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信