§ 瀏覽學位論文書目資料
  
系統識別號 U0002-2907202019300800
DOI 10.6846/TKU.2020.00874
論文名稱(中文) 結合深度學習與觸覺回饋體驗之桌上型視聽娛樂裝置設計
論文名稱(英文) Design of Desktop Audiovisual Entertainment Device Combining with Deep Learning and Haptic Feedback
第三語言論文名稱
校院名稱 淡江大學
系所名稱(中文) 電機工程學系碩士班
系所名稱(英文) Department of Electrical and Computer Engineering
外國學位學校名稱
外國學位學院名稱
外國學位研究所名稱
學年度 108
學期 2
出版年 109
研究生(中文) 許哲儒
研究生(英文) CHE-JU HSU
學號 607450193
學位類別 碩士
語言別 繁體中文
第二語言別
口試日期 2020-07-03
論文頁數 69頁
口試委員 指導教授 - 周建興(chchou@mail.tku.edu.tw)
委員 - 蘇木春(muchun.su@g.ncu.edu.tw)
委員 - 李揚漢(yhleepp@gmail.com)
委員 - 江正雄(jsken.chiang@gmail.com)
關鍵字(中) 深度學習
觸覺回饋
物件辨識
關鍵字(英) Object Detection
Deep learning
haptic feedback
第三語言關鍵字
學科別分類
中文摘要
此論文設計一套桌上型影音娛樂系統為了滿足新一代的視聽影音享受,只要將一部影片放入此系統中,就能夠辨識出影片中每秒出現的物件,並且給予觸覺回饋,讓一部普通的影片瞬間擁有4D的震撼效果,增強使用者的感官體驗,故我們將此裝置命名為Sense。
    在Sense的硬體設計方面採用模組式設計,可以在面對不同類型的的影片有更多不一樣的搭配,每個模組都有獨特的代號,系統會去偵測目前模組的位置和類型給予正確的回饋,目前一共有六種不同的觸覺回饋,這六種模組可以單獨使用,也可以給予到複合式的回饋,例如:水+風可以達到冷的效果,這六種模組加上排列組合就能夠應對目前絕大部分的情境。
    在軟體方面Sense設計了一個專用的影片播放介面,因為每一部影片都必須經過前處理才能觀看,但是前處理的時間相當短,而且可以做到完全沒有延遲。前處理的步驟主要是將影片先轉換幀數並且每秒切成一張照片,再將每一張透過google cloud vision或自己訓練的模型去辨別照片場景物件,每張照片都會決定這六個模組是否要開啟,假如該照片場景物件內有可以對應的觸覺回饋,該照片則會標示對應模組開啟,最後輸出的結果會剛好跟影片的時間軸每一秒對應起來,因此在觀看影片時每秒都會開啟相對應的回饋。
    在場景辨識時,因為google cloud vision並不能有效的辨識出動畫影片,所以此論文為此訓練了一個SSD模型去辨識動畫,以達成此系統的完整性,特別以火來當作訓練的示範,證明此方法的可行性,若有其他類別的資料數據也能完成相同訓練。
英文摘要
In this study, we developed a set of interactive devices for home 4D-cinema, named as SENSE, in order to satisfy a whole new experience of in house digital entertainment. SENSE has 6 different kinds of haptic modules which are able to be applied in various entertainment applications. These modules can be swapped to places with each other, users could easily change these modules based on different using scenario.
we make this device, Sense is a system that can convert a normal movie into a 4D movie. With the device, we can provide a variety of tactile feedback. We analyzed many movies and discussed What kind of feedback should be given to the movie scene, After integration, we determined six feedback to be our module, These six modules can correspond to most of scene. We think that these feedbacks are enough for users have Immersive experience.
第三語言摘要
論文目次
致謝	I
中文摘要	 II
英文摘要	 IV
目錄	V
圖目錄	IX
表目錄	XI
第一章	緒論	1
1.1	前言	1
1.2	研究動機和目的	1
第二章	背景知識與相關研究	4
2.1	影音娛樂趨勢	4
2.2	觸覺回饋	6
2.3	物件辨識	9
2.4	Mxnet	10
2.5參考背景總結	12
第三章	Sense硬體設計	13
3.1	Sense功能介紹	13
3.2	Sense主體設計	15
3.3	熱燈模組	19
3.4	熱風模組	21
3.5	噴水模組	22
3.6	氣味模組	24
3.7	風扇模組	27
3.8	震動模組	28
3.9	模組規格	30
第四章	Sense軟體設計	32
4.1	使用者介面	32
4.1.1	體驗介面	32
4.1.2	娛樂介面	34
4.2	介面功能介紹	35
4.2.1	裝置與軟體溝通	35
4.2.2	模組位置偵測功能	35
4.3	影片前處理	36
4.3.1	影片切換幀數	36
4.3.2	辨識結果字串	37
4.4	Google cloud vision	40
4.5	動畫模型	41
第五章	訓練動畫模型	42
5.1	資料集準備	42
5.1.1	資料標記	43
5.1.2	資料集格式轉換	45
5.2	開始訓練	47
5.3	訓練結果評估方法	49
第六章	系統實驗測試	51
6.1	硬體系統測試	51
6.2	觸覺回饋系統測試	52
6.3	AI系統測試	54
6.3.1	AP平均精度計算	54
6.3.2	Google cloud vision比較	59
第七章	結論與未來展望	64
附錄一 問卷模組感受度測試	65
附錄二 模組開啟合理性測試	66
附錄三 使用者滿意度測試	67
參考文獻	68

圖目錄
圖2.1 Haptic case 實體圖  	5
圖2.2 Haptwist 遊玩畫面  	7
圖2.3多重觸覺回饋之穿戴式模組遊玩畫面  	8
圖2.4 atmoSphere 裝置圖  	9
圖3.1 系統流程圖  	14
圖3.2 主幹設計輔助線示意圖  	16
圖3.3 裝置腳位模組示意圖  	18
圖3.4  熱燈模組  	20
圖3.5  熱風模組  	21
圖3.6  噴水模組  	22
圖3.7  噴水模組控制電路板  	23
圖3.8  氣味模組  	25
圖3.9  氣味模組控制電路板  	26
圖3.10  風扇模組  	27
圖3.11  震動模組  	29
圖4.1  Sense體驗介面  	33
圖4.2  Sense娛樂介面  	34
圖4.3  影片轉換過程  	37
圖4.4  google cloud vision辨識過程  	38
圖5.1 部分照片data  	42
圖5.2 Labelimg標記介面  	43
圖5.3 XML資料內容  	44
圖5.4 模型讀取資料格式  	46
圖5.5 mobilenet網路架構  	48
圖5.6 IoU計算方法  	49
圖6.1(a)平均精度AUG圖  	57
圖6.1(b)平均精度AUG圖  	58
圖6.2一分鐘測試影片每秒畫格  	59
圖6.3動畫模型辨識結果範例  	60
圖6.4 google cloud vision辨識結果範例  	61

表目錄
表3.1 元件規格表  	30
表4.1 模組種類對應代碼  	35
表4.2  需開關模組之物件名稱輸出對照表  	39
表6.1平均精度測試過程  	56
表6.2 google cloud vision和動畫訓練模型比較表  	62
參考文獻
[1] S.F. Ko, “The Study by Applying Multiple Haptic Feedback for Human–Computer Interaction – Applications of Immersive Experience and Teaching Aid Design,” Tamkang University, Jun 2017, pp.28-30
[2] B. Banter, “Enabling Technology: Touch Screens and Touch Surfaces are Enriched by Haptic Force-Feedback,” InformationDisplay, vol. 26, no. 3, Mar 2010, pp. 26–30. 
[3] K. Zhu, T. Chen, F. Han, Y.S. Wu, “HapTwist: Creating Interactive Haptic Proxies in Virtual Reality Using Low-cost Twistable Artefacts,” CHI '19: Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems, Paper No.: 693,May 2019 ,Pages 1–13
[4] H. Hsieh, “The Wearable Device Design Based on Multiple Haptic Feedback,” Tamkang University, Jun 2017, p42-p43
[5] H. Fushimi, D. Kato, Y.  Kamiyama, K. Yanagihara, K. Minamizawa, K. Kunze, “atmoSphere: designing cross-modal music experiences using spatial audio with haptic feedback,” Proc ACM SIGGRAPH 2017 Emerging Technologies (SIGGRAPH 17), Los Angeles, CA,August, 2017.
[6] W. Liu, D. Anguelov, D. Erhan, C. Szegedy, S. Reed , C.Y. Fu, A.C. Berg , “SSD: Single Shot MultiBox Detector,” ECCV , arXiv:1512.02325 [cs.CV] Dec , 2016 
[7] J. Redmon, A. Farhadi, “YOLOv3: An incremental Improvement,” Tech Report,
arXiv:1804.02767 [cs.CV], Apr 2018
[8] T. Chen, M. Li, Y. Li, M. Lin, N. Wang, M. Wang, T. Xiao, B. Xu, 
C. Zhang, Z. Zhang , ”MXNet: A Flexible and Efficient Machine Learning Library for Heterogeneous Distributed Systems,” In Neural Information Processing Systems Workshop on Machine Learning Systems, arXiv:1512.01274 [cs.DC],Dec 2015
[9] J. Guo, H. He, T. He, L. Lausen, M. Li, H. Lin, X. Shi, C. Wang, Junyuan Xie, 
S. Zha, A. Zhang, H. Zhang, Z. Zhang, Z. Zhang, S. Zheng, Y. Zhu , “GluonCV and GluonNLP: Deep Learning in Computer Vision and Natural Language Processing,” Machine Learning (cs.LG); Computation and Language (cs.CL); Computer Vision and Pattern Recognition (cs.CV); Machine Learning (stat.ML)
arXiv:1907.04433 [cs.LG], Jul 2019
[10] A.G. Howard, M. Zhu, B. Chen, D. Kalenichenko, W. Wang, T. Weyand, 
M. Andreetto, H. Adam,”MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications ,”Computer Vision and Pattern Recognition (cs.CV) arXiv:1704.04861 [cs.CV] , Apr 2017
[11] S. Ioffe, C. Szegedy , “Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift,” Machine Learning (cs.LG) arXiv:1502.03167 [cs.LG], Mar 2015
[12] H. Rezatofighi, N. Tsoi, J.Y. Gwak, A. Sadeghian, I. Reid, S. Savarese,” Generalized Intersection over Union: A Metric and A Loss for Bounding Box Regression, “CVPR 2019, arXiv:1902.09630 [cs.CV], Apr 2019
[13] 深度學習系列:甚麼是AP/.mAP URL: https://medium.com/@chih.sheng.huang821/%E6%B7%B1%E5%BA%A6%E5%AD%B8%E7%BF%92%E7%B3%BB%E5%88%97-%E4%BB%80%E9%BA%BC%E6%98%AFap-map-aaf089920848
論文全文使用權限
校內
校內紙本論文立即公開
同意電子論文全文授權校園內公開
校內電子論文立即公開
校外
同意授權
校外電子論文立即公開

如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信