§ 瀏覽學位論文書目資料
  
系統識別號 U0002-0508201512454300
DOI 10.6846/TKU.2015.00152
論文名稱(中文) 基於尺度不變特徵轉換演算法之智慧型手機鈔票辨識系統
論文名稱(英文) Banknote Recognition System for Smart Phone Based on SIFT Algorithm
第三語言論文名稱
校院名稱 淡江大學
系所名稱(中文) 機械與機電工程學系碩士班
系所名稱(英文) Department of Mechanical and Electro-Mechanical Engineering
外國學位學校名稱
外國學位學院名稱
外國學位研究所名稱
學年度 103
學期 2
出版年 104
研究生(中文) 瞿光宸
研究生(英文) Kuang-Chen Chu
學號 602370354
學位類別 碩士
語言別 繁體中文
第二語言別
口試日期 2015-06-12
論文頁數 72頁
口試委員 指導教授 - 葉豐輝
委員 - 盧永華
委員 - 柯德祥
關鍵字(中) 尺度不變特徵轉換
鈔票辨識
視障者
關鍵字(英) SIFT
Banknote Recognition
Visually Impaired
第三語言關鍵字
學科別分類
中文摘要
本文旨在開發智慧型手機鈔票辨識系統,提供視障者能使用智慧型手機來辨識鈔票,藉此解決視障者對於鈔票辨識不便之處。本文選用當今最普及與流行的Android智慧型手機平台來建構鈔票辨識系統,設計出能夠讓視障者容易操作的介面,以及快速準確的辨識出鈔票的效能,只要按下開始鍵就會進行拍攝及辨識流程,即可讓視障者獲得鈔票辨識結果。
	本文選用尺度不變特徵轉換演算法,將智慧型手機拍攝的相片影像,產生特徵點與128維描述向量,與預先建立且已利用尺度不變特徵轉換運算過的鈔票樣本資料庫進行匹配,最後利用語音回饋給視障者,讓視障者能夠很容易地知道鈔票面額,藉此來解決視障者在鈔票辨識上的不便,提升視障者日常生活的便利性。
英文摘要
The smart phone banknote recognition system is developed in this study to provide a recognizing banknote solution for the visual impaired by using smart phone. The recognition system is built on the Android platform which is the most popular for smart phones. In this system a friendly operating interface for the visual impaired is designed. By pressing a start button on touch screen, the system begins taking photo, processing banknote recognition and gives the final result. 
	In this study, the Scale Invariant Feature Transform is used to create feature points from the banknote image taken by smart phone. Then 128 dimensional vectors of feature points are used to compare with pre-built database of New Taiwan Dollars banknote which is also created by Scale Invariant Feature Transform. The recognition result with the value of the banknote is responded in voice to the visual impaired. It allows the visually impaired to easily know banknote denominations to solve the difficulty on banknote recognitions and improve convenience in their daily life.
第三語言摘要
論文目次
中文摘要	I
英文摘要	II
目  錄	III
圖目錄	V
表目錄	IX

第一章 緒論	1
1.1 前言	1
1.2 研究動機	2
1.3 文獻回顧	3
1.4 論文架構	20
第二章 影像處理演算法	21
2.1 色彩空間轉換	21
2.2 尺度不變特徵轉換演算法	21
2.2.1 高斯函數	22
2.2.2 尺度空間極值檢測	23
2.2.3 特徵點定位及過濾	26
2.2.4 特徵點描述	28
2.3 特徵點匹配	29
第三章 系統設計與製作	31
3.1 影像局部特徵演算法之選擇	31
3.2 樣本資料庫建立	32
3.3 系統架構	35
3.4 Android遠端辨識架構	38
3.5 Android智慧型手機上使用方式與使用介面	38
3.6 OpenCV電腦視覺函式庫	41
3.7 Android智慧型手機平台	42
第四章 結果與討論	44
4.1 PC上使用webcam系統測試	44
4.2 Android智慧型手機單機版實測	57
4.3 Android手智慧型機遠端版實測	60
4.4 測試結果彙整	64
第五章 結論與未來展望	65
5.1 結論	65
5.2 未來展望	66
參考文獻	69

 
圖目錄

圖1-1   3D深度圖像高低落差偵測法	6
圖1-2   Kinect盲人輔具系統架構圖	7
圖1-3   路面偵測影像	8
圖1-4   Kinect座標系與世界座標系轉換示意圖	8
圖1-5   枕木紋偵測示意圖	9
圖1-6   ZigBee遙控式視障輔具流程圖	10
圖1-7   ZigBee無線語音裝置電路圖	11
圖1-8   Android平台上鈔票辨識流程	12
圖1-9   紅外線鈔票辨識系統流程圖	13
圖1-10  3x3遮罩圖像	13
圖1-11  積分影像示意圖	15
圖1-12  SURF特徵點向量示意圖	15
圖1-13  FAST 9-16演算法示意圖	16
圖1-14  SIFT、SURF、BRIEF+FAST、ORB匹配性能測試圖	17
圖1-15  BRISK特徵點檢測方法示意圖	18
圖1-16  FAST 5-8示意圖	18
圖1-17  BRISK特徵點描繪方法示意圖	19
圖2-1   常態份布圖	23
圖2-2   高斯差函數與影像金字塔示意圖	25
圖2-3   特徵點確認示意圖	25
圖2-4   高斯差函檢測出之特徵點	26
圖2-5   經過精確定位之後特徵點	27
圖2-6   消除邊緣效應後的特徵點	28
圖2-7   SIFT梯度合成向量示意圖	29
圖2-8   SIFT特徵點匹配距離實驗圖	30
圖2-9   特徵點匹配結果	30
圖2-10  消去最大歐式距離0.6以上之匹配結果	30
圖3-1   新台幣100元樣張	31
圖3-2   新台幣鈔票樣張	33
圖3-3   新台幣100元鈔票正面10個樣本	34
圖3-4   新台幣500元樣張與其遮罩圖像	34
圖3-5   樣本資料庫建立流程圖	35
圖3-6   JNI調用流程圖	36
圖3-7   主程式流程圖	37
圖3-8   遠端運算架構圖	38
圖3-9   Android智慧型手機上操作示意圖	39
圖3-10  於開發工具Eclipse上的物件佈局圖	39
圖3-11  於Android手機上執行畫面	40
圖4-1   PC版系統測試結果圖說明	44
圖4-2   新台幣100元正面辨識測試圖	45
圖4-3   新台幣100元反面辨識測試圖	45
圖4-4   新台幣200元正面辨識測試圖	45
圖4-5   新台幣200元反面辨識測試圖	46
圖4-6   新台幣500元正面辨識測試圖	46
圖4-7   新台幣500元反面辨識測試圖	47
圖4-8   新台幣1000元正面辨識測試圖	47
圖4-9   新台幣1000元反面辨識測試圖	47
圖4-10   新台幣2000元正面辨識測試圖	48
圖4-11  新台幣2000元反面辨識測試圖	48
圖4-12  新台幣100元正面旋轉擺放辨識測試圖	49
圖4-13  新台幣100元反面旋轉擺放辨識測試圖	49
圖4-14  新台幣200元正面旋轉擺放辨識測試圖	49
圖4-15  新台幣200元反面旋轉擺放辨識測試圖	50
圖4-16  新台幣500元正面旋轉擺放辨識測試圖	50
圖4-17  新台幣500元反面旋轉擺放辨識測試圖	50
圖4-18  新台幣1000元正面旋轉擺放辨識測試圖	51
圖4-19  新台幣1000元反面旋轉擺放辨識測試圖	51
圖4-20  新台幣2000元正面旋轉擺放辨識測試圖	51
圖4-21  新台幣2000元正面旋轉擺放辨識測試圖	52
圖4-22  新台幣100元正面遮蔽辨識測試圖	52
圖4-23  新台幣100元反面遮蔽辨識測試圖	53
圖4-24  新台幣200元正面遮蔽辨識測試圖	53
圖4-25  新台幣200元反面遮蔽辨識測試圖	53
圖4-26  新台幣500元正面遮蔽辨識測試圖	54
圖4-27  新台幣500元反面遮蔽辨識測試圖	54
圖4-28  新台幣1000元正面遮蔽辨識測試圖	54
圖4-29  新台幣1000元反面遮蔽辨識測試圖	55
圖4-30  新台幣2000元正面遮蔽辨識測試圖	55
圖4-31  新台幣2000元反面遮蔽辨識測試圖	55
圖4-32  不具有新台幣鈔票之圖像辨識測試圖-1	56
圖4-33  不具有新台幣鈔票之圖像辨識測試圖-2	56
圖4-34  不具有新台幣鈔票之圖像辨識測試圖-3	57
圖4-35  Sony Xperia ZR 4.4.4 (API 19)單機JNI實測圖-	58
圖4-36  Sony Xperia ZR 4.4.4 (API 19)單機JNI實測圖-2	58
圖4-37  Sony Xperia ZR 4.4.4 (API 19)單機JNI實測圖-3	58
圖4-38  Sony Xperia ZR 5.0.2 (API 21)單機JNI實測圖-1	59
圖4-39  Sony Xperia ZR 5.0.2 (API 21)單機JNI實測圖-2	59
圖4-40  Sony Xperia ZR 5.0.2 (API 21)單機JNI實測圖-3	60
圖4-41  DDMS偵錯記錄	61
圖4-42  HTC HD2遠端版實測圖-1	61
圖4-43  HTC HD2遠端版實測圖-2	62
圖4-44  HTC HD2遠端版實測圖-3	62
圖4-45  Sony Xperia ZR遠端版實測圖	63


表目錄

表1-1   台灣地區消費者行動裝置普及率	4
表1-2   視覺障礙度量表	5
表3-1   四種演算法正面特徵點實測比較	32
表3-2   四種演算法性能比較	32
表3-3   OpenCV 2.4.9版函式庫功能表	41
表3-4   2014年一至十月智慧型手機/平板電腦作業系統市佔率	43
表4-1   實測時間比較表	63
參考文獻
1.楊仲捷(民 103)。整合資通訊輔助技術之盲用人機介面設計(博士論文)。取自淡江大學電子學位論文服務系統。(系統編號 U0002-0701201522243800)
2.財團法人資訊工業策進會。2014臺灣消費者行動裝置暨APP使用行為研究調查報告。取自: http://www.iii.org.tw/Service/3_1_1_c.aspx?id=1475
3.行政院衛生福利部(民 102)。身心障礙鑑定類別、鑑定向度、程度分級及其基準。行政院公報衛生勞動篇,19(146)。
4.王郁涵(民 97)。擦亮靈魂之窗—人工視網膜。科學發展月刊,425,76。
5.蘇仕瑋(民 102)。以Kinect配合智慧型手機實做盲人輔具系統(碩士論文)。取自臺灣碩博士論文知識加值系統。(系統編號 101NCKU50280170)
6.林煒傑(民 101)。以視覺為基礎之盲人導航系統(碩士論文)。取自國立中央大學圖書館碩博士論文系統。(系統編號993211003)
7.Otsu N. (1979). A Tlreshold Selection Method from Gray-Level Histograms. IEEE Transactions on Systems, Man, and Cybernetics Society, 9(1), 62-66.
8.陳瓊興、王柏凱、杜銘峰(民 103)。ZigBee 應用於遙控式視障者輔具。International Journal of Science and Engineering,4(1), 377-380。
9.Toytman, I., & Thambidurai, J. (2011). Banknote recognition on android platform. Retrieved from http://citeseerx.ist.psu.edu/ viewdoc/download? doi=10.1.1.208.3502&rep=rep1&type=pdf
10.Bruna, A., Farinella, G. M., Guarnera, G. C., & Battiato, S. (2013). Forgery detection and value identification of euro banknotes. Sensors, 13(2), 2515-2529
11.Sevkli, M., Turkyilmaz, A., & Aksoy, M. (2002). Banknote recognition using inductive learning. International Conference on Fuzzy Systems & Soft Computational Intelligence in Management and Industrial Engineering, pp. 122-128., Istanbul, Turkey.
12.Bay, H., Ess, A., Tuytelaars, T., & Van Gool, L. (2008). Speeded-up robust features (SURF). Computer vision and image understanding, 110(3), 346-359.
13.Rublee, E., Rabaud, V., Konolige, K., & Bradski, G. (2011). ORB: an efficient alternative to SIFT or SURF. IEEE International Conference on Computer Vision(ICCV), pp. 2564-2571., Barcelona, Spain.
14.Rosten, E., Porter, R., & Drummond, T. (2010). Faster and better: A machine learning approach to corner detection. IEEE Transactions on Pattern Analysis and Machine Intelligence, 32(1), 105-119.
15.Calonder, M., Lepetit, V., Strecha, C., & Fua, P. (2010). Brief: Binary robust independent elementary features. European Conference on Computer Vision–ECCV 2010, pp. 778-792., Hersonissos, Greece.
16.Leutenegger, S., Chli, M., & Siegwart, R. Y. (2011). BRISK: Binary robust invariant scalable keypoints. IEEE International Conference on Computer Vision(ICCV), pp. 2548-2555., Barcelona, Spain.
17.Mair, E., Hager, G. D., Burschka, D., Suppa, M., & Hirzinger, G. (2010). Adaptive and generic corner detection based on the accelerated segment test. European Conference on Computer Vision–ECCV 2010, pp. 183-196. Hersonissos, Greece.
18.Lowe, D. G. (1999). Object recognition from local scale-invariant features. The proceedings of the seventh IEEE international conference on Computer vision, pp. 1150-1157., Kerkyra, Greece.
19.Lowe, D. G. (2004). Distinctive image features from scale-invariant keypoints. International journal of computer vision, 60(2), 91-110.
20.Ke, Y., & Sukthankar R. (2004). PCA-SIFT: A more distinctive representation for local image descriptors. IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 506-513., Columbus, OH, USA
21.Warn, S., Emeneker, W., Cothren, J., & Apon, A. (2009). Accelerating SIFT on parallel architectures. IEEE International Conference on Cluster Computing and Workshops, pp. 1-4., New Orleans, LA.
22.Morel, J.-M., & Yu, G. (2009). ASIFT: A new framework for fully affine invariant image comparison. SIAM Journal on Imaging Sciences, 2(2), 438-469.
23.Hess, R. (2010). An open-source SIFTLibrary. Proceedings of the International Conference on Multimedia, pp. 1493-1496., Firenze, Italy.
24.OpenCV.org. Using C++ OpenCV code with Android binary package. Retrieved from http://docs.opencv.org/doc/ tutorials/introduction/android_binary_package/android_binary_package_using	_with_NDK.html#using-c-opencv-code-with-android-binary-package
25.Net Applications Inc.. Mobile/Tablet Top Operating System Share Trend (Jan. 2014 - Dec. 2014). Retrieved from http://www. netmarketshare.com/operating-system-market-share.aspx?qprid=9&qpcustomb=1&qpcustomd=&qpsp=180&qpnp=12&qptimeframe=M
26.Google Inc.. Dalvik bytecode. Retrieved from https://source. android. com/devices/tech/dalvik/dalvik-bytecode.html#design
27.Google Inc. and the Open Handset Alliance. ART and Dalvik. Retrieved from https://source.android. com/ devices/tech/dalvik/
28.Google Inc. and the Open Handset Alliance. package - android.hardware.camera2. Retrieved from https://developer.android.com/reference/android/hardware/camera2/package-summary.html
29.吳秉儒(民 103)。智慧型手機藍牙點字鍵盤之研究(碩士論文)。取自淡江大學電子學位論文服務系統。(系統編號U0002-0209201412541800)
論文全文使用權限
校內
紙本論文於授權書繳交後5年公開
同意電子論文全文授權校園內公開
校內電子論文於授權書繳交後5年公開
校外
同意授權
校外電子論文於授權書繳交後5年公開

如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信