系統識別號 | U0002-1809201900230800 |
---|---|
DOI | 10.6846/TKU.2019.00559 |
論文名稱(中文) | 應用深度融合神經網路進行複製移動竄改區域偵測 |
論文名稱(英文) | A copy-move forgery detection approach based on Deep Fusion Neural Network |
第三語言論文名稱 | |
校院名稱 | 淡江大學 |
系所名稱(中文) | 資訊工程學系碩士班 |
系所名稱(英文) | Department of Computer Science and Information Engineering |
外國學位學校名稱 | |
外國學位學院名稱 | |
外國學位研究所名稱 | |
學年度 | 107 |
學期 | 2 |
出版年 | 108 |
研究生(中文) | 段為康 |
研究生(英文) | Wei-Kang Duan |
學號 | 604410984 |
學位類別 | 碩士 |
語言別 | 繁體中文 |
第二語言別 | 英文 |
口試日期 | 2019-06-14 |
論文頁數 | 52頁 |
口試委員 |
指導教授
-
陳建彰(cchen34@gmail.com)
委員 - 楊權輝(chyang@hcu.edu.tw) 委員 - 陳伯榮(pozungfuchih@gmail.com) |
關鍵字(中) |
深度神經網路 複製移動竄改 特徵匹配 物件偵測 語義協同分割 |
關鍵字(英) |
Deep_Neural_Network Copy-Move_Forgery Feature_matching Object_Detection Semantic_Co-Segmentation |
第三語言關鍵字 | |
學科別分類 | |
中文摘要 |
數位相機及智慧型手機已成為生活中不可缺少的部分,因此我們隨處可見數位影像,但由於數位化資料擁有容易修改的特性,且影像處理軟體功能日益強大的狀況下,往往可以記錄真實事物的特性面臨極大的考驗。 本論文以融合多個不同用途的深度神經網路模型搭配Brute-Force matching、FLANN-based matching等特徵比對演算法之使用來探討多重深度神經網路結合特徵比對的複製移動竄改偵測技術,第一步使用竄改區域偵測神經網路偵測經複製移動竄改的區域;第二步將候選竄改區域與候選竄改區域外的部份做特徵匹配,判定候選竄改區域的可用性;第三步對全圖使用Mask R-CNN偵測與竄改區域重疊的完整竄改物件全貌並得知物件類別,同時找到圖中特徵匹配且相同類別的物件,視為來源物件;在第三步找不到的情況下,使用深度語義協同分割網路,由竄改區域逆向找出來源區域。經實驗結果本論文研究利可以有效降低複製移動竄改偵測的時間。 |
英文摘要 |
This paper presents an efficient strategy of applying the deep learning structure to solve the copy-move forgery detection problem. The copy-move forgery detection problem is to detect copy-move image forgery regions in an image. The proposed scheme first detects copy-move replaced regions using SRM filter. The BusterNet method detects the image foreground manipulation for searching the copy-move forgery regions. The presented scheme includes two major topics as foreground copy-move forgery regions detection and background copy-move forgery regions detection. The proposed scheme is a combination of these two schemes. In the proposed scheme, results of the Mask R-CNN and Semantic Co-Segmentation Network can be further utilized for detecting copy-move results. |
第三語言摘要 | |
論文目次 |
目錄 目錄 III 圖目錄 V 表目錄 VI 第一章 緒論 1 1.1 研究背景與目的 1 1.2 論文架構 4 第二章 相關研究 5 2.1 Zhou等人提出的影像竄改區域偵測方法[8] 5 2.2 Wu等人提出的BusterNet [5] 6 2.3 Mask R-CNN [11] 7 2.4 Chen等人提出的深度語義協同分割方法[10] 8 2.5 Brute-Force特徵匹配方法 8 2.6 FLANN-Based特徵匹配方法[13] 9 第三章 本論文提出方法 10 3.1 以深度融合神經網路進行複製移動竄改區域偵測 10 3.2 實驗資料集 13 第四章 實驗結果 16 4.1 影像竄改區域偵測網路 16 4.2 特徵匹配方法 18 4.3 Mask R-CNN 23 4.4 深度語義協同分割網路 25 4.5 表現比Busternet好的範例 27 第五章 總結 29 5.1 結論 29 5.2 研究限制 30 5.3 未來研究方向 31 參考文獻 32 附錄─英文論文 35 圖目錄 圖1.1 複製移動竄改影像 3 圖2.1 Zhou等人提出的神經網路模型 6 圖2.2 Wu等人提出的BusterNet模型 6 圖2.3 Mask R-CNN示意圖 8 圖2.4 深度語義協同分割神經網路模型 8 圖3.1 本論文提出的方法流程圖 11 圖3.2 Zhou等人的方法使用的3種SRM濾鏡 12 圖4.1.1 兩種網路的實驗關係圖 17 圖4.1.2 竄改區域偵測網路結果範例 17 圖4.2.1 竄改區域保留影像 19 圖4.2.2 ORB特徵匹配輸出範例 21 圖4.2.3 Flann特徵匹配輸出範例 23 圖4.3 Mask R-CNN 輸出範例 25 圖4.4 深度語義協同分割輸出範例 27 圖4.5 實驗比較範例 28 表目錄 表4.1 混淆矩陣對照表 16 |
參考文獻 |
[1] C. S. Lin, C. C. Chen and Y. C. Chang. “An efficiency enhancedcluster expanding block algorithm for copy-move forgery etection,”International Conference on Intelligent Networking and Collaborative Systems (INCOS), 2015. [2] Chen CC, Wang H, Lin CS,”An Efficiency Enhanced Cluster Expanding Block Algorithm for Copy-Move Forgery Detection,”Multimedia Tools and Applications (accepted),2017 [3] S. X. Liao, M. Pawlak.“On the accuracy of Zernike moments for image analysis” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.20, pp.1358-1364, 1998 [4] Amerini I, Ballan L, Caldelli R, Del Bimbo A, Serra G (2011) A SIFT-based forensic method for copy–move attack detection and transformation recovery. IEEE Trans. on Information Forensics and Security 6:1099−1110. [5] Yue Wu, Wael Abd-Almageed, Prem Natarajan,“BusterNet: Detecting Copy-Move Image Forgery with Source/Target Localization,”European Conference on Computer Vision (ECCV),2018. [6] Jonathan Long, Evan Shelhamer, Trevor Darrell,“Fully Convolutional Networks for Semantic Segmentation,”Computer Vision and Pattern Recognition (CVPR),2015. [7] Szegedy C, Liu W, Jia Y, et al. ,“Going deeper with convolutions,”IEEE Conference on Computer Vision and Pattern Recognition (IEEE), 2015:1-9. [8] Peng Zhou, Xintong Han, Vlad, Morariu, Larry S. Davis,”Learning Rich Features for Image Manipulation Detection,”Computer Vision and Pattern Recognition (CVPR),2018. [9] Shaoqing Ren, Kaiming He, Ross Girshick, Jian Sun,“Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks,” Neural Information Processing Systems (NIPS),2015. [10] Prerana Mukherjee, Brejesh Lall, Snehith Lattupally,“Object cosegmentation using deep Siamese network,”International Conference on Pattern Recognition and Artificial Intelligence(ICPRAI),2018. [11] Kaiming He, Georgia Gkioxari, Piotr Dollár, Ross Girshick, “Mask R-CNN,” IEEE International Conference on Computer Vision (ICCV),2017. [12] Ethan Rublee, Vincent Rabaud, Kurt Konolige, Gary Bradski, “ORB: an efficient alternative to SIFT or SURF,” IEEE International Conference on Computer Vision (ICCV),2011. [13] D Arul Suju, Hancy Jose, “FLANN: Fast Approximate Nearest Neighbour Search Algorithm for elucidating Human-Wildlife conflicts in Forest areas,” Fourth International Conference on Signal Processing, Communication and Networking (ICSCN),2017. [14] Karen Simonyan, Andrew Zisserman, “VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION,” CoRR, abs/1409.1556, 2014. [15]Kaiming He, Xiangyu Zhang, Shaoqing Ren, Jian Sun, “Deep Residual Learning for Image Recognition,’’ In CVPR, 2016. [16] E. Rosten and T. Drummond. “Machine learning for highspeed corner detection.” In European Conference on Computer Vision(ECCV), volume I, 2006. [17] M. Calonder, V. Lepetit, C. Strecha, and P. Fua. “Brief: Binary robust independent elementary features.’’ In European Conference on Computer Vision(ECCV), 2010. [18] D. G. Lowe. “Distinctive image features from scale-invariant keypoints.’’ International Journal of Computer Vision, 60(2):91-110, 2004. [19] Yang Gao, Oscar Beijbom, Ning Zhang, Trevor Darrell, “Compact Bilinear Pooling,’’ In CVPR, 2016. |
論文全文使用權限 |
如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信