§ 瀏覽學位論文書目資料
  
系統識別號 U0002-1508201711190600
DOI 10.6846/TKU.2017.00508
論文名稱(中文) 基於線性判別分析之視覺物件追蹤
論文名稱(英文) Visual Object Tracking via LDA
第三語言論文名稱
校院名稱 淡江大學
系所名稱(中文) 資訊工程學系碩士在職專班
系所名稱(英文) Department of Computer Science and Information Engineering
外國學位學校名稱
外國學位學院名稱
外國學位研究所名稱
學年度 105
學期 2
出版年 106
研究生(中文) 林智慶
研究生(英文) Chih-Ching Lin
學號 704410082
學位類別 碩士
語言別 繁體中文
第二語言別 英文
口試日期 2017-07-20
論文頁數 61頁
口試委員 指導教授 - 顏淑惠(105390@mail.tku.edu.tw)
委員 - 廖弘源
委員 - 陳朝欽
關鍵字(中) 視覺物件追蹤
線性判別分析
快速傅立葉轉換卷積
關鍵字(英) Visual object tracking
LDA
FFT convolution
第三語言關鍵字
學科別分類
中文摘要
本篇論文提出利用線性判別分析 (LDA, Linear discriminant analysis) 以及 part-based 的追蹤策略於複雜環境中進行單目標視覺物件追蹤。使用相同預先一次性訓練得到的負例樣本平均值與共同變異量,再加上目標物不同位置的正例樣本即可快速訓練出不同的部件 (part) 分類器。利用快速傅立葉轉換卷積計算追蹤畫格影像特徵的相似度,再使用投票方式結合不同影像特徵的部件與整體的目標物位置,來完成正確及快速的視覺物件追蹤。在100個影片中使用三種不同強健度評估方式來測試追蹤器之精確度與成功率,由量化與質化的實驗結果顯示我們所提出的方法在正確性與速度上都有很好的表現,並能與其他先進的追蹤演算法匹敵。
英文摘要
Tracking-by-detection methods treat the target location as a classification problem in which the approach SVM + HOG shows a good performance. However, training a good SVM classifier is cost expensive. In this paper, we replace SVM by linear discriminant analysis (LDA) for classification where the mean and covariance of negative examples are evaluated only once. Not only the training is much cheaper, but testing time is also very efficient. The proposed method uses HOG and color features for image representation. To defense partial occlusion issue, part-based tracking strategy is adopted and the model is updated according to Peak to Sidelobe Ratio (PSR) of parts. And conclude the classification results from parts and holistic detections by voting. To speed up classification of LDA classifiers with features from search window, the FFT convolution is employed to reduce the computational efforts of dot product on feature vectors. We evaluate our approach on 100 public benchmark  challenging video sequences, both qualitative and quantitative experiments show that our approach is competitive to state-of-the-art methods.
第三語言摘要
論文目次
第一章 緒論	1
1.1	研究動機與目的	1
1.2	論文架構	4
第二章 相關文獻回顧	6
第三章 研究方法	8
3.1	系統流程圖	8
3.2	部件與特徵	9
3.2.1	部件Region of Interest (ROI)	10
3.2.2	HOG特徵	12
3.2.3	色彩特徵	15
3.3	Linear discriminant analysis (LDA)	17
3.4	部件的LDA分類器	19
3.5	Part-based的追蹤策略	22
3.5.1	部件相似度矩陣	23
3.5.2	部件投票機制	26
3.5.3	偵測目標物尺寸	27
3.5.4	部件分類器更新	30
3.5.5	Part-based LDA追蹤演算法	32
第四章 實驗結果	33
4.1	實驗一	36
4.2	實驗二	38
第五章 結論	50
參考文獻	51
附錄:英文論文	53

圖1	簡易系統的追蹤流程圖	4
圖2系統流程圖	9
圖3 以一個固定的整體模板去對應追蹤的目標物,目標物影像需做長寬非等比的縮放才能與整體模板對應。(a) (c) 原始影像。(b) (d) 對應模板縮放的影像。	11
圖4 部件的分割方式 (a) 單一部件之 ROI,圖示為 3×3 cells 組成一個部件之 ROI。(b) 行人目標物之分割示意圖,目標物以 2×5 個部件的方式進行分割。(c) 汽車目標物之分割示意圖,目標物以 4×2 個部件的方式進行分割。	12
圖5 HOG 四種區塊正規化方式,灰色的部分為區塊正規化所包含的 cells。	13
圖6由四種正規化因子得到的 Hhog{i,j} 可表示為 4×9 矩陣。	14
圖7 PCA of HOG features ([15] Felzenszwalb et al.)	15
圖8 使用相同的濾波器G 但是採 Convolution & Correlation 計算方式	25
圖9 搜尋區與相似度矩陣 (a) 原始影像畫格 (b) 搜尋區,前一畫格目標物位置附近為搜尋區,圖片上的網格代表 HOG 切分成cells的位置 (c) HOG特徵頭部相似度矩陣圖,經由部件 LDA 分類器計算搜尋區內不同位置特徵得到的相似度矩陣,紅色代表相似度越高,藍色則表示相似度越低。	25
圖10 (a) 使用 HOG 特徵得到的相似度矩陣,(b) 使用色彩特徵得到的相似度矩陣。使用色彩特徵在最高點(紅色)周圍(白色框內)的相似度都較 HOG 特徵高。	29
圖11 使用 HOG 特徵所擷取到的目標物外型輪廓特徵 (a) 原始圖像 (b) HOG 特徵圖。	30
圖12 利用 LDA 分類器追蹤 FaceOcc2 影像時,不同畫格的影像與 PSR 值的變化情形,當畫格發生遮蔽或影像旋轉時 PSR 也隨之下降。	31
圖13考慮整體與部件方法 (LDAT) 與只使部件投票的方法 (LDAT-PartsOnly) 的準確度圖表。	37
圖14考慮整體與部件方法 (LDAT) 與只使部件投票的方法 (LDAT-PartsOnly)  的成功率圖表。	37
圖15考慮整體與部件方法 (LDAT) 與只使部件投票的方法 (LDAT-PartsOnly) 的追蹤結果影像,影片為 blurbody,紅色的為 LDAT 測試結果,綠色的為LDAT-PartsOnly 測試結果。	37
圖16 OTB-50 準確度圖表(1)	39
圖17 OTB-50 準確度圖表(2)	40
圖18 OTB-50 成功率圖表(1)	40
圖19 OTB-50 成功率圖表(2)	41
圖20 OTB-50 各屬性成功率圖表(1)	42
圖21 OTB-50 各屬性成功率圖表(2)	43
圖22 OTB-100 準確度圖表(1)	44
圖23 OTB-100 準確度圖表(2)	45
圖24 OTB-100 成功率圖表(1)	46
圖25 OTB-100 成功率圖表(2)	47
圖26 追蹤結果影像(1) 影片依序為 basketball,box,blurbody,walking2 與 dudek。	48
圖27 追蹤結果影像(2) 影片依序為 bolt 與 skatting1。	49

表1 Part-based LDA 追蹤演算法	32
表2影像追蹤上挑戰性的屬性種類	34
表3各追蹤方法的處理速度。	47
參考文獻
[1]	S. Avidan, “Support Vector Tracking,” TPAMI, vol. 26, no. 8, pages 1064-1072, 2004.
[2]	H. Grabner, M. Grabner, and H. Bischof. “Real-time tracking via on-line boosting,” in BMVC, pages 47-56, 2006.
[3]	B. Babenko, M.-H. Yang, and S. Belongie, “Visual Tracking with Online Multiple Instance Learning,” in CVPR, pages 983-990, 2009.
[4]	S. Hare, A. Saffari, and P. H. S. Torr, “Struck: Structured Output Tracking with Kernels,” in ICCV, pages 263-270, 2011.
[5]	D. S. Bolme, J. R. Beveridge, B. A. Draper and Y. M. Lui, “Visual Object Tracking using Adaptive Correlation Filters,” in CVPR, pages 2544-2550, 2010.
[6]	J. F. Henriques, R. Caseiro, P. Martins, and J. Batista, “High-Speed Tracking with Kernelized Correlation Filters,” TPAMI, vol. 37, no. 2, pages 538-596, 2015.
[7]	M. Danelljan, G. Häger, F.S. Khan and M. Felsberg, “Accurate Scale Estimation for Robust Visual Tracking,” in BMVC, 2014.
[8]	J. Kwon and K. M. Lee, “Tracking by Sampling Trackers,” in ICCV, pages 1195-1202, 2011.
[9]	D. A. Ross, J. Lim, R.-S. Lin, and M.-H. Yang, “Incremental Learning for Robust Visual Tracking,” IJCV, 2008.
[10]	X. Jia, H. Lu, and M.-H. Yang, “Visual Tracking via Adaptive Structural Local Sparse Appearance Model,” in CVPR, pages 1822-1829, 2012.
[11]	C. Bao, Y. Wu, H. Ling, and H. Ji, “Real Time Robust L1 Tracker Using Accelerated Proximal Gradient Approach,” in CVPR, pages 1830-1837, 2012.
[12]	N. Dalal and B. Triggs, “Histograms of Oriented Gradients for Human Detection,” in CVPR, vol. 1, pages 886-893, 2005.
[13]	B. Hariharan, J. Malik and D. Ramanan, “Discriminative Decorrelation for Clustering and Classification,” in ECCV, 2012.
[14]	M. Gharbi, T. Malisiewicz, S. Paris, and F. Durand, “A gaussian approximation of feature space for fast image similarity,” Technical Report 2012-032, MIT CSAIL, 2012.
[15]	P. F. Felzenszwalb, R. B. Girshick, D. McAllester and D. Ramanan, “Object Detection with Discriminatively Trained Part Based Models,” TPAMI, vol. 32, no. 9, pages 1627-1645, 2010.
[16]	Discriminative model. https://en.wikipedia.org/wiki/Discriminative_model.
[17]	Generative model. https://en.wikipedia.org/wiki/Generative_model.
[18]	T. Malisiewicz, A. Gupta and A. A. Efros, “Ensemble of Exemplar-SVMs for Object Detection and Beyond,” in ICCV, pages 89-96, 2011.
[19]	H. K. Galoogahi, T. Sim, and S. Lucey, “Multi-Channel Correlation Filters,” in ICCV, pages 3072-3079, 2013.
[20]	INRIA Person Dataset. http://pascal.inrialpes.fr/data/human/.
[21]	Y. Wu, J. Lim, and M.-H. Yang, “Online Object Tracking: A Benchmark,” in CPVR, pages 2411-2418, 2013.
[22]	Y. Wu, J. Lim, and M.-H. Yang, “Object Tracking Benchmark,” TPAMI, vol. 37, no. 9, pages 1834-1848, 2015.
[23]	Piotr Dollár. Piotr’s Image and Video Matlab Toolbox (PMT). http://vision.ucsd.edu/~pdollar/toolbox/doc/index.html.
[24]	J. F. Henriques, R. Caseiro, P. Martins, and J. Batista, “Exploiting the Circulant Structure of Tracking-by-Detection with Kernels,” in ECCV, 2012.
[25]	K. Zhang, L. Zhang, and M.-H. Yang, “Real-time Compressive Tracking,” in ECCV, 2012.
[26]	Y. Wu, B. Shen, and H. Ling, “Online Robust Image Alignment via Iterative Convex Optimization,” in CVPR, pages 1808-1814, 2012.
[27]	L. Sevilla-Lara and E. Learned-Miller, “Distribution Fields for Tracking,” in CVPR, pages 1910-1917, 2012.
[28]	S. Hong, T. You, S. Kwak and B. Han, “Online Tracking by Learning Discriminative Saliency Map with Convolutional Neural Network,“ in ICML, 2015.
[29]	Y. Qi, S. Zhang, L. Qin, H. Yao, Q. Huang, J. Lim and M.-H. Yang, “Hedged Deep Tracking,” in CVPR, pages 4303-4311, 2016.
[30]	K. Simonyan and A. Zisserman, “Very deep convolutional networks for large-scale image recognition,” in ICLR, 2015.
論文全文使用權限
校內
紙本論文於授權書繳交後2年公開
同意電子論文全文授權校園內公開
校內電子論文於授權書繳交後2年公開
校外
同意授權
校外電子論文於授權書繳交後2年公開

如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信