淡江大學覺生紀念圖書館 (TKU Library)
進階搜尋


下載電子全文限經由淡江IP使用) 
系統識別號 U0002-2806201112150500
中文論文名稱 利用動作分析與二維至三維的運動估測進行人物動作植生
英文論文名稱 Human Motion Extrapolation via Motion Analysis and 2D-3D Motion Estimation
校院名稱 淡江大學
系所名稱(中) 資訊工程學系碩士班
系所名稱(英) Department of Computer Science and Information Engineering
學年度 99
學期 2
出版年 100
研究生中文姓名 陳沛堯
研究生英文姓名 Pei-Yao Chen
學號 698410130
學位類別 碩士
語文別 中文
第二語文別 英文
口試日期 2011-06-15
論文頁數 74頁
口試委員 指導教授-許輝煌
委員-王俊嘉
委員-許輝煌
委員-林其誼
中文關鍵字 動作分析  運動估測  動作外插法 
英文關鍵字 Motion Extrapolation  Motion Analysis  Motion Estimation 
學科別分類 學科別應用科學資訊工程
中文摘要 近幾年,三維虛擬實境是一個非常熱門的研究領域,三維的技術非常大量地應用於相關電玩產業,但是大部分的三維產品或者研究,都不是使用真實的圖像或者影片來製作,而常常仰賴動畫,因此我們提出一套方法,採用真實二維圖像來模擬類似於三維的感官。我們的目標是能夠像Google Map實景圖的設計一樣地呈現物件,我們旋轉物件,而物件根據旋轉的角度對應至正確的影像。
一般來說,我們如果可以使用多台的攝影機,同時從周圍的各個視角拍攝物件,那麼對物件做各個視角之間的切換,會相當的容易,因為一起拍攝的關係,我們切換視角的銜接點是可以直接取得的,但是這樣的場邊配置、準備工作其實相當繁雜,因此我們主要的想法是只使用一台攝影機,拍攝一個人多個視角的影片,然後我們觀察人物走路的規律,並且分析人物的動作,最後,推導出視角與視角之間切換關係的規則。
英文摘要 The 3D virtual reality is a very popular research area over the last decade. The 3D products are proposed in video game industries. But most of the 3D products or researches didn’t use the real images or videos to generate, so we proposed a method to adopt the real 2D images to render 3D-liked vision. Our goal is to show the object like Google Map, we can rotate the object we load and according to the angle to show the corresponding object.
Generally, if we can use more than one camera, and shooting the object from the surrounding each viewpoint. Then, the convergence of motion of switching angle will be very easy. Because we can directly obtain the matching time. But such preparatory work is too expensive. The main idea is shooting a human at multi-angle, then we observe the regular pattern of human and analyze the motion of human. Finally, infer a rule for the relationship between the change of viewpoint.
論文目次 第一章 緒論 1
1.1 研究動機與目的 1
1.2 開發工具 3
1.3 論文組織與架構 4
第二章 基礎理論 5
2.1 色彩模型 5
2.1.1 RGB color space 6
2.1.2 YUV color space 7
2.2 長條圖強化 8
2.3 動作估測 11
2.3.1 相似度測量 11
2.3.2 全域搜尋 12
2.3.3 四步驟搜尋 13
2.4 細化 16
2.5 其他相關研究 19
第三章 系統架構 26
3.1 物件選擇 28
3.2 物件追蹤 29
3.3 物件擷取 31
3.4 物件正規化 33
3.5 物件細化 34
3.6 動作分析 35
3.6.1 方向變化 37
3.6.2 位移變化 40
3.6.3 端點變化 41
3.6.4 運動週期 43
3.7 動作銜接 51
第四章 系統實作與實驗結果 54
4.1 系統介面 54
4.2 系統簡介 60
4.3 實驗結果與討論 62
第五章 結論與未來展望 65
5.1 結論 65
5.2 未來展望 66
參考文獻 67
附錄 英文論文 69

圖目錄
圖 1 RGB色彩空間 6
圖 2 長條圖強化前之顏色分布 8
圖 3 長條圖強化後之顏色分布 10
圖 4 過亮圖例 10
圖 5 過暗圖例 10
圖 6 全域搜尋示意圖 12
圖 7 全域搜尋結果圖例 13
圖 8 四步搜尋 – 步驟一 14
圖 9 四步搜尋 – 步驟二(以角落為中心點) 14
圖 10 四步搜尋 – 步驟二(以邊為中心點) 14
圖 11 四步搜尋 – 步驟三 15
圖 12 四步驟搜尋結果圖例 15
圖 13 四步驟搜尋結果圖例 16
圖 14 細化規則 17
圖 15 細化結果圖例 19
圖 16 模型貼圖 – 球鞋 20
圖 17 模型貼圖 – 汽車 20
圖 18 模型貼圖 – 人物 20
圖 19 Google Map圖例 21
圖 20 VBR圖例 22
圖 21 GrabCut分割圖例 23
圖 22 人物骨架圖例一 24
圖 23 影像合成圖例二 25
圖 24 系統架構圖 26
圖 25 物件標記圖例一 28
圖 26 物件標記圖例二 28
圖 27 動作追蹤示意圖 30
圖 28 物件標記、追蹤與擷取 32
圖 29 定位結果圖例 33
圖 30 二值化圖例 34
圖 31 細化結果圖例 35
圖 32 動作分析第一階段概念圖 36
圖 33 動作方向概念圖 38
圖 34 方向變化結果圖例 38
圖 35 不同視角方向變化結果 39
圖 36 端點判斷圖例 41
圖 37 端點偵測結果圖例 41
圖 38 端點數分類圖 42
圖 39 動作週期 43
圖 40 連接點示意圖 45
圖 41 手部高度差異圖 46
圖 42 手部寬度差異圖 47
圖 43 手部變化差異之概念圖 48
圖 44 關鍵點示意圖 49
圖 45 手部判斷結果圖例一 50
圖 46 手部判斷結果圖例二 50
圖 47 視角切換的銜接 51
圖 48 影片轉向銜接示意圖 52
圖 49 物件轉向與影片銜接 53
圖 50 檔名型式 55
圖 51 檔案分類 55
圖 52 系統介面圖例 56
圖 53 端點 - 檔案圖例一 58
圖 54 端點 - 檔案圖例二 58
圖 55 動作週期 - 檔案圖例 58
圖 56 關聯點 – 檔案圖例 59
圖 57 系統架構圖例 60
圖 58 實驗結果圖例一 62
圖 59 實驗結果圖例二 62
圖 60 實驗結果圖例三 63
圖 61 實驗結果圖例四 63

表目錄
表格 1 長條圖強化範例 - 顏色出現次數 9
表格 2 長條圖強化範例 - 顏色累計次數 9
參考文獻 [1] Yochay Tzur, and Ayellet Tal, “FlexiStickers – Photogrammetric Texture Mapping using Casual Images”, Journal, ACM Transactions on Graphics, vol. 28, no. 3, Article 45, USA, August 2009.

[2] Yu-Wing Tai, Michael S. Brown, Chi-Keung Tang, and Heung-Yeung Shum, “Texture Amendment: Reucing Texture Distortion in Constrained Parameterization”, Journal, ACM Transactions on Graphics, vol. 27, no. 5, Article 136, USA, December 2008.

[3] Leonid Sigal, Alexandru O. Balan and Michael J. Black, “Humaneva: Synchronized video and motion capture dataset and baseline algorithm for evaluation of articulated human motion,” Int. J. Comput. Vis., vol. 87, pp.4–27, 2010.

[4] Maher Ahmed and Rabab Ward, “A Rotation Invariant Rule-Based Thinning Algorithm for Character Recognition”, Journal, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 24, Issue 12, pp.1672–1678, December 2002.

[5] Liefeng Bo and Cristian Sminchisescu, “Twin gaussian process for structured prediction,”Int. J. Comput. Vis., vol. 30, pp.28–52, 2010.

[6] Tobias Jaeggli, Esther Koller-Meier and Luc Van Gool, “Learning Generative Models for Monocular Body Pose Estimation”, 8th Asian Conference on Comput. Vis., 18-22, Tokyo, Japan, pp.608–617, November 2007.

[7] Wenzhong Wang, Xiaoming Deng, Xianjie Qiu, Shihong Xia and Zhaoqi Wang, “Learning local models for 2D human motion tracking”, Conference, 2009 16th IEEE International Conference on Image Processing (ICIP) , Cairo, 7–10 November 2009, pp.2589.

[8] Carsten Rother, Vladimir Kolmogorov and Andrew Blake, “GrabCut: interactive foreground extraction using iterated graph cuts”, ACM Transactions on Graphics (TOG), 2004.

[9] Junchi Yan, Shuhan Shen, Yin Li, and Yuncai Liu, “An Optimization Based Framework for Human Pose Estimation”, Journal, IEEE Signal Processing Letters, vol. 17, Issue 8, pp.766, August 2010.

[10] Meng Li, Tao Yang, Runping Xi and Zenggang Lin ,“Silhouette-based 2D Human Pose Estimation”, Conference, ICIG '09. Fifth International Conference on Image and Graphics, Shanxi, 20–23, pp.143, September 2009.

[11] Luca Ballan, Gabriel J. Brostow, Jens Puwein and Marc Pollefeys “Unstructured Video-Based Rendering: Interactive Exploration of Casually Captured Videos”, ACM Transactions on Graphics, vol. 29, no. 4, Article 87, July 2010.

[12] Steven M. Seitz Charles R. Dyer, “View Morphing”, SIGGRAPH, 1996.

[13] M. Ahmed, R. Ward, “A Rotation Invariant Rule-based Thinning Algorithm for Character Recognition,” IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 24, Issue 12, pp.1672–1678, December 2002.
論文使用權限
  • 同意紙本無償授權給館內讀者為學術之目的重製使用,於2016-06-30公開。
  • 同意授權瀏覽/列印電子全文服務,於2016-06-30起公開。


  • 若您有任何疑問,請與我們聯絡!
    圖書館: 請來電 (02)2621-5656 轉 2281 或 來信