§ 瀏覽學位論文書目資料
  
系統識別號 U0002-2007200711250200
DOI 10.6846/TKU.2007.00614
論文名稱(中文) 交通背景型態分類模式之研究
論文名稱(英文) A Traffic Background Pattern Classification Model
第三語言論文名稱
校院名稱 淡江大學
系所名稱(中文) 運輸管理學系碩士班
系所名稱(英文) Department of Transportation Management
外國學位學校名稱
外國學位學院名稱
外國學位研究所名稱
學年度 95
學期 2
出版年 96
研究生(中文) 陳昶志
研究生(英文) Chang-Chih Chen
學號 694540286
學位類別 碩士
語言別 繁體中文
第二語言別
口試日期 2007-06-21
論文頁數 113頁
口試委員 指導教授 - 范俊海
委員 - 鍾隆文
委員 - 洪文斌
關鍵字(中) 背景重建
色彩模式
類神經網路
模糊系統
分類
關鍵字(英) Background
Color model
Neuron network
Fuzzy system
Classification
第三語言關鍵字
學科別分類
中文摘要
自西元1970年代後,美國外學者Schlutsmeyer的研究證實了影像處理應用於交通工程上之可行性後,近年來影像式偵測器已逐漸蔚為主流。但影像式偵測器在實際的應用上受到交通環境背景複雜、照明度不足,以及光源不穩定等相關背景因素造成偵測效果不佳,先前的相關研究大都以白天且晴朗的路段或夜間晴朗的路段作為研究環境,對於環境之光線變化與歸類鮮少有探討,因此本研究以一般的郊區路段作為研究的環境,以期構建一個適用於交通環境分類之模式。
交通環境分類的良窳取決於光線的變化與色彩間的交互影響,以晴朗的下午為例,人類可輕易判斷出當下的天氣的狀況與選擇適當的影像偵測方法,但影像偵測系統卻需根據捕捉的畫面,分析影像中的色彩特性與分佈才能判斷天氣狀況。因此如何在交通環境中辨識出當下的天候與光線是本研究探討的重點。如何將影像中的車輛移除並建構出無車的交通背景,避免偵測與抓取色彩特徵受車輛干擾是本研究所要克服的第一個難題,本研究提出以中位數法(Median Filter)結合遞迴式(Recursive)更新之背景重建模式,用以獲得不受車輛干擾的背景影像。將不受干擾的背景影像建構完成後,觀察擷取出的交通背景影像色彩分佈,在不同的環境下色彩分佈亦不同,因此如何將色彩分佈的特性進行分類是本研究遭遇的第二個困難,對此本研究提出模糊類神經網路(Fuzzy-Neuron Network)與倒傳遞類神經網路(Back-Propagation Network)發展出一分類模式,依色彩間相關的特性與進行分類的工作,其研究結果顯示在不同的交通環境下色彩間具有近似的分佈,依據各個環境的特徵進行分類有不錯的效果。
    本研究所偵測的交通環境包含晴朗的下午、黃昏與夜晚和雨天的下午、黃昏與夜晚。本研究將天候分類正確或光線分類正確定義為第一種正確率,將天候分類正確且光線分類正確定義為第二種正確率,經實例驗證後,模糊類神經網路於第一類正確率為98.11%、94.34%;在天候與光線同時分類正確沒有誤判,正確率為92.45%。
英文摘要
A good traffic surveillance system must be capable of working in all kinds of weather and illumination conditions. Using image detection machine usually does not effective because it be affected by weather, bright, and complex traffic background. If we can choose good detection algorithms for vehicle detection depend on weather and illumination change. This paper presents reconstruction of background model and classification model to solve the problem of detect algorithms transform.
	The result of classified traffic background depends on interaction of illumination change and color model. We can judge what kinds of weather and illumination by using our eyes and ears to choose suitable image detection algorithms. But if machine want to choose fit detection algorithms, it have to depend on capture frame. How to judge conditions of illumination and give a suitable suggestion for detection is this paper kernel. First, this paper presents a recursive median filter background model to remove vehicles form frame. It can avoid interference form vehicles and illumination change, which affect detective area. Second, according to color distribution, which retrieves from detection frame, the paper presents fuzzy-neuron network to classify all kinds of weather and illumination conditions. The result displays that color have similar distribution at the similar traffic condition, and it will contribute to classification of traffic background pattern model.
	The experimental place is in outdoors. The weather includes sunny day and rainy day, and the illumination change includes afternoon, nightfall, and night. According to our experimental analysis, the accurate rate of weather classified is 98.11 %,and illumination classified is 94.34 %.Then the accurate rate of weather and illumination is 92.45 %.
第三語言摘要
論文目次
目錄
中文摘要
英文摘要
誌謝
目錄
表目錄
圖目錄
第一章 緒論                           1
1.1 研究背景與動機                    1
1.2 研究目的	                    2
1.3 研究範圍	                    3
1.4 研究內容與方法	                    4
1.5 研究流程	                    5
第二章 文獻回顧	                    7
2.1 前言	                             7
2.2 國內外影像式偵測器回顧	           7
2.2.1 國內近況發展	                    7
2.2.2 國外近況發展	                    10
2.3 交通環境背景重建	           14
2.4 色彩特性與分析	                    18
2.5 類神經網路分類應用實例	           22
2.6 小結與討論	                    26
第三章 交通背景型態分類前之基礎分析	  27
3.1 前言	                             27
3.2 色彩模式特性	                    28
3.3 背景重建模式與分析	           32
3.3.1 影像平均數法	                    34
3.3.2影像中位數法	                    36
3.3.3影像眾數法	                    39
3.3.4 整合性背景模式	           41
3.4 情境分析	                    42
3.5 小結與討論	                    54
第四章 交通環境型態分類模式構建	  55
4.1 前言	                             55
4.2 模式建構	                    57
4.2.1 倒傳遞類神經	                    57
4.2.2 模糊類神經	                    62
4.3 模式參數設定與校估	           65
4.4 討論與小結	                    72
第五章 實證分析	                    73
5.1 前言	                             73
5.2 系統設備說明	                    73
5.3 系統概述	                    75
5.4 實驗環境說明與實驗結果分析	  80
5.5 小結與討論	                    85
第六章 結論與建議	                    86
6.1 結論	                             86
6.2 建議	                             87
參考文獻
附錄 系統主要程式碼










表目錄
表 1.1 交通環境情境	3
表2.1 影像偵測方式總整	9
表2.2 影像偵測器於各種交通情境之比較	12
表2.3 各種色彩與環境因素間的影響	21
表3.1 色彩空間分類	29
表3.2道路服務水準評估等級	42
表3.3 四叉路口小客車當量轉換權數表	42
表3.4 高流量與中低流量情境比較	43
表3.5 中低車流量與高車流量輸出結果比較	43
表3.6 高流量與中低流量情境比較	46
表3.7 高流量與中低流量情境比較	46
表3.8 高流量與中低流量情境比較	51
表4.1 類神經網路隱藏層與單元數測試結果	66
表4.1 類神經網路隱藏層與單元數測試結果(續)	66
表4.2 類神經切割模式參數設定表	67
表5.1 SONY TRV-320 數位攝影機規格表	73
表5.2數位影像擷取機規格表	74
表5.3 實驗室個人電腦規格表	74
表5.4 倒傳遞類神經網路分類結果:	83
表5.5模糊類神經網路分類結果:	83







圖目錄
圖1.1 拍攝方向示意圖	3
圖1.2 研究內容與方法	4
圖1.3 研究流程	6
圖3.1 模式構建流程	27
圖3.2 RGB色彩立方體圖	29
圖3.3 彩色影像像素值座標	30
圖3.4 擷取資料範圍	30
圖3.5(a) 白天RGB值的Histogram	31
圖3.5(b) 夜晚RGB值的Histogram	31
圖3.6 影像相減法	32
圖3.7 背景建構法	33
圖3.8 背景建構流程	33
圖3.9 影像平均法背景建構示意圖	34
圖3.10 影像平均法輸出的背景影像	35
圖3.11 影像中位數法背景建構示意圖	37
圖3.12 影像中位數法輸出的背景影像	38
圖3.13 影像眾數法背景建構示意圖	39
圖3.14 影像眾數法輸出的背景影像	40
圖3.15 背景更新流程	41
圖3.16 整合性背景模式流程圖	41
圖3.17 中低流量下各時階背景建構圖	44
圖3.18 高流量下各時階背景建構圖	45
圖3.19登輝大道背景影像重建(晴朗黃昏)	47
圖3.20榮和陸橋背景影像重建(晴朗黃昏)	47
圖3.21 高流量與中低流量RGB平均數與標準差之分布(晴朗黃昏)	48
圖3.22 登龍陸橋背景影像重建(晴朗黃昏)	49
圖3.23 中低流量與中低流量RGB平均數與標準差之分布(晴朗黃昏)	50
圖3.24 中正東路背景影像重建(下雨黃昏)	52
圖3.25 登輝大道背景影像重建(下雨黃昏)	52
圖3.26 中低流量與中低流量RGB平均數與標準差之分布(下雨黃昏)	53
圖4.1 影像分析流程示意圖	55
圖4.2 天候與光線偵測模式流程圖	56
圖4.3 倒傳遞網路示意圖	59
圖4.4 模糊類神經網路架構	63
圖4.5 倒傳遞類神經辨識模式架構圖	67
圖4.6 類神經網路學習收斂示意圖	67
圖4.7 類神經分類模式流程圖	68
圖4.8 模糊類神經辨識模式架構	69
圖4.9 模糊類神經模式流程圖	71
圖5.1 系統操作介面示意圖	75
圖5.2 系統操作示意圖1	76
圖5.3 系統操作示意圖2	77
圖5.4 系統操作示意圖3	78
圖5.5 系統操作示意圖4	78
圖5.6 系統操作示意圖5	79
圖5.7 拍攝地點	80
圖5.8 中正東路二段 - 晴天	81
圖5.9 中正東路二段 – 雨天	82
圖5.10 午後雷陣雨	83
圖5.11 晴朗的黃昏	84
圖5.12 雨天的黃昏	84
參考文獻
參考文獻
1.E. E. Hilbert, C.Carl, “Wide Area Detection system conceptual Design Study,” FHWA/RD-77-68,1978.
2.Stauffer C, Grimson W. E. L., “Learning patterns of activity using real-time tracking,” IEEE Transactions on Pattern Analysis & Machine Intelligence, 2000. 22(8): p. 747-57.
3.S.-C. Cheung and C. Kamath, “Robust techniques for background subtraction in urban traffic video,” in roceedings of Video Communications and Image 	
    Processing, SPIE Electronic Imaging, Jan 2004.
4.Monnet, A. Mittal, N. Paragios, and V. Ramesh, “Background modeling and subtraction of dynamic scenes,” in Proc. IEEE Int. Conf. on Computer Vision (ICCV), 2003, pp. 1305–131.
5.Bhandarkar, S.M., Luo, X, “Fast and Robust Background Updating for Real-time Traffic Surveillance and Monitoring,” Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05).
6.Lai, A.H.S., Yung, N.H.C., ”Lane detection by orientation and length discrimination,” Systems, Man and Cybernetics, Part B, IEEE Transactions on, Volume: 30 Issue: 4, Page(s): 539 -548, Aug. 2000.
7.C. Stauffer and W. E. L. Grimson, “Adaptive background mixture models for real-time tracking,” in Proc. IEEE Conf Computer Vision and Pattern Recognition CVPR’99, pp. 246–252, 1999.
8.A. Elgammal, R. Duraiswami, D. Harwood, and L. S. Davis, “Background and foreground modeling using nonparametric kernel density estimation for visual surveillance,” Proc. of the IEEE, vol. 90, pp. 1151– 1163, July 2002.
9.S. Jabri, Z. Duric, H.Wecheler, and A. Rosenfeld, “Detection and location of people in video images using adaptive fusion of color and edge information,” in Proc. 15th Int Conf on Pattern Recognition (ICPR-00), vol. 4, (Barcelona, Spain), pp. 627–630, Sept. 2000.
10.J. Shelley, N.L. Seed, “Approaches to static background identification and removal,” IEE Colloquium on Image Processing for Transport Applications, pp.6/1-6/4, 1993.
11.P. Giaccone, D. Amanatidis and G.A. Jones, “Segmenting Image Sequences by Embedding Motion and Colour Cues Within a Contextural Relaxation Scheme,” IEE Colloquium on Motion Analysis and Tracking (Ref. No. 1999/103), pp.18/1 -18/6, 1999.
12.R. Cucchiara, M. Piccardi, and A. Prati, “Detecting moving objects, ghosts, and shadows in video streams,” IEEE Transactions on Pattern Analysis and Machine Intelligence 25, pp. 1337~1342, Oct 2003.
13.K. Toyama, J. Krumm, B. Brumitt, and B. Meyers, “Wallower: Principles and practice of background maintenance,” in ICCV (1), pp. 255~261, 1999.
14.N. Friedman and S. Russell, “Image segmentation in video sequences: A probabilistic approach,” in Proceedings of the Thirteenth Annual Conference on Uncertainty in Arti_cial Intelligence (UAI 97), pp. 175~181, Morgan Kaufmann Publishers, Inc., (San Francisco, CA), 1997.
15.L. C. Fu, and C. Y. Liu, “Computer vision based object detection and recognition for vehicle driving,” IEEE Proc. on Robotics & Automation, pp. 2634-2641, 2001.
16.HUANG Mao-Chi and YEN Shwu-Huey, “A real-time and color-based computer vision for traffic monitoring system,” IEEE International Conference on multimedia June 27-30, 2004.
17.Yun-Chun Chun, Jung-Ming Wang and Sei-Wang Chen, “A Vision-Based Traffic Light Detection System at Intersections,Journal of Taiwan Normal University, Mathematics, Science & Technology, vol. 47, n1, pp.67-86, 2004.
18.Dashan Gao, Jie Zhou, and Leping Xin,” SVM-based Detection of Moving Vehicles for Automatic Traffic Monitoring,” Proceedings of IEEE Conference of Intelligent Transportation Systems (ITSC) 2001, p745~749.
19.Cedric Vanaken, Tom Mertens, Philippe Bekaert, “Video-Based Rendering Of Traffic Sequences,” Published in Proceedings of WSCG'06, Pilsen, Czech Republic, Feb 2006.
20.J. A. G. Nijhuis, M. H. T. Brugge, K. A. Helmholt, J. P. W. Pluim, L. Spaanenburg, R. S. Venema, and M. A. Westenberg, “Car license plate recognition with neural networks and fuzzy logic,” in Proc. IEEE Int. Conf. Neural Networks, vol. 5, 1995, pp. 2232–2236. 
21.M.M.M. Fahmy, “Automatic Number-plate Recognition:Neural Network Approach,” Proceedings of  VNIS’94 Vehicle Navigation and Information System Conference, 31 Aug - 2 Sept, 1994.
22.Krause B., von Altrock C., Pozybill, M., “Fuzzy logic data analysis of environmental data for traffic control,” Fuzzy Systems, Proceedings of the Sixth IEEE International Conference, 1997. 
23.Seung-Heon Lee, Murlikrishna Viswanathan, Young-Kyu Yang, “A Hybrid Soft Computing Approach to Link Travel Speed Estimation,” FSKD 2006: 794-802.
24.Srinivasan, D. S. Sanyal , “Hybrid Neuro-Fuzzy Technique for Automated Traffic Incident Detection,” 2006 IEEE International Joint Conference on Neural Network ( Vancouver , Canada ).
25.Do Lenh Hung Son, Truong Thien Dinh, Van Chi Nam, Tran Thi Bich Hanh, Ho Ngoc Lam, “Detection and Localization of Road Area in Traffic Video Sequences Using Motion Information and Fuzzy-Shadowed Sets,” ISM 2005: 725-732.
26.龍天立、范俊海、鍾隆文、黃任信,影像處理技術建構獨立路口資料收集系統及號誌控制智慧系統之研究,行政院國科會專題研究計劃,民國79年8月。
27.范俊海,影像處理技術建構交通資料收集系統之研究,國立台灣大學土木工程學研究所博士論文,民國79年6月。
28.鍾隆文,影像處理求交通參數之研究-以特徵匹配法為例,國立台灣大學土木工程學研究所碩士論文,民國79年6月。
29.曾仁松,影像處理技術於基本交通參數收集模式之研究,國立台灣大學土木工程學研究所碩士論文,民國81年6月。
30.翁森伯,車輛運動行為軌跡追蹤之研究,淡江大學土木工程研究所碩士論文,民國82年6月。
31.廖明燦,樣本點識別方法應用車輛之即時辨識,國立台灣大學土木工程學研究所碩士論文,民國83年6月。
32.林志宏,視覺化偵測路口內車輛轉向參數之研究,淡江大學土木工程研究所碩士論文,民國85年6月。
33.陳麗奾,在未設限環境下車牌的定位與辨識,國立臺灣師範大學資訊教育研究所碩士論文,民國89年6月。
34.莊建宏,自動化交通監控系統,國立台灣師範大學資訊教育研究所碩士論文,民國90年。
35.莊盛淵,夜間車流影像之車輛分類與追蹤之研究,淡江大學運輸管理學系運輸科學研究所碩士論文,民國91年1月。
36.林清波,基於即時影像追蹤之交通監控系統,國立交通大學電機與控制工程學系碩士論文,民國91年。
37.蔡宗諭,即時車種分類與計數,國立臺灣師範大學資訊教育研究所碩士論文,民國92年6月。
38.陳佳宜,人體追蹤系統之研究,淡江大學電機工程學系碩士在職專班,民國91年6月。
39.張書銘,高速公路收費站旅行時間預測之研究,國立中央大學土木工程研究所,民國93年6月。
40.黃國平、歐大銓,利用影像實錄鑑別高速公路及市區道路易肇事地點研究,中華民國運輸學會第20屆學術研討會,2005年11月。
41.劉欣憲,應用程序分析、分類樹與類神經網路建構肇事鑑定模式之研究,逢甲大學交通工程與管理所,民國95年7月。
論文全文使用權限
校內
校內紙本論文立即公開
同意電子論文全文授權校園內公開
校內電子論文立即公開
校外
同意授權
校外電子論文立即公開

如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信