§ 瀏覽學位論文書目資料
  
系統識別號 U0002-0708202415084900
DOI 10.6846/tku202400641
論文名稱(中文) 機場跑道自動辨識系統
論文名稱(英文) Automatic Identification of Airport Runways
第三語言論文名稱
校院名稱 淡江大學
系所名稱(中文) 航空太空工程學系碩士班
系所名稱(英文) Department of Aerospace Engineering
外國學位學校名稱
外國學位學院名稱
外國學位研究所名稱
學年度 112
學期 2
出版年 113
研究生(中文) 黃聖翔
研究生(英文) Sheng-Xiang Huang
學號 611430223
學位類別 碩士
語言別 繁體中文
第二語言別
口試日期 2024-06-18
論文頁數 50頁
口試委員 指導教授 - 蕭富元(fyhsiao@mail.tku.edu.tw)
口試委員 - 王怡仁
口試委員 - 呂文祺
關鍵字(中) 無人機
跑道
深度學習
電腦視覺
YOLOv7
關鍵字(英) Unmanned Aerial Vehicle
Runway
Deep Learning
Computer Vision
YOLOv7
第三語言關鍵字
學科別分類
中文摘要
本論文旨在提出一種新的無人機跑道辨識方法,藉由結合深度學習以及傳統電腦視覺技術,來彌補因尺寸以及操作成本限制而無法搭載完整儀器降落系統的缺陷。透過結合深度學習法和電腦視覺技術,剛好可發揮兩項技術的長處:深度學習對偵測複雜場景的穩健性,和電腦視覺對線段偵測的準確性。
具體來說,本研究使用YOLOv7搭配影像處理來實現跑道偵測以及中線偵測。在跑道偵測的部分首先需蒐集足夠多的數據來訓練YOLOv7模型,本研究使用了各種機場的跑道圖片以及實驗跑道的空拍照,在經過數據增強處理後,總共得到1068張訓練圖片,而訓練完的模型準確度則來到了0.95。而中線偵測的部分則使用HSV色彩空間轉換和Canny邊界偵測法,將跑道的兩邊邊界提取出來,並且對兩條邊界取平均即可得到跑道中線,在得到跑道中線後即可計算無人機與跑道的相對位置,並且將數據輸出,以利後續對姿態進行調整來達到降落的目的。而在研究最後,我們也對實驗所得到的測量值以及手動標記中線的真實值進行誤差測量,得到了偏移角度的誤差皆在6度以下,且偏移量的誤差皆在30個pixels之內的結果。
英文摘要
This thesis aims to propose a novel UAV runway recognition method by combining deep learning and traditional computer vision techniques. Due to the limitations of UAVs that cannot be equipped with a complete instrument landing system due to size and operational cost constraints. By integrating deep learning and computer vision, the method leverages the strengths of both technologies: the robustness of deep learning in detecting complex scenes and the accuracy of computer vision in line detection.
Specifically, this study employs YOLOv7 along with image processing to achieve runway detection and centerline detection. For runway detection, it is essential to collect sufficient data to train the YOLOv7 model. This study uses images of various airport runways and aerial photos of experimental runways. After data augmentation, a total of 1068 training images were obtained, and the trained model achieved an accuracy of 0.95. For centerline detection, HSV color space conversion and Canny edge detection are used to extract the edges of the runway. The average of the two edges is then taken to obtain the runway centerline. Once the centerline is obtained, the relative position of the UAV to the runway can be calculated, and the data can be output to facilitate subsequent attitude adjustments for landing. Finally, the study measures the errors between the experiment values and the true values of the manually marked centerline. The results show that the deviation angle error is within 6 degrees, and the displacement error is within 30 pixels.
第三語言摘要
論文目次
第一章 緒論 1
1.1研究動機 1
1.2文獻回顧  2
1.3研究方法  3
第二章 跑道偵測演算法之簡介 4
2.1卷積神經網路  4
2.2 YOLOv7 7
2.3 YOLOv7損失函數 10
2.3.1 CIoU Loss(Complete Intersection Union Loss) 11
2.3.2 Focal Loss 12
2.4數據增強(Data Augmentation) 14
第三章 跑道中線檢測法 15
3.1色彩空間 15
3.1.1 RGB色彩空間 15
3.1.2 HSV色彩空間 16
3.1.3色彩空間轉換 17
3.2 Canny Edge Detector 18
3.3 Hough Transform 19
第四章 實驗架構與結果 21
4.1實驗載具 22
4.2建立資料集 23
4.3環境建置 24
4.4開始訓練 25
4.5 降落階段之中線偵測 31
4.5.1 影像處理 31
4.5.2 跑道中線偵測 33
4.5.3計算偏移角和偏移量 34
4.5.4誤差驗證 36
第五章 結論 40
參考文獻 41

圖目錄
圖1-1:ILS(Instrument Landing System) 1
圖1-2:跑道辨識流程 3
圖2-1卷積神經網路結構 4
圖2-2卷積層示意圖 5
圖2-3 max pooling示意圖 5
圖2-4 Fully Connected Layer示意圖 6
圖2-5 YOLO structure 7
圖2-6 Compound model scaling (複合模型縮放) 8
圖2-7 Extended efficient layer aggregation networks (擴展的高效層聚合網路) 8
圖2-8 Model re-parameterized (模型重參數化) 8
圖2-9 Dynamic label- assignment strategy (動態標籤分配策略) 9
圖2-10 YOLO series benchmark 9
圖2-11 IoU示意圖 11
圖2-12數據增強應用 14
圖3-1 RGB色彩空間模型 15
圖3-2 HSV色彩空間模型 16
圖3-3非極大值抑制 18
圖3-4 rho-theta示意圖 19
圖3-5坐標系轉換示意圖 20
圖3-6多點霍夫換示意圖 20
圖4-1:實驗架構流程圖 21
圖4-2:CMOS鏡頭 22
圖4-3:原跑道空照圖vs數據增強 23
圖4-4:labelme標註頁面 24
圖4-5:Anaconda環境示意圖 24
圖4-6:YOLOv7模型訓練曲線圖 25
圖4-7:TP/FP/FN/TN關係圖 27
圖4-8:YOLOv7預測結果 29
圖4-9:高度200公尺進場模擬 30
圖4-10:實驗跑道 31
圖4-11:HSV色彩空間轉換 31
圖4-12:提取出的跑道邊界 32
圖4-13:Canny edge detector示意圖 32
圖4-14:使用霍夫轉換提取出跑道邊界 33
圖4-15:藉由邊界平均求得中線 34
圖4-16:偏移角度關係圖 34
圖4-17:機身左偏示意圖 35
圖4-18:機身右偏示意圖 35
圖4-19:輸出數據 35
圖4-20:每幀畫面輸出 36
圖4-21:手動中線標記示意圖 36
圖4-22:角度誤差折線圖 39
圖4-23:偏移量誤差折線圖 39
表目錄
表4-1:實驗載具規格表 22
表4-2:設定參數 25
表4-3:YOLOv7模型訓練數據 26
表4-4:P、R-curve & PR-curve & F1-curve 27
表4-5:角度誤差表 37
表4-6:偏移量誤差表 38
參考文獻
[1]
周威宇, 機器視覺於跑道辨識以引導無人機近場與降落》碩士論文。 台南:國立成功大學航空太空工程學系碩士班,2015年。
[2]
張展維, 無人飛機影像辨識輔助降落系統》碩士論文。桃園:元智大學機械工程學系碩士班,2012年。
[3]
黃佩瑩, 以影像識別方法進行跑道偵測於固定翼無人飛機之實現》碩士論文。台南:國立成功大學航空太空工程學系碩士班,2009年。
[4]
R. A. Amit and C. K. Mohan, “A Robust Airport Runway Detection Network Based on R-CNN Using Remote Sensing Images,” IEEE Aerosp. Electron. Syst. Mag., vol. 36, no. 11, pp. 4–20, Nov. 2021, doi: 10.1109/MAES.2021.3088477.
[5]
H. Mirhajianmoghadam and B. B. Haghighi, “EYNet: Extended YOLO for Airport Detection in Remote Sensing Images,” Mar. 26, 2022, arXiv: arXiv:2203.14007. Accessed: May 15, 2024. [Online]. Available: http://arxiv.org/abs/2203.14007
[6]
J. Du, “Understanding of Object Detection Based on CNN Family and YOLO,” J. Phys.: Conf. Ser., vol. 1004, p. 012029, Apr. 2018, doi: 10.1088/1742-6596/1004/1/012029.
[7]
吳宥霖, 基於YOLOv7與深度影像於樓梯間跌倒事件的偵測》碩士論文。高雄:國立高雄科技大學資訊管理系碩士班,2023年。
[8]
C.-Y. Wang, A. Bochkovskiy, and H.-Y. M. Liao, “YOLOv7: Trainable bag-of-freebies sets new state-of-the-art for real-time object detectors,” Jul. 06, 2022, arXiv: arXiv:2207.02696. Accessed: Jul. 30, 2024. [Online]. Available: http://arxiv.org/abs/2207.02696
[9]
J. Redmon, S. Divvala, R. Girshick, and A. Farhadi, “You Only Look Once: Unified, Real-Time Object Detection,” May 09, 2016, arXiv: arXiv:1506.02640. Accessed: May 07, 2024. [Online]. Available: http://arxiv.org/abs/1506.02640
[10]
L. G. Delphina and V. Naidu, “Detection of Airport Runway Edges using Line Detection Techniques”.
[11]
Z. Zheng, P. Wang, W. Liu, J. Li, R. Ye, and D. Ren, “Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression,” Nov. 19, 2019, arXiv: arXiv:1911.08287. Accessed: May 17, 2024. [Online]. Available: http://arxiv.org/abs/1911.08287
[12]
T.-Y. Lin, P. Goyal, R. Girshick, K. He, and P. Dollár, “Focal Loss for Dense Object Detection,” Feb. 07, 2018, arXiv: arXiv:1708.02002. Accessed: May 17, 2024. [Online]. Available: http://arxiv.org/abs/1708.02002
[13]
“How Instrument Landing System (ILS) works | Instrument landing system, Aviation education, Student pilot,” Pinterest. Accessed: Jun. 15, 2024. [Online]. Available: https://www.pinterest.co.uk/pin/instrument-landing-system-ils-ils-is-the-only-navigational-aid-for-landing-and-final-approach--681521356082239542/
[14]
D. Kalita, “Basics of CNN in Deep Learning,” Analytics Vidhya. Accessed: Jun. 15, 2024. [Online]. Available: https://www.analyticsvidhya.com/blog/2022/03/basics-of-cnn-in-deep-learning/
[15]
Y. James, “[資料分析&機器學習] 第5.1講:卷積神經網絡介紹(Convolutional Neural Network),” JamesLearningNote. Accessed: Jun. 15, 2024. [Online].Available:https://medium.com/jameslearningnote/%E8%B3%87%E6%96%99%E5%88%86%E6%9E%90-%E6%A9%9F%E5%99%A8%E5%AD%B8%E7%BF%92-%E7%AC%AC5-1%E8%AC%9B-%E5%8D%B7%E7%A9%8D%E7%A5%9E%E7%B6%93%E7%B6%B2%E7%B5%A1%E4%BB%8B%E7%B4%B9-convolutional-neural-network-4f8249d65d4f
[16]
J. Chou, “Distance-IOU Loss : Faster and Better Learning for Box Regression,” Medium. Accessed: Jun. 15, 2024. [Online]. Available: https://medium.com/@jacksonchou/distance-iou-loss-faster-and-better-learning-for-box-regression-9df8fc627e8
[17]
V. Popov, M. Ostarek, and C. Tenison, “Practices and pitfalls in inferring neural representations,” NeuroImage, vol. 174, pp. 340–351, Jul. 2018, doi: 10.1016/j.neuroimage.2018.03.041.
[18]
“OpenCV: Canny Edge Detection.” Accessed: Jun. 15, 2024. [Online]. Available: https://docs.opencv.org/4.x/da/d22/tutorial_py_canny.html
[19]
天道酬勤, “Hough Transform,” Medium. Accessed: Jun. 15, 2024. [Online]. Available: https://medium.com/@bob800530/hough-transform-cf6cb8337eac
[20]
A. Idris, “Confusion Matrix,” Medium. Accessed: Jun. 15, 2024. [Online]. Available: https://medium.com/@awabmohammedomer/confusion-matrix-b504b8f8e1d1
論文全文使用權限
國家圖書館
不同意無償授權國家圖書館
校內
校內紙本論文立即公開
同意電子論文全文授權校園內公開
校內電子論文立即公開
校外
同意授權予資料庫廠商
校外電子論文立即公開

如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信