§ 瀏覽學位論文書目資料
  
系統識別號 U0002-2901202616175300
DOI 10.6846/tku202600088
論文名稱(中文) 基於ICP點雲配準提升物體方位識別之研究
論文名稱(英文) Study on Enhancing Object Orientation Recognition Using ICP-Based Point Cloud Registration
第三語言論文名稱
校院名稱 淡江大學
系所名稱(中文) 機械與機電工程學系碩士班
系所名稱(英文) Department of Mechanical and Electro-Mechanical Engineering
外國學位學校名稱
外國學位學院名稱
外國學位研究所名稱
學年度 114
學期 1
出版年 115
研究生(中文) 林威宇
研究生(英文) Wei Yu Lin
學號 613370088
學位類別 碩士
語言別 繁體中文
第二語言別
口試日期 2026-01-12
論文頁數 84頁
口試委員 指導教授 - 楊智旭(096034@gms.tku.edu.tw )
口試委員 - 張士行
口試委員 - 吳乾埼
關鍵字(中) 3D視覺
迭代最近點算法(ICP)
Yolo深度學習
ROS控制
眼在手(Eye-in-Hand)機械臂
HSV色彩空間
PCA(Principal Component Analysis)
無標記物體追蹤
關鍵字(英) 3D Vision
Iterative Closest Point (ICP)
Deep Learning
ROS Control
Eye-in-Hand Robot
Hue Saturation Value(HSV)
Principal Component Analysis(PCA)
Object Tracking
第三語言關鍵字
數位影音資料
學科別分類
中文摘要
本技術報告藉由使用雙目(Stereo)相機拍攝目標物體,以取得2D色彩影像與3D點雲資料,輔佐眼在手機械臂建立影像定位,並使用迭代最近點(Iterative Closest Point, ICP)演算法,讓儲存之標準拍攝模板,與物品經平移旋轉後重新拍攝的影像資料進行點雲配準,分析出物品偏移後的座標差值,重新規劃拍攝路徑。為減少大量配準點計算,利用HSV色彩空間與點雲篩選,將點雲與Yolo深度學習完後生成的目標邊界框(bounding box)對應,分離出物品所屬的特徵點雲資料。點雲噪點處理上,則依賴中值濾波對時域進行過濾,將離群較大與較小的點篩選掉。透過該演算法,手臂姿態將依據配準後點雲與PCA主成分分析,推估出物品被移動後的旋轉矩陣,轉換四元數(Quaternion)座標進行更新,再映射至機械臂更新下一步的夾爪姿態,重複進行該程序,直到配準誤差小於預設閾值為止。當迭代收斂後,所得手臂姿態即近似於原始目標影像拍攝時之相機空間位置,完成即時追蹤及局部路徑重新規劃,最終實現對物品的全方位光學檢測。
英文摘要
This technical report utilizes a stereo camera to capture target objects, acquiring 2D color images and 3D point cloud data to facilitate visual localization for an Eye-in-Hand robotic arm. By employing the Iterative Closest Point (ICP) method, the system performs point cloud registration between the initial target point cloud and the source point cloud captured after the object has been translated or rotated. This process analyzes the coordinate differences caused by the object's displacement to re-plan the local path.
To reduce the computational work of matching points, the system combines HSV color space filtering with Yolo deep learning bounding boxes to isolate the characteristic point cloud data associated with the object. regarding noise reduction, median filtering is applied in the time domain to eliminate outliers (noise).
By this method, the arm pose is updated based on the registered point cloud and Principal Component Analysis (PCA). The system estimates the rotation matrix of the moved object, converts it into Quaternion coordinates, and maps into the robotic arm to update the gripper's pose for the next step. This procedure is repeated until the registration error falls below a preset threshold. Once the iteration converges, the resulting arm pose approximates the camera's spatial position when the original target image was captured. This achieves real-time tracking and local path re-planning, ultimately realizing omnidirectional optical inspection of the object.
第三語言摘要
論文目次
目錄
摘要	I
ABSTRACT	III
目錄	VI
圖目錄	IX
表目錄	XIII
第一章	緒論	1
1-1前言	1
1-2實習機構簡介	2
1-3實習內容概述	2
1-4研究背景	3
1-5研究動機	4
1-6研究範圍	5
第二章	文獻探討	14
2-1自動光學檢測	14
2-2迭代最近點演算	15
2-2 3D模型	18
2-3 點雲特徵化	19
2-4相機與機械手臂結合	20
2-5視覺誤差定位	21
2-6 自動控制回授系統	22
2-7研究架構	23
第三章	實驗設計	25
3-1實驗流程	27
3-2系統主架構	32
3-3 手臂控制系統	35
3-4視覺影像辨識與處理	47
3-5 ICP參數介紹與調整	55
3-7測量指標	57
第四章	實驗結果	63
4-1實驗結果	70
4-2應用可行性分析	77
第五章	結論	79
5-1結論	79
5-2未來展望	80
第六章	參考文獻	82

 
圖目錄
圖 1車體載具平台圖	6
圖 2 MyCobot280手臂圖	9
圖 3 Intel Realsense D405實體圖	11
圖 4 NVIDIA Jetson AGX Orin實體圖	12
圖 5 (a)相機3D繪製圖(b)相機固定件實體圖	12
圖 6完整設備圖	13
圖 7 ICP迭代示意圖	17
圖 8 3D模型的呈現種類	18
圖 9研究架構示意圖	23
圖 10設計架構圖	24
圖 11電池盒(a)正視圖(b)側視圖	26
圖 12實驗環境圖	27
圖 13研究流程圖	31
圖 14實驗修正優化	32
圖 15通訊架構圖	33
圖 16 (a)相機修改前(b)相機修改後對比圖	36
圖 17 URDF結構圖	38
圖 18路徑演算法RRTConnect	39
圖 19 MoveIt運動軌跡圖	40
圖 20本實驗之手臂端TF tree視圖	43
圖 21本實驗之相機端之TF tree視圖	44
圖 22 (a)相機TF座標轉換前(b)相機TF座標轉換後	45
圖 23未調整前的點雲座標圖	46
圖 24 PCA主成分分析	46
圖 25透過PCA使手臂座標獲得轉向圖	46
圖 26 Yolo訓練抽樣驗證結果圖	47
圖 27 Yolov7 resault	48
圖 28 Yolo辨識結果圖	48
圖 29雙目立體視覺示意圖	49
圖 30原始拍攝點雲影像圖	53
圖 31透過ROI裁切後的點雲影像圖(上方視角)	53
圖 32透過ROI裁切後的點雲影像圖(側向視角)	53
圖 33 HSV色彩空間示例圖	54
圖 34經過色彩濾鏡得出的點雲圖(上方視角)	55
圖 35經過色彩濾鏡得出的點雲圖(側向視角)	55
圖 36實際運作流程圖	60
圖 37標準位(a)上方視圖(b)正向視圖(c)側向視圖	61
圖 38電池盒移動示意圖	62
圖 39 (a)標準位取像實際圖(b)移動後再次拍攝示意圖	64
圖 40 物品移動後的拍攝結果圖	64
圖 41點雲配準過程畫面圖	65
圖 42 (a)標準位儲存之點雲模板圖(b)當下相機取像	65
圖 43最終匹配結果	66
圖 44拍攝標籤位姿(a)程式介面圖(b)實際拍攝畫面圖	66
圖 45最終移動拍攝標籤圖	66
圖 46每張照片之標籤座標點分佈圖	69
圖 47 (a)x加5cm(b)x減4cm所拍出的結果圖	71
圖 48 (a)y加2cm(b)y加5cm所拍出的結果圖	71
圖 49 (a)逆時針5度(b)順時針20度所拍出的結果圖	72
圖 50旋轉角度示意圖	74
圖 51 (a)3號角逆時針旋轉5度(b)4號角順時針旋轉20度所拍出的結果圖	74
圖 52 (a)高度2cm(b)高度5cm所拍出的結果圖	75
圖 53傾角示意圖	76
圖 54 (a)125張A4紙高(b)175張A4紙高結果圖	77

 
表目錄
表 1 手臂參數表	7
表 2 手臂馬達參數表	8
表 3 手臂運動範圍表	8
表 4 深度相機Realsence參數表	10
表 5 電腦規格表	11
表 6 系統在物品未進行偏移下之重複精度紀錄表	68
表 7 系統針對該辨識物品在定點位下重複精度表	69
表 8 系統針對物品平面移動影響下之實驗記錄表	70
表 9 系統針對物品以中心旋轉影響下之實驗記錄表	72
表 10 系統針對物品平移加旋轉影響下之實驗記錄表	73
表 11 系統針對物品垂直高度影響下之實驗記錄表	75
表 12 系統針對物品傾斜影響下之實驗記錄表	76

參考文獻
[1]	Milan, S., Hlavac, V., & Boyle, R.(2011)。圖像處理、分析與機器視覺(艾海舟、蘇延超 等譯)(第3版)。清華大學出版社。ISBN: 9787302236863
[2]	Besl, P. J., & McKay, N. D. (2017). Method for registration of 3-D shapes. In Sensor fusion IV: Control paradigms and data structures.
[3]	章宇賢(2019)。基於深度學習與3D姿態估測之機械臂抓取系統設計〔碩士論文,國立交通大學電控工程研究所〕。臺灣博碩士論文知識加值系統。
[4]	張凱傑(2020)。基於RGBD-CNN及卷積自編碼之3D物品方位辨識及抓取點生成法則〔碩士論文,國立成功大學電機工程學系〕。臺灣博碩士論文知識加值系統。
[5]	Xing, S., Jing, F., & Tan, M. (2023). Reconstruction-based hand–eye calibration using arbitrary objects. IEEE Transactions on Industrial Informatics, Advance online publication.
[6]	林佳蓁(2015)。以2D影像特徵作為ICP初始估測之3D點雲對位〔碩士論文,國立雲林科技大學〕。臺灣博碩士論文知識加值系統。
[7]	Lin, H.-Y., Liang, S.-C., & Chen, Y.-K. (2021). Robotic grasping with multiview image acquisition and model-based pose estimation. IEEE Robotics and Automation Letters.
[8]	Schwarz, M., Milan, A., Lenz, C., Munoz, A., Periyasamy, A. S., Schreiber, M., Schüller, S., & Behnke, S. (2017). NimbRo picking: Versatile part handling for warehouse automation. In Proceedings of 2017 IEEE International Conference on Robotics and Automation (ICRA) (pp. 3032-3039).
[9]	Prankl, J., Aldoma, A., Svejda, A., & Vincze, M. (2015). RGB-D object modelling for object recognition and tracking. In Proceedings of 2015 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS) (pp. 96-103). Hamburg, Germany.
[10]	商少瑜(2021)。基於機器學習2D影像辨識與3D物品姿態估測之眼在手機械手臂夾取系統〔碩士論文,國立臺北科技大學〕。臺灣博碩士論文知識加值系統。
[11]	Zeng, A., Yu, K.-T., Song, S., Suo, D., Walker, E., Jr., Rodriguez, A., & Xiao, J. (2017). Multi-view self-supervised deep learning for 6D pose estimation in the Amazon Picking Challenge. In Proceedings of 2017 IEEE International Conference on Robotics and Automation (ICRA) (pp. 1386-1383). Singapore.
[12]	楊皓翔(2025)。使用新型ICP演算法多視角重建實現機器人手臂的噴漆路徑〔碩士論文,國立臺灣師範大學〕。
[13]	施俊麟(2018)。基於點雲特定目標物搜尋與抓取之移動機器人〔碩士論文,國立中正大學〕。
[14]	李至傑(2022)。基於點雲與影像體素特徵深度學習之物品辨識〔碩士論文,國立成功大學〕。臺灣博碩士論文知識加值系統。
[15]	Chen, Y., & Medioni, G. (1992). Object modeling by registration of multiple range images. Image and Vision Computing, 10(3), 145–155.
[16]	Masuda, Y., & Yokoya, N. (1995). A robust method for registration and segmentation of multiple range images. Computer Vision and Image Understanding, 61(3), 295–307.
[17]	Zhong, Z., Xiao, G., Wang, S., Wei, L., & Zhang, X. (2022). PESA-Net: Permutation-equivariant split attention network for correspondence learning. Information Fusion, 77, 81–89.
論文全文使用權限
國家圖書館
同意無償授權國家圖書館,書目與全文電子檔於繳交授權書後, 於網際網路立即公開
校內
校內紙本論文立即公開
同意電子論文全文授權於全球公開
校內電子論文立即公開
校外
同意授權予資料庫廠商
校外電子論文立即公開

如有問題,歡迎洽詢!
圖書館數位資訊組 (02)2621-5656 轉 2487 或 來信