# 臺灣博碩士論文加值系統

(3.235.227.117) 您好！臺灣時間：2021/07/28 04:08

:::

### 詳目顯示

:
 Twitter

• 被引用:1
• 點閱:81
• 評分:
• 下載:0
• 書目收藏:0
 近年來，利用拍攝物體及場景的2D影像以重建其3D影像的需求逐漸增加，一般來說，常見的3D影像重建大多是建立在以模擬雙眼看景物的方式，使用二台攝影機擷取影像，以取得所需要的左右成對圖像，加以計算得知深度圖。而本文使用單一鏡頭多角度拍攝的架構，擷取多張不同角度圖像，再經過影像特徵點提取、特徵點匹配、運動回復結構等處理，最後利用點雲呈現物體3D影像輪廓。本文以樹莓派微型電腦為基礎，建置實驗設備以拍攝物體影像計算其3D點雲資料。實驗顯示本文完成的成果有三：(1)完成使用樹莓派控制馬達並可利用Picamera擷取圖片；(2)在python環境下使用SIFT特徵點提取並匹配，再利用閥值的調整，以得出更多的匹配值；(3)利用運動回復結構演算的結構光之三角測量原理，將匹配的點顯示於3D座標中。關鍵字：樹莓派、相機校準、python、三維重建、SfM
 In recent years, the need to reconstruct 3D image of objects and scenes by capturing its 2D images has been increasing. In general, most of the common 3D image reconstructions are based on the way of simulating binoculars, using two cameras to capture images to obtain the desired pair of left and right images, and calculating the depth map. In this dissertation, a single camera multi-angle shooting architecture is used to capture multiple images of different angles, and then through image feature point extraction, feature point matching, motion recovery structure, etc., and finally use the point cloud to present the 3D image contour of the object. Based on the Raspberry Pi, this dissertation builds experimental equipment to calculate the 3D point cloud data by taking object images. Experimental results show that there are three results have been completed in this dissertation as follow. First, Raspberry Pi is used to develop an experimental equipment for controlling stepping motor to capture images by using Picamera. Next, the feature points between 2D images are extracted and matched by using SIFT algorithm in python environment, and then more feature points can be obtained by adjusting the threshold. 3) The triangulation principle of the structured light calculated by the motion recovery structure is used to display the matched points in the 3D coordinates. Finally, in this dissertation, the principle of triangulation of structured light calculated by motion recovery structure is used to display the matching points in 3D coordinates.Keywords: Raspberry Pi, camera calibration, python, 3D reconstruction, motion recovery structure
 摘要 IAbstract II目錄 III圖目錄 V表目錄 VII第一章 緒論 11.1 研究動機 11.2 研究目的 1第二章 理論基礎及文獻回顧 22.1 相機簡介 22.1.1 成像原理 22.1.2 相機投影幾何 32.1.3 透鏡徑向畸變差 52.1.4 相機校正 72.2 立體視覺 112.2.1 雙目立體視覺基礎 112.2.2 單目立體視覺基礎 122.2.3 雙鏡頭立體匹配 132.2.4 單鏡頭立體匹配 142.2.4.1 SIFT演算法 142.2.4.2 SfM運動回復結構演算法 172.3 影像處理 192.3.1 影像擷取及分析 192.3.2 影像灰階 202.3.3 影像二值化 20第三章 實驗設備 223.1 硬體設備介紹 223.1.1 樹莓派 Raspberry Pi B+ 223.1.2 樹莓派鏡頭模組 Camera Module V2 233.1.3 步進馬達 243.1.4 馬達擴展板Raspberry Pi Stepper Motor HAT 253.2 軟體環境 273.2.1 OpenCV函式庫 273.2.1 python程式語言 283.2.3 Linux環境系統 29第四章 實驗結果與討論 304.1 系統架構 304.2 實驗步驟 304.2.1 相機校正 314.3 實驗結果 374.4 結果討論 46第五章 結論與未來展望 475.1 結論 475.2 未來展望 48參考文獻 49 圖目錄圖2.1 針孔成像模擬圖 2圖2.2 針孔成像與實際座標關係圖 3圖2.3 相機與投影原理示意圖 4圖2.4 枕形畸變示意圖 5圖2.5 畸變差異示意圖 6圖2.6 徑向畸變失真模型示意圖 6圖2.7 相機透鏡與成像平面不平形示意圖 7圖2.8 棋盤格校正版 8圖2.9 圖像座標系 9圖2.10 相機與圖像投影的關係示意圖 10圖2.11 人眼直視物體示意圖 11圖2.12 雙目立體機器視覺的概念圖 11圖2.13 單目鏡頭獲取圖片序列示意圖 13圖2.14 單目鏡頭R、T關係圖 13圖2.15 不同σ值尺度空間式意圖 15圖2.16 圖像金字塔降採樣示意圖 15圖2.17 採樣點相鄰比對示意圖 16圖2.18 經過SIFT取得特徵點之示意圖 16圖2.19 SIFT特徵點提取演算法匹配結果示意圖 17圖2.20 SfM圖像序列擷取示意圖 17圖2.21 結構光測量原理式意圖 18圖2.22 RGB三原色概念圖 19圖2.23 RGB色彩空間模型 20圖2.24 灰階與二值化比較圖 21圖3.1 樹莓派Pi3 model B 22圖3.2 歷代樹莓派規格比較圖 22圖3.3 樹莓派組件圖 23圖3.4 樹莓派鏡頭模組 Camera Module V2 24圖3.5 JLB 42型步進馬達 25圖3.6 馬達擴展板Raspberry Pi Stepper Motor HAT 26圖3.7 馬達擴展板安裝於樹莓派主機實例圖 26圖3.8 馬達擴展板簡介圖 27圖3.9 OpenCV架構圖 28圖3.10 python程序架構圖 29圖4.1 實驗平台 30圖4.2 實驗流程圖 31圖4.3 攝影機標定使用的校正板 32圖4.4 Picamera直接擷取之圖片與角點圖 33圖4.5 cv2.calibrateCamera()程式碼 34圖4.6 標定後取得的參數結果 34圖4.7 相機校正取樣圖 36圖4.8 相機校正方法比較圖 37圖4.9 不同距離拍攝物體之比對圖 38圖4.10 SIFT特徵點提取比對圖(實驗一) 38圖4.11 特徵點匹配圖(實驗一) 39圖4.12 三維點圖(實驗一) 40圖4.13 SIFT特徵點提取比對圖(實驗二) 41圖4.14 特徵點匹配圖(實驗二) 42圖4.15 三維點圖(實驗二) 43圖4.16 SIFT特徵點提取比對圖(實驗三) 44圖4.17 特徵點匹配圖(實驗三) 45圖4.18 三維點圖(實驗三) 46表目錄表3.1 樹莓派鏡頭模組 Camera Module V2規格表 24表3.2 JLB 42型步進馬達規格表 25表3.3 Raspberry Pi Stepper Motor HAT規格圖 27表3.4 Windows及Linux基本比較表 29表4.1 Picamera畸變參數表 34表4.2 Picamera內部參數表 35表4.3 Picamera 外部參數表 35表4.4 距離遠近之特徵點提取數量表 38表4.5 三維點座標資訊(實驗一) 40表4.6 三維點座標資訊(實驗二) 43表4.7 三維點座標資訊(實驗三) 46
 [1]Weng, J., Cohen, P., & Herniou, M. (1992). Camera calibration with distortion models and accuracy evaluation. IEEE Transactions on Pattern Analysis & Machine Intelligence, (10), 965-980.[2]Schad, L., Lott, S., Schmitt, F., Sturm, V., & Lorenz, W. J. (1987). Correction of spatial distortion in MR imaging: a prerequisite for accurate stereotaxy. Journal of computer assisted tomography, 11(3), 499-505.[3]Gribbon, K. T., Johnston, C. T., & Bailey, D. G. (2003, November). A real-time FPGA implementation of a barrel distortion correction algorithm with bilinear interpolation. In Image and Vision Computing New Zealand (pp. 408-413).[4]Duane, C. B. (1971). Close-range camera calibration. Photogramm. Eng, 37(8), 855-866.[5]Wang, J., Shi, F., Zhang, J., & Liu, Y. (2008). A new calibration model of camera lens distortion. Pattern Recognition, 41(2), 607-615.[6]Zhang, Z. (2000). A flexible new technique for camera calibration. IEEE Transactions on pattern analysis and machine intelligence, 22.[7]Tsai, R. (1987). A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses. IEEE Journal on Robotics and Automation, 3(4), 323-344.[8]Heikkila, J., & Silven, O. (1997, June). A four-step camera calibration procedure with implicit image correction. In Computer Vision and Pattern Recognition, 1997. Proceedings., 1997 IEEE Computer Society Conference on (pp. 1106-1112). IEEE.[9]簡嘉威，發展多視角立體影像擷取設備以重建三維模型之研究，碩士論文，中原大學機械工程學系，2016[10]Chen, K. Y., Cheng-Chin Chien, C. C., Chang, W. L., & Hsieh, C. C. (2011). Improving the Accuracy of Depth Estimation Using a Modified Stereo Vision Model in Binocular Vision. In The 10th International Symposium on Measurement Technology and Intelligent Instruments.[11]陳建宏，運用新式立體視覺演算法餘面型及線型攝影機三維模型重建技術之研究，博士論文，中原大學機械工程學系，2017[12]Westoby, M. J., Brasington, J., Glasser, N. F., Hambrey, M. J., & Reynolds, J. M. (2012). ‘Structure-from-Motion’photogrammetry: A low-cost, effective tool for geoscience applications. Geomorphology, 179, 300-314.[13]Kolmogorov, V., Monasse, P., & Tan, P. (2014). Kolmogorov and Zabih’s graph cuts stereo matching algorithm. Image Processing On Line, 4, 220-251.[14]Lowe, D. G. (2004). Distinctive image features from scale-invariant keypoints. International journal of computer vision, 60(2), 91-110.[15]Sadhu, V., Salles-Loustau, G., Pompili, D., Zonouz, S., & Sritapan, V. (2016, July). Argus: Smartphone-enabled human cooperation via multi-agent reinforcement learning for disaster situational awareness. In Autonomic Computing (ICAC), 2016 IEEE International Conference on (pp. 251-256). IEEE.[16]Geng, J. (2011). Structured-light 3D surface imaging: a tutorial. Advances in Optics and Photonics, 3(2), 128-160.[17]繆紹綱，數位影像處理，普林斯頓國際有限公司，2007。
 國圖紙本論文
 推文當script無法執行時可按︰推文 網路書籤當script無法執行時可按︰網路書籤 推薦當script無法執行時可按︰推薦 評分當script無法執行時可按︰評分 引用網址當script無法執行時可按︰引用網址 轉寄當script無法執行時可按︰轉寄

 1 運用新式立體視覺演算法於面型及線型攝影機三維模型重建技術之研究 2 應用於智慧農業之作物生長影像監測系統 3 交通設施環境重建之研究 4 應用多來源影像進行影像式模型重建及精度評估指標建立 5 實現物聯網閘道器來橋接無線感測網路 6 以 Raspberry Pi、Python和Pure Data為基礎建造開源模組化合成器 7 視覺辨識積木圖案與重建圖案之行動機器人 8 具影像辨識功能之機械手臂設計 9 以色彩辨識技術監測蔬果農藥殘留檢測之化學反應 10 發展應用深度學習之組裝線檢測系統 11 基於樹莓派的移動式六軸機械手臂與機械視覺系統整合之研究 12 以樹莓派嵌入式系統及攝像頭進行CNN深度學習之模型自駕車 13 樹莓派在科學研究上之影像與無線操控應用 14 應用於物體重建的多台深度相機校正與融合演算法 15 即時環境檢測系統之建置

 無相關期刊

 無相關點閱論文

 簡易查詢 | 進階查詢 | 熱門排行 | 我的研究室