跳到主要內容

臺灣博碩士論文加值系統

(18.97.9.174) 您好!臺灣時間:2024/12/03 20:39
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果 :::

詳目顯示

: 
twitterline
研究生:梁文勇
研究生(外文):Liang,wen-yung
論文名稱:基於YOLO v4影像辨識技術之智慧型機車安全距離警示系統
論文名稱(外文):Smart safety distance warning system for motorcycles based on YOLO v4 image recognition technology
指導教授:張耀仁張耀仁引用關係
指導教授(外文):CHANG,YAW-JEN
口試委員:范憶華林明璋
口試委員(外文):FAN,YI-HUALin,Ming -Chang
口試日期:2022-07-04
學位類別:碩士
校院名稱:中原大學
系所名稱:機械工程學系
學門:工程學門
學類:機械工程學類
論文種類:學術論文
論文出版年:2022
畢業學年度:110
語文別:中文
論文頁數:64
中文關鍵詞:深度學習機器學習類神經網路YOLO影像辨識
外文關鍵詞:deep learningmachine learningneural networkYOLOimage recognition
DOI:10.6840/cycu202201430
相關次數:
  • 被引用被引用:2
  • 點閱點閱:1546
  • 評分評分:
  • 下載下載:399
  • 收藏至我的研究室書目清單書目收藏:1
因台灣土地狹窄,人口密度高,具備靈活及高機動性的機車成為一般人最常使用的移動交通工具,近年來雖然有逐漸在倡導「防衛性駕駛」但交通事故仍無明顯的低減,在交通事故常造成人員傷亡,而究其交通事故的原因,「未依規定讓車」及「轉彎不當」佔比最高,而機車駕駛人常常與大型車爭道,會因大型車視線盲區不易察覺週遭車況而容易發生交通意外事故,近年來人工智慧也逐 漸應用在我們生活上,本研究利用偵測準確度高且運算速度快的YOLO v4深度學習技術並配合影像辨識方法偵測出於街道中移動的大型車輛,藉由標記影像特徵且利用深度神經網路進行模型訓練模型,對於想要偵測的目標物做影像辨識。同時偵測與目標物的相對距離,當車輛進入到安全距離時,會透過警示來提醒機車駕駛人事前做出防範的措施,以減少機車的交通意外事故發生。實驗結果證明,本研究使用AI影像辨視方法進行大型車輛偵測其偵測的準確率結果為94%,是一個相當不錯的結果。
Since Taiwan is small and densely populated, motorcycles with high mobility have become a common means of transportation. Although "defensive driving" has been gradually advocated in recent years, traffic accidents have not been significantly reduced. Traffic accidents often cause casualties. The causes of traffic accidents are "failure to yield to cars in accordance with regulations" and "improper turning" accounted for the highest proportions. In addition, motorcycle drivers often compete with large vehicles for lanes. It is prone to cause traffic accidents because the blind spots of large vehicles are not easy to detect the surrounding vehicles. Recently, artificial intelligence has been applied in our daily life. In this study, an artificial intelligence system was developed using YOLO v4 deep learning technology, which has high accuracy and fast calculation speed, to detect large vehicles on the street. The image recognition features learned by machine learning were used to train and verify the test data by using the model generated by training to perform image recognition of the detection target. At the same time, it detected the distance from the surrounding vehicles. When the vehicle enters a safe distance, it will remind the locomotive driver to take preventive measures in advance through sound or light, so as to reduce the occurrence of motorcycle traffic accidents. The simulation results show that the detection accuracy of large vehicles using the AI image recognition method in this study is over 94% which is a pretty good result.
目錄
摘要 I
Abstract II
誌謝 III
目錄 IV
圖目錄 V
表目錄 VII
第一章 緒論 1
1.1 研究背景 1
1.2 研究動機與目的 2
1.3 論文架構 3
第二章 文獻回顧 4
2.1 車輛盲區及輔助系統種類 4
2.2 車輛防撞預警系統感知器 6
2.3 類神經網路 10
2.4 YOLO發展 14
第三章 研究方法 21
3.1 研究架構 21
3.2 硬體介紹 22
3.3 偵測物件資料收集 23
3.4 影像資料標記 25
3.5 參數數定 27
3.6 模型訓練 28
3.7 距離偵測 32
3.8 訓練模型辨識結果 34
3.9 倒向傳遞類神經網路 36
第四章 實驗結果 39
第五章 結論與未來展望 52
5.1 結論 52
5.2 未來展望 52
參考文獻 53

圖目錄
圖 1 各種車輛之內輪差示意圖 [7] 2
圖 2 大型車輛盲區示意圖解 [12] 4
圖 3 機車視野及盲區示意圖 [15] 5
圖 4 反應時間與事故發生率 [18] 6
圖 5 毫米波雷達 [20] 7
圖 6 紅外線感知器 8
圖 7 雷射雷達 [23] 8
圖 8 超音波雷達 [25] 9
圖 9 單一個神經網路形式 11
圖 10 多層式神經網路架構 [28] 11
圖 11 傳統機器學習與深度學習比較 [29] 12
圖 12 數字分類的深度學習 [29] 13
圖 13 YOLO演算法發展時間軸 14
圖 14 YOLO演算架構圖 [32] 15
圖 15 金字塔網路架構圖 [36] 17
圖 16 AP&FPS關係圖 [38] 18
圖 17 DenseNet與CSPDenseNet架構比較 [39] 19
圖 18 SPP架構架構圖 [40] 19
圖 19 FPN與PANet架構圖 [40] 20
圖 20 YOLOv4架構圖 [39] 20
圖 21 研究架構流程圖 21
圖 22 NVIDIA Jetson TX2產品圖 [41] 22
圖 23 公車訓練樣本範例 23
圖 24 汽車訓練樣本範例 23
圖 25 聯結車訓練樣本範例 24
圖 26 大小貨車訓練樣本範例 24
圖 27 監督式學習影像標記範例 25
圖 28 標記影像座標 26
圖 29 IoU [43] 28
圖 30 訓練損失函數曲線圖 31
圖 31 焦距計算示意圖 [45] 33
圖 32 靜態圖片偵測(a)~(d) 34
圖 33 影片距離偵測(a)~(d) 35
圖 34 安全距離偵測(a)~(b) 35
圖 35 倒向傳遞神經網路架構圖 36
圖 36 安全距離運算神經網路規劃架構圖 38
圖 37 演算邏輯架構圖 38
圖 38 拍攝鏡頭裝置圖 39
圖 39 定點式拍攝鏡頭角度比較圖 40
圖 40 實車量測距離示意圖 41
圖 41 實測距離與偵測結果比較─汽車 42
圖 42 實測距離與偵測結果比較─貨車 43
圖 43 實測距離與偵測結果比較─公車 44
圖 44 實測距離與偵測結果比較─聯結車 45
圖 45 各車輛類別警示結果---鏡頭拍攝角度為0 度 47
圖 46 各車輛類別警示結果---鏡頭拍攝角度為30 度 47
圖 47 各車輛類別警示結果---鏡頭拍攝角度為45度 48
圖 48 誤偵測結果範例圖 48
圖 49 物件偵測準確率比較圖 49
圖 50 灰階化物件偵測準確率比較圖 49
圖 51 loss及mAP訓練結果 50
圖 52 模擬100次偵測結果 50

表目錄
表 1 感知器種類比較表 10
表 2 DarkNet-19,架構 [34] 16
表 3 DarkNet-53,架構 [37] 17
表 4 NVIDIA Jetson TX2規格表 [41] 22
表 5 NET層設定表 27
表 6 YOLO層設定表 27
表 7 混淆矩陣 30
表 8 IoU設定與mAP值比較表 32
表 9 IoU設定與prection及recall值比較表 32
表 10 輸入及輸出值對照表 37
表 11 實測距離與偵測結果比較表 46
表 12 模擬100次偵側結果統計表 51


[1] 中華民國戶政司全球資訊網, “人口統計資料,” 2021. Available: https://www.ris.gov.tw/app/portal/346.
[2] 中華民國交通部公路總局, “機動車輛登記數,” 2021. Available: https://stat.thb.gov.tw.
[3] 楊明杰, “機車駕駛人防衛性駕駛能力量測與影響因素之研究,” 碩士論文, 國立交通大學運輸科技與管理學系, 2010.
[4] 警政署統計室, “警政統計通報,” (110年第50週)(110年第32週). Available: https://www.npa.gov.tw.
[5] 黃家耀、李子璋、陳彥佑等, “混合車流模擬技術研發- 機車行為研究,” ISBN 978-986-04-7742-9, 2015.
[6] C Visvikis, T LSmith, M Pitcher and R Smith, “Study on lane departure warningand lane change assistant systems,” ENTR/05/17.01 Technical assistance andeconomic analysis in the filed of legislation pertinent to the issue of automotive safety, 2008.
[7] 交通安全入口網, “認識視野、視野死角與內輪差,” 2013. Available: https://168.motc.gov.tw/theme/teach/post/1906121100621.
[8] 林佐鼎、陳欣欣、侯鈞元, “都市內機車事故與傷亡因素之探討,” 中華民國第三屆機車交通與安全研討會, p. 273~286, 民國 89 年.
[9] FORD 福特六和, 2018. Available: https://www.ford.com.tw/.
[10] 中華民國交通部, “交通新聞稿,” 2010. Available: https://www.motc.gov.tw.
[11] 癮車報, “汽車科技簡介/盲點偵測警示系統,” 2018. Available: https://incar.tw/post/blind-spot-detection-alert-system.
[12] 新北市政府警察局交通警察大隊, “行人安全守則,” 2016. . Available: https://www.traffic.police.ntpc.gov.tw/cp-1216-615-27.html.
[13] M. T. Tip, “Motorcycle Riding Tutorials/Motorcycle Blind Spot,”. Available: https://www.motorcycletesttips.uk/motorcycle-riding- tutorials/motorcycle-blind-spot/.
[14] M. Kirjanov, P. Grzyb, J. Hoffmann, and A. Osman, “Advanced Driver Assistance Systems for Motorcycles: Concept of a Lane Change Assist,” in 25th International Technical Conference on the Enhanced Safety of Vehicles (ESV) National Highway Traffic Safety Administration, 2017..
[15] 林泰丞, “通用型機車盲點偵測輔助系統,” 碩士論文, 國立中正大學雲端計算與物聯網數位學習碩士在職專班, 2018.
[16] 呂登祐, “基於深度學習的車輛視覺盲區物件偵測與辨識,” 碩士論文, 銘傳大學資訊傳播工程學系碩士班, 2019.
[17] 陶剛,胡海兵,汪國慶等, “基於CC430的急轉彎會車提示預警系統[J].微型機與應用,” ADOI:10.19358/j.issn.1674-7720.2017.10.009, pp. 30-32,36, 2017.
[18] 賴浩宇,鍾世忠, “24-GHz車輛前視防撞警示雷達之單脈衝透鏡天線系統設計與驗證,” 碩士論文, 國立交通大學電信工程研究所, 2009.
[19] Christophe Blanc ∗,1 Romuald Aufrere , Laurent Malaterre,Jean Gallice,Joseph Alizon, “Obstacle detection and tracking by millimeter wave RADAR,” 5th IFAC/EURON Symposium on Intelligent Autonomous Vehiceles Instituito Superior Tecnico Lisboa Portugal, pp. 5-7, July ,2004.
[20] u-car, “毫米波雷達、影像辨識孰優孰劣?,” 2018. Available: https://feature.u-car.com.tw/feature/article/43679?utm_source=news&utm_medium=related&utm_name=43822&utm_content=article.
[21] Wanyi Zhanga, Xiuhua Fua,Wei Lib,, "The intelligent vehicle target recognitionalgorithm based on target infrared features combined with lidar," vol. 155, 1 4 2020.
[22] 光行天下, “車載雷射雷達測距測速原理(1),” 2021. Available: https://ppfocus.com/0/mi0228499.html.
[23] 每日頭條, “YDLIDAR-國產雷射雷達盤點,” 2019. Available: https://kknews.cc/news/639y4bq.html.
[24] C.WykesP.Webb, “Ultrasonics Arrays for Automatic Vehicle Guidance,” 1993.
[25] 輝創電子, “自動停車系統,” Available: http://www.whetron.com/tw/product_safety.
[26] Ian T. Young, Jan J. Gerbrands, Lucas J. van liet, “Fundamentals of Image Processing,” Delft University of Technology, pp. 2-4, 1998.
[27] 黃春融, 詹寶珠, “由影像處理到 電腦視覺,” 科學發展361期, 2003.
[28] IBM Cloud 學習中心, “人工智慧 (AI),” 2020. Available: https://www.ibm.com/tw-zh/cloud/learn/.
[29] M. Arif Wani , Farooq Ahmad Bhat ,Saduf Afzal ,Asif Iqbal Khan, “Advances in Deep Learning,” Library of Congress Control Number: 2019932671.
[30] Redmon, J., Divvala, S., Girshick, R., and Farhadi, A, “You only look once: Unified,real-time object detection,” 於 Proceedings of the IEEE conference oncomputer vision and pattern recognition, 2016.
[31] P eiyuan Jiang, Daji Ergu*, Fangyao Liu, Ying Cai, Bo Ma, "A Review of Yolo Algorithm Developments," Procedia Computer Science, vol. 199, pp. 1066-1073, 2022.
[32] ZOMI, “YOLO目標檢測原理與實踐,” 2016..Available: https://chenzomi12.github.io/2016/12/14/YOLO-details/.
[33] ] Joseph Redmon, Ali Farhadi,, “YOLO9000: Better, Faster, Stronger,” Computer Vision and Pattern Recognition (CVPR),, pp. 7263-7271, 2017.
[34] 謝孟儒, “基於DenseNet之快速演算法及即時影辨識系統實現,” 碩士論文, 國立雲科技大學電子工程系, 2021.
[35] Joseph Redmon, Ali Farhadi, “YOLOv3: An Incremental Improvement,” Computer Vision and Pattern Recognition, 2018.
[36] Tsung-Yi Lin, Piotr Dollár, Ross Girshick, Kaiming He, Bharath Hariharan, Serge Belongie, “Feature Pyramid Networks for Object Detection,” Computer Vision and Pattern Recognition (CVPR), pp. 2117-2125, 2017.
[37] “YOLO 的發展,” Available: https://www.getit01.com/p2018082041438057/.
[38] Alexey Bochkovskiy, Chien-Yao Wang, Hong-Yuan Mark Liao,, “YOLOv4: Optimal Speedand Accuracy of Object Detection,” Computer Vision and Pattern Recognitio, 2020.
[39] Ivan Fang,“[論文筆記] YOLOv4,”2016.Available: https://ivanfang.coderbridge.io/2021/06/17/fang-yolov4/.
[40] 李謦伊, “YOLO演進 — 3 — YOLOv4詳細介紹,” 2020. Available: https://medium.com/ching-i/yolo.
[41] NVIDIA官網, [線上]. Available: https://www.nvidia.com/.
[42] Zhaohui Zheng , Ping Wang , Wei Liu , Jinze Li, Rongguang Ye , Dongwei Ren, "Distance-IoU Loss: Faster and Better Learning for Bounding Box Regression," AAAI-20 Technical Tracks 7, vol. 34, no. 7, 2020.
[43] Jerry_Jin, “Dice Similarity Coefficent vs. Io,” 2019. Available: https://www.twblogs.net/a/5da6a7dfbd9eee310ee60453.
[44] Adrian Rosebrock, “Find distance from camera to object/marker using Python and OpenCV,” 2015. Available: https://pyimagesearch.com/2015/01/19/find-distance-camera-objectmarker-using-python-opencv/.
[45] CH.Tseng, “如何估算前方人物的距離,” 2018. Available: https://chtseng.wordpress.com/2018/09/18/.



QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top
無相關期刊