跳到主要內容

臺灣博碩士論文加值系統

(44.212.99.208) 您好!臺灣時間:2024/04/17 20:15
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果 :::

詳目顯示

我願授權國圖
: 
twitterline
研究生:蔡佩璇
研究生(外文):TSAI, PEI-XUAN
論文名稱:應用機器學習建置瑕疵偵測系統-以印刷電路板金手指為例
論文名稱(外文):Applying Machine Learning to Construct a Defect Detection System - PCB Gold Finger as Example
指導教授:黃乾怡黃乾怡引用關係
指導教授(外文):HUANG, CHIEN-YI
口試委員:應國卿楊昌哲黃乾怡
口試委員(外文):YING, KUO-CHINGYANG, CHANG-JHEHUANG, CHIEN-YI
口試日期:2020-06-22
學位類別:碩士
校院名稱:國立臺北科技大學
系所名稱:工業工程與管理系
學門:工程學門
學類:工業工程學類
論文種類:學術論文
論文出版年:2020
畢業學年度:108
語文別:中文
論文頁數:92
中文關鍵詞:進料檢驗深度學習YOLO 第三版Faster RCNN
外文關鍵詞:incoming quality controlDeep learningYOLOv3Faster R-CNN
相關次數:
  • 被引用被引用:2
  • 點閱點閱:376
  • 評分評分:
  • 下載下載:0
  • 收藏至我的研究室書目清單書目收藏:1
近年來,工業4.0及智慧製造已經成為各產業的發展趨勢,隨著產能及品質的需求不斷提高,許多電子產業對於進料檢驗的標準越來越高。而目前業界進料檢驗的方法大多以人工檢測為主,人工檢測的效率低且瑕疵漏判的比率高,所以想要藉由機器視覺技術來輔助(或取代)人工檢測。本研究目的在於利用YOLO第三版、Faster R-CNN兩種不同演算法的物件偵測網路來建置一套自動化的瑕疵偵測系統,提升進料檢驗的效率及準確率,來輔助目前人工檢測。首先定義瑕疵的種類,接著蒐集影像,再將瑕疵影像進行標記後分別使用兩種演算法進行訓練,最後計算其的準確率。結果顯示YOLO第三版準確率約為95%,Faster R-CNN準確率約為84%,表示YOLO第三版之模型因在瑕疵偵測方面表現更加優異。最後利用YOLO第三版建置瑕疵偵測系統,使檢驗人力減少4人及檢驗流程的簡化。
Industry 4.0 and intelligent manufacturing has become new trend for developing industries nowadays. With higher productivity and quality requirements, many electronic component manufacturers raise their standard of inspection for incoming materials quality. However, most of manufacturer still inspect incoming materials manually and it leads to higher mis-inspection rate. So this study wants to utilize machine vision technology to assist manual detection. Therefore, the purpose of this study is to set up an automatic object detection system with two types of algorithms, the third version of YOLO and Faster R-CNN, in order to raise inspection efficiency and accuracy. First, defining types of defects and collecting images. After labeling collected images, train images with two algorithms respectively, and at last calculate its accuracy. The result shows that the accuracy of the third version of YOLO is 95% and for Faster R-CNN is 84%, which means that the third version of YOLO is better at detecting defects. As the result, set up the defect inspection system with the third version of YOLO can reduce 4 members of inspection and simplify the process.
摘 要 i
ABSTRACT ii
誌謝 iv
目 錄 v
表目錄 viii
圖目錄 ix
第一章 緒論 1
1.1 研究背景與動機 1
1.2 研究目的 2
1.3 論文架構 2
第二章 文獻探討 4
2.1 機器學習 4
2.1.1 深度學習 5
2.1.2 深度學習應用 5
2.2 卷積神經網路 6
2.2.1 卷積層 7
2.2.2 池化層 8
2.2.3 全連接層 9
2.2.4 反向傳播學習法 10
2.2.5 激活函數 11
2.2.6梯度消失 14
2.3 YOLO第一版 15
2.3.1 YOLO第一版網路架構 15
2.3.2 損失函數 16
2.3.3 YOLO的限制 17
2.4 YOLO第二版 18
2.4.1 YOLO第二版網路架構 18
2.4.2 損失函數 19
2.5區域卷積神經網路 21
2.6 快速區域卷積神經網路 22
2.7物件偵測相關應用 24
第三章 研究方法 27
3.1 研究流程 27
3.2 定義瑕疵 29
3.3 蒐集有瑕疵之影像 29
3.4 YOLO第三版 31
3.4.1 YOLO運行架構 31
3.4.2 網路架構 31
3.4.2.1殘差網路 33
3.4.2.2特徵金字塔網路 34
3.4.3 影像檢測 35
3.4.4 邊界框預測 36
3.4.5 損失函數 39
3.4.6 非極大值抑制法 40
3.5 更快速區域卷積神經網路 41
3.5.1 Faster R-CNN運行架構 41
3.5.2 網路架構 42
3.5.2.1 Inception網路 42
3.5.2.2 RPN網路 43
3.5.2.3 ROI Pooling層 45
3.5.3影像檢測 45
3.5.4損失函數 46
3.6 模型評估 47
3.6.1 訓練階段之模型評估 47
3.6.2 測試階段之模型評估 52
第四章 個案分析 53
4.1 現況分析 53
4.2 系統軟硬體架構 55
4.2.1 系統使用之軟體 55
4.2.2 系統使用之硬體 57
4.3 定義瑕疵 58
4.4 確認取像方式及蒐集瑕疵影像 66
4.5 標記影像中的瑕疵位置及分類 67
4.6 YOLO第三版 71
4.6.1 YOLO影像運行 71
4.6.2 參數說明 73
4.7 Faster R-CNN 75
4.7.1 Faster R-CNN影像運行 75
4.7.2參數說明 77
4.8數據分析及比較 77
4.8.1 YOLO第三版實驗結果 78
4.8.2 Faster R-CNN實驗結果 79
4.8.3分析比較 81
4.9建置瑕疵偵測系統 85
第五章 結論與建議 86
5.1結論 86
5.2研究貢獻 87
5.3未來研究方向 87
參考文獻 89


郭冠毅,植基於SSD之孿生網路應用於魚追蹤之研究,碩士論文,國立臺南大學資訊工程學系,台南,2018。
黄于庭,利用機器學習建構瑕疵偵測與分類系統應用於陶瓷散熱基板,碩士論文,國立臺北科技大學工業工程與管理學系,台北,2019。
劉威德,基於人工智慧與機器人作業系統可影像辨識自主拿取物品之服務型機器人,碩士論文,國立虎尾科技大學資訊工程系,雲林,2019。
謝鎧楠,使用深度與彩色影像的卷積神經網路做倒車障礙物偵測,國立中央大學資訊工程系,碩士論文,桃園,2018。
Al-masni, M. A., Al-antari, M. A., Park, J. M., Gi, G., Kim, T. Y., Rivera, P., ... & Kim, T. S., “Simultaneous detection and classification of breast masses in digital mammograms via a deep learning YOLO-based CAD system,” Computer methods and programs in biomedicine, vol. 157, 2018, pp. 85-94.
Arel, I., Rose, D. C., & Karnowski, T. P., “Deep machine learning-a new frontier in artificial intelligence research,” IEEE computational intelligence magazine, vol. 5, no. 4, 2010, pp. 13-18.
Bengio, Y., “Learning deep architectures for AI,” Foundations and trends® in Machine Learning, vol. 2, no. 1, 2009, pp. 1-127.
Chen, X. W., & Lin, X., “Big data deep learning: challenges and perspectives,” IEEE access, vol. 2, 2014, pp. 514-525.
Girshick, R., “Fast r-cnn,” In Proceedings of the IEEE international conference on computer vision, 2015, pp. 1440-1448.
Girshick, R., Donahue, J., Darrell, T., & Malik, J., “Rich feature hierarchies for accurate object detection and semantic segmentation,” In Proceedings of the IEEE conference on computer vision and pattern recognition, 2014, pp. 580-587.
He, K., Zhang, X., Ren, S., & Sun, J., “Deep residual learning for image recognition,” In Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 770-778.
Hebb, D. O., “The organization of behavior: a neuropsychological theory.” J. Wiley: Chapman & Hall, 1949.
LeCun, Y., Bengio, Y., & Hinton, G., “Deep learning,” nature, vol. 521, no. 7553, 2015, pp. 436-444.
LeCun, Y., Boser, B., Denker, J. S., Henderson, D., Howard, R. E., Hubbard, W., & Jackel, L. D., “Backpropagation applied to handwritten zip code recognition,” Neural computation, vol. 1, no. 4, 1989, pp. 541–551.
Li, J., Su, Z., Geng, J., & Yin, Y., “Real-time Detection of Steel Strip Surface Defects Based on Improved YOLO Detection Network,” IFAC-PapersOnLine, vol. 51, no. 21, 2018, pp. 76-81.
Li, J., Zhang, D., Zhang, J., Zhang, J., Li, T., Xia, Y., ... & Xun, L., “Facial Expression Recognition with Faster R-CNN,” Procedia Computer Science, vol. 107, 2017, pp. 135-140.
Lin, T. Y., Dollár, P., Girshick, R., He, K., Hariharan, B., & Belongie, S., “Feature pyramid networks for object detection,” In Proceedings of the IEEE conference on computer vision and pattern recognition, 2017, pp.2117-2125.
Najafabadi, M. M., Villanustre, F., Khoshgoftaar, T. M., Seliya, N., Wald, R., & Muharemagc, E., “Deep Learning Techniques in Big Data Analytics,” In Big Data Technologies and Applications, 2016, pp. 133-156.
Ning, C., Zhou, H., Song, Y., & Tang, J., “Inception single shot multibox detector for object detection,” In 2017 IEEE International Conference on Multimedia & Expo Workshops (ICMEW) IEEE, 2017, pp. 549-554.
Oord, A. V. D., Kalchbrenner, N., & Kavukcuoglu, K., “Pixel recurrent neural networks,” arXiv preprint arXiv:1601.06759, 2016.
Redmon, J., & Farhadi, A., “YOLO9000: better, faster, stronger,” In Proceedings of the IEEE conference on computer vision and pattern recognition, 2017, pp. 7263-7271.
Redmon, J., & Farhadi, A., “Yolov3: An incremental improvement,” arXiv preprint arXiv:1804.02767, 2018.
Redmon, J., Divvala, S., Girshick, R., & Farhadi, A., “You only look once: Unified, real-time object detection,” In Proceedings of the IEEE conference on computer vision and pattern recognition, 2016, pp. 779-788.
Ren, S., He, K., Girshick, R., & Sun, J., “ Faster r-cnn: Towards real-time object detection with region proposal networks,” In Advances in neural information processing systems, 2015, pp. 91-99.
Rosenblatt, F., “The perceptron – A perceiving and recognizing automaton Project Para,” Cornell Aeronautical Laboratory, 1957, pp. 460-461.
Shinde, S., Kothari, A., & Gupta, V., “YOLO based Human Action Recognition and Localization,” Procedia computer science, vol. 133, 2018, pp. 831-838.
Song, X., Zhao, X., Fang, L., & Lin, T., “Discriminative representation combinations for accurate face spoofing detection,” Pattern Recognition, vol. 85, 2019, pp. 220-231.
Werbos, P. J., Beyond regression, “New tools for prediction and analysis in the behavioral sciences,” PhD thesis, Harvard University, 1974.
Yang, Q., Xiao, D., & Lin, S., “Feeding behavior recognition for group-housed pigs with the Faster R-CNN,” Computers and Electronics in Agriculture, vol. 155, 2018, pp. 453-460.
CH.Tseng,初探卷積神經網路, https://chtseng.wordpress.com/2017/09/12/%e5%88%9d%e6%8e%a2%e5%8d%b7%e7%a9%8d%e7%a5%9e%e7%b6%93%e7%b6%b2%e8%b7%af/,造訪日期,2019年11月。
Medium, Difference between AlexNet, VGGNet, ResNet, and Inception, https://towardsdatascience.com/the-w3h-of-alexnet-vggnet-resnet-and-inception-7baaaecccc96,造訪日期:2020年1月。
Medium, Object Detection : R-CNN, Fast-RCNN, Faster RCNN,https://medium.com/@ccshenyltw/object-detection-r-cnn-fast-rcnn-faster-rcnn-mask-rcnn-retinanet-to-be-continued-71b67640445,造訪日期:2020年1月。
Mr.Opengate,Yolo:基於深度學習的物件偵測 (含YoloV3), https://mropengate.blogspot.com/2018/06/yolo-yolov3.html,造訪日期,2019年12月。
NVIDIA,CNN與RNN之間的差異,https://blogs.nvidia.com.tw/2018/09/whats-the-difference-between-a-cnn-and-an-rnn/,造訪日期:2019年10月。
QIA,AQL標準(正常檢驗單次抽樣質量允收標準),http://hk.qcinasia.com/inspection-aql-standard,造訪日期:2020年3月。
台部落,YOLOv2-論文學習筆記(算法詳解),https://www.twblogs.net/a/5bafd96b2b7177781a0f6394/zh-cn,造訪日期:2019年11月。
知乎,基礎目標檢測演算法介紹(一):CNN、RCNN、Fast RCNN和Faster RCNN,https://zhuanlan.zhihu.com/p/46963225,造訪日期:2020年1月。
痞客邦,深度學習激勵函數介紹,http://cvfiasd.pixnet.net/blog/post/275774124-%e6%b7%b1%e5%ba%a6%e5%ad%b8%e7%bf%92%e6%bf%80%e5%8b%b5%e5%87%bd%e6%95%b8%e4%bb%8b%e7%b4%b9,造訪日期:2019年11月。

電子全文 電子全文(網際網路公開日期:20250707)
QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top
無相關期刊