跳到主要內容

臺灣博碩士論文加值系統

(18.97.9.174) 您好!臺灣時間:2024/12/03 20:02
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果 :::

詳目顯示

: 
twitterline
研究生:張家寶
研究生(外文):Chang, Chia-Pao
論文名稱:人工智慧深度學習技術應用於咖啡豆檢測系統
論文名稱(外文):Development of a Coffee Beans Quality Inspection Using Artificial Deep Learning Technique
指導教授:林宜弘林宜弘引用關係
指導教授(外文):Lin, Yi-Hong
口試委員:林穀欽林宜賢
口試委員(外文):Lin, Ku-ChinLin, Yi-Hsien
口試日期:2021-07-09
學位類別:碩士
校院名稱:國立屏東科技大學
系所名稱:機械工程系所
學門:工程學門
學類:機械工程學類
論文種類:學術論文
論文出版年:2021
畢業學年度:109
語文別:中文
論文頁數:77
中文關鍵詞:咖啡生豆物料檢測人工智慧深度學習
外文關鍵詞:Coffee Green BeansMaterial InspectionArtificialDeep Learning
相關次數:
  • 被引用被引用:3
  • 點閱點閱:722
  • 評分評分:
  • 下載下載:188
  • 收藏至我的研究室書目清單書目收藏:2
本論文以人工智慧深度學習技術為核心,對咖啡生豆進行檢測,在系統上使用光源模組與CCD攝影機去擷取咖啡生豆的表面狀況,並收集成圖片集,接著使用人工智慧深度學習技術中的ResNet-50模型進行正反面的辨識,再根據正反面的辨識結果,使用U-Net模型進行表面瑕疵的辨識,最後利用機器視覺中外型特徵理論,來判別外型上的缺陷瑕疵,進而判別出該顆咖啡生豆的品質。
在軟體使用上利用Visual Studio Code編寫Python程式語言,並進行ResNet-50模型和U-Net模型的訓練,再將欲檢測之咖啡生豆的影像,給予已訓練好的ResNet-50模型和U-Net模型分別進行該咖啡生豆正反面與瑕疵之辨識,其正反面的辨識結果準確率為100%,而漏檢率和誤殺率皆為0%。瑕疵辨識結果正反面瑕疵辨識準確率能夠分別達到96.1%和97.6%,其中正面瑕疵之中間裂縫、質地瑕疵和外型缺陷準確率分別為90.90%、94.84%和97.75%,而漏檢率分別為9.09%、5.14%和2.24%。其反面瑕疵之質地瑕疵和外型缺陷準確率分別為96.08%和98.59%,而漏檢率分別為4.8%和3.4%。
This thesis uses the technology of artificial deep learning to inspection coffee beans. The surfaces of coffee beans were shot by optical module and CCD camera and collected the photos. The front and back of coffee beans identified by ResNet-50 module of artificial-intelligence-deep-learning, according to the data of ResNet-50 module, to use U-Net module to identify the surface defect. In the end, the quality of coffee beans will be identified by surfaces defect based on theory of external morphology in machine vision.
The python program language is programmed by Visual Studio Code. The ResNet-50 module and the U-Net module trained by python, next step, the photos of coffee beans identified by ResNet-50 module that finished training and U-Net module that finished training to identify the front and back of coffee beans and surface defect. The results of accuracy of the front and back of coffee beans are 100%, and the underkill rate and overkill rate are 0%. The results of surfaces defect show the front and back of coffee beans is 96.1% and 97.6%, respectively. In the parts of the front of coffee beans, the accuracy of center defect, base ,and morphology is 90.90%, 94.84%, and 97.75, respectively, and the underkill rate is 9.09%, 5.14%, and 2.24%, respectively. In the parts of the back of coffee beans, the accuracy of base and morphology is 96.08% and 98.59, respectively, and the underkill rate is 4.8% and 3.4%, respectively.
摘要 I
Abstract II
致謝 IV
目錄 V
表目錄 VIII
圖目錄 IX
第一章 緒論 1
1.1 前言 1
1.2 研究動機 2
1.3 研究目的 3
1.4 論文架構 4
第二章 文獻探討 5
2.1 物料檢測 5
2.2 人工智慧 6
2.3 深度學習技術 7
2.3.1 ResNet模型 7
2.3.2 U-Net模型 7
2.3.3 Res-Unet模型 8
第三章 研究設備 9
3.1 CCD攝影機 9
3.2環形光源模組 10
3.3電源供應器 11
3.4軟體應用 12
第四章 研究方法 14
4.1 理論分析 15
4.1.1機器學習(Machine Learning) 15
4.1.2深度學習(Deep Learning) 16
4.1.3卷積神經網路(Convolutional Neural Network, CNN) 17
4.1.4 ResNet模型介紹 21
4.1.5 U-Net模型介紹 23
4.2 研究過程 25
4.2.1咖啡生豆正反面辨識實驗 25
4.2.2咖啡生豆瑕疵辨識實驗 30
第五章 結果與討論 44
5.1咖啡生豆正反面辨識結果 44
5.2咖啡生豆瑕疵辨識結果 50
5.3討論 72
第六章 結論與未來展望 73
6.1 結論 73
6.2 未來展望 74
參考文獻 75
作者簡介 77
[1]林晋億,2013,全彩機械視覺於咖啡生豆檢測之研究,碩士學位論文,國立雲林科技大學,電子與光電工程研究所,雲林。
[2]蕭百川,2020,人工智慧用於咖啡豆選別之研究,碩士學位論文,華梵大學,機電工程學系,新北。
[3]凃亞廷,2014,咖啡公豆母豆自動選別裝置之開發,碩士學位論文,國立中興大學,生物產業機電工程學系所,台中。
[4]簡士博,2020,人工智慧應用於智能咖啡豆檢測系統之開發,碩士學位論文,國立屏東科技大學,機械工程研究所,屏東。
[5]柳帆禹,2021,嵌入式 AI 系統結合影像辨識於咖啡豆選別之研究,碩士學位論文,華梵大學,智慧生活科技學系,新北。
[6]郭芷瑜,2020,人工智慧應用於篩選咖啡豆之研究,碩士學位論文,國立雲林科技大學,機械工程系,雲林。
[7]楊啟昕,2019,使用ResNet之高精度文字偵測與辨識,碩士學位論文,大同大學,資訊工程學系(所),台北。
[8]T. N. Pham, L. Van Tran, and S. V. T. Dao, "Early Disease Classification of Mango Leaves Using Feed-Forward Neural Network and Hybrid Metaheuristic Feature Selection," IEEE Access, vol. 8, pp. 189960-189973, 2020.
[9]F. Ren, W. Liu, and G. Wu, "Feature reuse residual networks for insect pest recognition," IEEE Access, vol. 7, pp. 122758-122768, 2019.
[10]E. Goceri, "Analysis of Deep Networks with Residual Blocks and Different Activation Functions: Classification of Skin Diseases," in 2019 Ninth International Conference on Image Processing Theory, Tools and Applications (IPTA), 2019: IEEE, pp. 1-6.
[11]謝庭瑜,2020,利用U-Net分割胸腔電腦斷層影像的肺部腫瘤,碩士學位論文,國立成功大學,點腦與通信工程研究所,台南。
[12]Y. Cao, S. Liu, Y. Peng, and J. Li, "DenseUNet: densely connected UNet for electron microscopy image segmentation," IET Image Processing, vol. 14, no. 12, pp. 2682-2689, 2020.
[13]Y. Ding, F. Chen, Y. Zhao, Z. Wu, C. Zhang, and D. Wu, "A stacked multi-connection simple reducing net for brain tumor segmentation," IEEE Access, vol. 7, pp. 104011-104024, 2019.
[14]P. Xu, C. Chen, X. Wang, W. Li, and J. Sun, "ROI-Based Intraoperative MR-CT Registration for Image-Guided Multimode Tumor Ablation Therapy in Hepatic Malignant Tumors," IEEE Access, vol. 8, pp. 13613-13619, 2020.
[15]Jian-Wen Chen, Wan-Ju Lin, Chun-Yuan Lin, Che-Lun Hung, Chen-Pang Hou, Ching-Che Cho, Hong-Tsu Young and Chuan-Yi Tang, "Automated Classification of Blood Loss from Transurethral Resection of the Prostate Surgery Videos Using Deep Learning Technique." applied sciences 2020, 10(14), 4908, 2020.
[16]蕭博仁,2019,在U-Net架構上運用遷移式學習於醫療影像之肝組織及腫瘤組織區塊辨識,碩士學位論文,國立台灣大學,資訊管理學研究所,台北。
[17]林大貴,2017,TensorFlow+Keras深度學習人工智慧實務應用,博碩文化股份有限公司,新北,第2~5頁。
[18]ITREAD 01,轉載 深度學習---ResNet,取至網址: https://www.itread01.com/content/1545242248.html,擷取時間:2021年05月25日。
[19]葉家瑋,2007,以機械視覺為基礎之C型口罩瑕疵檢測系統研究,碩士學位論文,大葉大學,機電自動化研究所,彰化。
連結至畢業學校之論文網頁點我開啟連結
註: 此連結為研究生畢業學校所提供,不一定有電子全文可供下載,若連結有誤,請點選上方之〝勘誤回報〞功能,我們會盡快修正,謝謝!
QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top
無相關期刊