(3.236.118.225) 您好!臺灣時間:2021/05/16 14:08
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果

詳目顯示:::

我願授權國圖
: 
twitterline
研究生:張震坤
研究生(外文):Chang, Chenn Kuen
論文名稱:使用工件之結構光影像的幾何中心來校正機械人自動抓取的位置
論文名稱(外文):Using The Geometric Center of A Structured Light Pattern to Adjust The Place for Automatic Robot Grasping
指導教授:汪光夏汪光夏引用關係
指導教授(外文):Wang, Collin
學位類別:碩士
校院名稱:中華大學
系所名稱:工業研究所
學門:工程學門
學類:工業工程學類
論文種類:學術論文
論文出版年:1995
畢業學年度:83
語文別:中文
中文關鍵詞:自動抓取結構光類神經網路
外文關鍵詞:Automatic GraspingStructured LightingNeural Network
相關次數:
  • 被引用被引用:0
  • 點閱點閱:92
  • 評分評分:
  • 下載下載:0
  • 收藏至我的研究室書目清單書目收藏:3
本研究利用工件的結構光影像幾何中心為依據,發展了一套「彈性自動抓
取系統角度修正模式」,此模式蘊含了機器視覺、打光技術、特徵萃取與
類神經網路等觀念之整合性運用。彈性自動抓取系統之設計主要是期望應
用於機械人組裝作業中而使得固定載送工件之夾具能夠免除,即使工件有
位置及方向上之偏移也能夠透過本模式自動校正機械人抓取,藉此提升機
械人自動抓取之可靠性與彈性。特徵萃取對於照明狀況具有高度的敏感性
,因此一直是機械人自動抓取技術的瓶頸,於是本研究使用結構光方法作
為特徵萃取之技術。本系統自動抓取方法基本上分成兩個步驟:第一步是
進行離線訓練程序,將結構光照射在工件上的各種狀況事先經由 SGI工作
站以圖像模擬,隨著工件不同方向之結構光圖像的模擬,將其幾何中心計
算出來後送入類神經網路做訓練。第二步就是線上測試程序,對於機械人
而言,其抓取工件的最佳位置是透過比較目前工件結構光影像的幾何中心
與先前經過類神經網路訓練過之結構光圖像的幾何中心分佈圖推論預測而
得。根據實驗結果,本模式角度修正的誤差水準皆非常小,因此對於每個
工件而言,夾具的使用便可省除。這種方法不但簡化了機械人的控制策略
,更使得自動抓取更具彈性與可靠性。

QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top