(3.238.186.43) 您好!臺灣時間:2021/02/28 20:31
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果

詳目顯示:::

我願授權國圖
: 
twitterline
研究生:吳俊杰
研究生(外文):WU, JUN-JIE
論文名稱:類神經連屬記憶網路的新研究結果
論文名稱(外文):New research results on neural associative memories
指導教授:張志永
指導教授(外文):ZHANG, ZHI-YONG
學位類別:碩士
校院名稱:國立交通大學
系所名稱:控制工程研究所
學門:工程學門
學類:電資工程學類
論文種類:學術論文
論文出版年:1993
畢業學年度:81
語文別:中文
論文頁數:84
中文關鍵詞:類神經記憶網路新研究
相關次數:
  • 被引用被引用:0
  • 點閱點閱:91
  • 評分評分:系統版面圖檔系統版面圖檔系統版面圖檔系統版面圖檔系統版面圖檔
  • 下載下載:0
  • 收藏至我的研究室書目清單書目收藏:0
本論文昃由兩部分所組成。這兩部分均有關於類神經連屬記憶網路。
第一部分:擁有最大吸引範圍之霍菲爾類型連屬記憶網路的設計方法
在這一部分中,我們將提出一種訓練法則,用來設計霍菲爾類型連屬記憶網路
(Hopfield-type associative memory)使其有最大的吸引範圍(basin of attraction)
。這個方法加入門檻(threshold) 參數並改良最小重疊法(minimum-overlap
algorthm) 。我們發展出一種技巧來減輕門參數對最小重疊法影響。它將霍菲爾類型
連屬記憶網路分解成多個分類器(classifiers) ,並且假設如果每個分類器都能最佳
化,則整個連屬記憶網路就能擁有最大的吸引範圍。從所附模擬結果中,我們可以發
現此改良方法所建構的連屬記憶網路其吸引範圍確實比其它任何方法都大。
第二部分:廣義化加權連屬記憶網路的新設計法則
我們對廣義化加權式連屬記憶網路(Generalized Weighted Associative Memory,
GWAM) 提出一種設計方法。這個新設計法則是利用傾斜下降法(gradient descent
method) ,來尋找一個參考向量(reference vector),使得所有訓練圖形(training
patterns) 都成為廣義化加權式連屬記憶網中的固定點(fixed point) ,亦即全部被
連屬記憶網路記住。模擬結果顯示,廣義化加權式連屬記憶網路以其少的權項連接數
卻使得其效果,即記憶容量(memory capactiy) 與回憶正確率(recall accuracyrate)
等,能與高階連屬記憶網路相比。

QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top
系統版面圖檔 系統版面圖檔