跳到主要內容

臺灣博碩士論文加值系統

(18.97.9.172) 您好!臺灣時間:2025/03/17 01:28
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果 :::

詳目顯示

我願授權國圖
: 
twitterline
研究生:張志強
論文名稱:應用統計學習方法於響應模型預測與渴望條件分析
論文名稱(外文):Response Prediction and Desirability by Statistical Learning Methods
指導教授:周志成周志成引用關係
學位類別:碩士
校院名稱:國立交通大學
系所名稱:電機與控制工程系所
學門:工程學門
學類:電資工程學類
論文種類:學術論文
論文出版年:2005
畢業學年度:94
語文別:中文
論文頁數:60
中文關鍵詞:響應模型預測統計學習方法渴望條件資料前置處理記憶基礎迴歸模型工作範圍
外文關鍵詞:Response PredictionStatistical Learning MethodsDesirabilityData PreprocessionMemory-Based Regression ModelWorking Region
相關次數:
  • 被引用被引用:0
  • 點閱點閱:237
  • 評分評分:
  • 下載下載:0
  • 收藏至我的研究室書目清單書目收藏:0
本論文主要探討如何在滿足響應變數的渴望條件下,找出預測變數的彈性工作範圍,且此範圍愈大愈佳,同時,找出影響工作範圍的重要預測變數排序與權重。相較於許多傳統方法只找出預測變數的最佳工作點,本論文進一步找出預測變數的工作範圍,並以高維長方體來表述此工作範圍,如此,可使得在控制預測變數時能更為彈性。
本實驗以晶圓製程資料為例,希望在滿足良率大於或等於95%的條件下,找出預測變數的彈性工作範圍。首先在資料前置處理上,我們對資料進行特徵選取、濾除冗餘變數與排除歧異值等前置處理。接著,利用經過前置處理過的資料來建立K-最鄰近點、三立方體核心、局部線性迴歸核心、適應K-最鄰近點、適應三立方體核心與適應局部線性迴歸核心等六種記憶基礎模型並進行迴歸。然後,藉由分類樹來分類並決定工作範圍。最後,利用驗證資料來確認所決定的工作範圍。
同樣的方法除了可應用在本論文中所舉的晶圓製程例子之外,也可應用於金融與醫學等領域。
This paper aims to look out for the flexible working region of predictor variable under the condition of meeting the desirability of response variable. The region will be completed as wide as possible. Besides, find out the rank of important predictor variable which will affects working region. Compare to many traditional methods, which merely find out the optimal point, this paper takes one step ahead to look out for the working region of predictor variable and uses hyper rectangular cuboid to state this region. Hence, it will be more flexible when we control predictor variable.
This experiment takes wafer manufacturing process data as an example, hoping the yield will be greater than or equal to 95%. Under this situation, we want to find out the flexible working region of predictor variable. Fist, we take data to feature selection, rid of redundancy and outlier in data preprocession. Next, we use the preprocessed data to build up six memory- based models to execute regression. Afterward, we use classification trees to classify and decide the working region. Finally, utilize validation data to confirm the decided working region.
The same method can be applied not only to wafer manufacturing process in this paper, but to the fields of finance and medical science, etc….
中文摘要 i
英文摘要 ii
誌 謝 iii
目 錄 iv
表 目 錄 vi
圖 目 錄 vii
第一章 序論 1
1.1 研究動機與目的 1
1.2 問題特徵與文獻方法 2
1.3 系統架構 3
1.4 論文架構 6
第二章 資料前置處理 7
2.1 特徵選取 7
2.2 濾除冗餘變數 9
2.3 排除歧異值 10
第三章 記憶基礎迴歸模型 13
3.1 記憶基礎迴歸模型原理 13
3.2 鄰近樣本點選取方法 14
3.2.1 歐基里德距離公制 14
3.2.2 適應距離公制 15
3.3 使用歐基里德距離公制的三種記憶基礎迴歸模型 18
3.3.1 K-最鄰近點法 19
3.3.2 三立方體核心法 19
3.3.3 局部線性迴歸核心法 20
3.4 使用適應距離公制的三種記憶基礎迴歸模型 21
3.4.1 適應K-最鄰近點法 22
3.4.2 適應三立方體核心法 22
3.4.3 適應局部線性迴歸核心法 22
3.5 模型選擇 23
第四章 找出工作範圍 24
4.1 找出工作範圍流程 24
4.2 K-平均法 25
4.3 定義損失函數 26
4.4 分類樹 29
4.4.1 分類樹簡介 29
4.4.2 分類樹演算法 31
4.5 決定工作範圍 33
第五章 實驗與討論 37
5.1 實驗資料簡介與實驗流程 37
5.2 資料前置處理 38
5.2.1 特徵選取 38
5.2.2 濾除冗餘變數 40
5.2.3 排除歧異值 41
5.3 建立記憶基礎迴歸模型 43
5.4 找出工作範圍 48
5.5 驗證工作範圍 53
第六章 結論 56
參考文獻 59
[1] S. Cunningham, C. Spanos and K. Voros, Semiconductor Yield Improvement:Results and Best Practices, IEEE Transactions on Semiconductor Manufacturing, Vol.8, No.2, May 1995.
[2] S. Benninga and B. Czazkes, Financial Modeling, Cambridge, MA:MIT Press, 1997.
[3] T. Hastie, R. Tibshirani and J. Friedman, The Elements of Statistical Learning, Springer Series in statistics, Springer, New York, 2001.
[4] I. Guyon and A. Elisseeff, An Introduction to Variable and Feature Selection, Journal of Machine Learning Research 3 1157-1182, 2003.
[5] Ultramax Optimization Technology User’s Guide, Ultramax Corporation Cininnati, OH, 1987.
[6] R. Myers and D. Montgomery, Response Surface Methodology, New York: John Wiley & Sons, Inc., 1995.
[7] G. Box, Empirical Model Building and Response Surfaces, New York: John Wiley & Sons, Inc., 1987.
[8] G. Derringer and R. Suich, Simultaneous optimization of several response variables, Journal of Quality Technology, 12, 214-219, 1980.
[9] M. Christophe, Neural Networks for Pattern Recognition, Oxford, UK, 1995.
[10] H. Liu and H. Motoda, Feature Selection for Knowledge Discovery and Data Mining, Kluwer Academic Publishers, London 1998.
[11] D. Pyle, Data Preparation for Data Mining, Morgan Kaufmann Publishers, Inc., San Francisco.
[12] G. Barbara and S. Linda, Using Mulivariate Statistics, Harper Collins, New York, 1996.
[13] V. Cherkassky and F. Mulier, Learning form Data, Wiley, New York, 1998.
[14] P. Zhang, Model Selection via Multifold Cross-Validation, Ann. Statist.21, 1993.
[15] M. Firedman and A. Kandel, Introduction to Pattern Recognition, World Scientific, New York, 1999.
[16] E. Harrington, The Desirability Function, Industrial Quality Control, Vol.21, NO.10, 1965.
[17] L. Breiman, J. Friedman, R. Olshen and C. Stone, Classification and Regression Trees, Wadsworth, 1984.
[18] B. Ripley, Pattern Recognition and Neural Networks, Cambridge University Press, 1996.
QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top