跳到主要內容

臺灣博碩士論文加值系統

(2600:1f28:365:80b0:1fb:e713:2b67:6e79) 您好!臺灣時間:2024/12/12 15:45
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果 :::

詳目顯示

我願授權國圖
: 
twitterline
研究生:黃源福
研究生(外文):An-Fu Huang
論文名稱:分類樹的選取
論文名稱(外文):Classification tree selection
指導教授:史玉山史玉山引用關係
指導教授(外文):Yu-Shan Shih
學位類別:碩士
校院名稱:國立中正大學
系所名稱:數理統計研究所
學門:數學及統計學門
學類:統計學類
論文種類:學術論文
論文出版年:1998
畢業學年度:87
語文別:中文
論文頁數:51
中文關鍵詞:分類樹分類樹的選取最佳的分類樹模型交差認證剪裁
外文關鍵詞:Classification TreeClassification Tree SelectionOptimal Tree-structured Classification modelCross-validationpruning
相關次數:
  • 被引用被引用:1
  • 點閱點閱:153
  • 評分評分:
  • 下載下載:0
  • 收藏至我的研究室書目清單書目收藏:0
本文主要是針對如何從剪裁(pruning)所得到的分類樹集合中,選出最佳的分類樹模型 ( tree-structured Classification model)的問題,比較交差認證 (cross-validation)方法, bootstrap方法,以及 bootstrap方法的修正型 .632方法及.632+方法選取分類樹的正確性。經由模擬實驗及實際資料的分析結果,我們發現,總體而言,bootstrap方法在選取分類樹上,比較容易選到較佳的分類樹。而對於交差認證方法而言,摺數在10或20時,會比較容易選到較佳的分類樹。

1 前言
2 方法介紹
2.1 分割方法
2.2 剪裁與子樹的選取
2.3 誤差率估計法
3 實驗樣本簡介
3.1 實驗1-5 : 多變量常態分佈
3.2 實驗6 : 波形資料
3.3 實驗7 : 格子資料
3.4 實驗8 : 數字資料
3.5 實驗9-11 : 實際資料
4 實驗的方法
4.1 估計模型的選取
4.2 最佳模型的選取
4.3 選對模型的準則
4.4 一個例子
5 實驗結果與分析
5.1 交差認證方法
5.2 交差認證方法, bootstrap方法, .632以及.632+等方法的結果比較
6 結論

1. Breiman, L., Friedman, J. H., Olshen, R. A. and
Stone, C. J. (1984). Classification And Regression Trees,
Wadsworth, Belmont.
2. Efron, B. and Tibshirani (1997). Improvements on
cross-validation:The .632+ Bootstrap Method, American Statistical
Association 92: 548-560.
3. Friedman, J. (1994). Flexible Metric Nearest Neighbor
classification, Technical Report, Stanford University.
4. Gnanadesikan, R. (1997), Method for Statistical Data
Analysis of Multivariate Observation, 2nd edition John Wiley & Sons.
5. Loh, W.-Y. and Shih Y.-S. (1997). Split selection methods for
classication trees. Statistica sinica:815-840.
6. Weiss, S. M. and Indurkhya, N. (1993). Decision tree pruning:
Biased or Optimal, {\it Machine Learning} PP.626-632
7. Friedman, J. (1994). Flexible Metric Nearest Neighbor
classification, Technical Report, Stanford University.
8. Gnanadesikan, R. (1997), Method for Statistical Data
Analysis of Multivariate Observation, 2nd edition John Wiley & Sons.
9. Loh, W.-Y. and Shih Y.-S. (1997). Split selection methods for
classication trees. Statistica sinica:815-840.
11. Weiss, S. M. and Indurkhya, N. (1993). Decision tree pruning:
Biased or Optimal, Machine Learning PP.626-632
12. Merz, C. J. and Murphy, P. M. (1996). UCI Repository
of Machine Learning Database}, Department of Information and Computer
Science, University of California, Irvine, CA.

QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top