跳到主要內容

臺灣博碩士論文加值系統

(216.73.216.35) 您好!臺灣時間:2025/12/17 22:36
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果 :::

詳目顯示

我願授權國圖
: 
twitterline
研究生:黃俊錦
研究生(外文):Huang Jiun-Jin
論文名稱:特性萃取對歸類正確率之影響
論文名稱(外文):Effects of Feature Extraction on Classification Accuracy
指導教授:楊維寧楊維寧引用關係
指導教授(外文):Yang Wei-Ning
學位類別:碩士
校院名稱:國立臺灣科技大學
系所名稱:管理技術研究所
學門:商業及管理學門
學類:企業管理學類
論文種類:學術論文
論文出版年:1998
畢業學年度:86
語文別:中文
論文頁數:113
中文關鍵詞:圖形識別歸類正交轉換漂白轉換共變異矩陣特性萃取
外文關鍵詞:ClassificationPattern RecognitionFeature ExtractionOrthonormal TransformationWhitening TransformationOrthonormal TransformationCovariance
相關次數:
  • 被引用被引用:0
  • 點閱點閱:291
  • 評分評分:
  • 下載下載:0
  • 收藏至我的研究室書目清單書目收藏:1
歸類 (classification) 是圖形識別 (pattern recognition) 中一個重要的問題﹐而特性萃取 (feature extraction) 在歸類 (classification) 應用上相當於保留有助於歸類
的特性及捨去無助於歸類的特性﹐一般應用上牽涉多維特性的向量觀察值﹐捨去無助於歸類的特性可節省貯存空間並提高運算效率﹐但是在一般應用上﹐由於用以歸類的決策函數是非線性的﹐真正無助於歸類的特性並不存在﹐亦即捨去任何特性均會降低歸類的正確率﹐只是程度多寡的問題﹐即使在常態分布的假設下﹐分析歸類正確率亦相當困難﹐此乃肇因於用以歸類的決策函數牽涉到非線性的二次項﹐為減輕這分析上的困難﹐我們利用正交 (orthonormal) 及漂白 (whitening) 轉換將原先向量觀察值的座標系統經過適當的旋轉與壓縮而將兩個分布的共變異矩陣同時對角化 (diagonalized) ﹐當兩個分布的共變異矩陣皆為對角化矩陣時﹐用以歸類的決策函數將會簡化成只牽涉到共變異矩陣的特徵值(eigenvalue) 及分布平均數﹐因而歸類正確率可用共變異矩陣的特徵值表示出來﹐而共變異矩陣之特徵值大小會反映各相對特性對整個向量觀察值變異數的解釋程度﹐捨去一近似無助於歸類特性所造成歸類正確率降低的程度將可以被量化﹐我們利用 Mote Carlo 實驗法針對不同參數的母體機率分布來研究母體參數對歸類正確率的影響。

Classification is an important area in pattern recognition. Feature extra ction for classification is equivalent to retaining informative features or eliminating redundant features. However, due to the nonlinearity of the decision boundary, which occurs in most cases, there exist no absolutely but approxima tely redundant features. Eliminating approximately redundant features results in a decrease in the classification accuracy. Even for two classes with multiv ariate normal distributions, classification accuracy is difficult to analyze s ince the classification function involves quadratic terms. One approach to all eviating this difficulty is to simultaneously diagonalize the covariance matri ces of the two classes which can be achieved by applying orthornormal and whit ening transformations to the measurement space. Once the covariance matrices are simultaneously diagonalized, the quadratic classification function is simplified and becomes much easier to analyze and the classification accuracy can be studied in terms of the eigenvalues of the covariance matrices of the two classes. Thus, the decrease in the classification accuracy incurred from eliminating approximately redundant features can be quantified.We empirically study the classification accuracy by varying the distributionparameters.

QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top
無相關期刊