1. 丁一賢、陳牧言(2006),資料探勘,滄海書局,台中。
2. 尹相志(2006),SQL Server 2005 資料採礦聖經,學貫行銷股份有限公司,台北。
3. 王文清、廖佳俊 (2016),學校建築耐震能力資料探勘模型評估與系統建置,災害防救科技與管理,5(1),1-25。
4. 吳欣儒(2011),資料探勘技術於病人疼痛自控裝置之應用與分析,國立交通大學資訊科學系,碩士論文。5. 吳 品 潔 、 潘 湘 如 (2014), 男 性 不 孕 症 , 家 庭 醫 學 與 基 層 醫 療 , 29(11),284-289。
6. 李俊宏、古清仁(2010),類神經網路與資料探勘技術在醫療診斷之應用研究,工程科技與教育學刊,7(1),154-169。7. 李雄飛、李輝(2003),數據挖掘與知識發現,高等教育出版社,北京。
8. 林承賦 、 陳明哲 、 劉夷生(2015),女性不孕症,家庭醫學與基層醫療,30(12),356 – 362。
9. 洪士程、林淑芬(2013),應用資料探勘技術於國小教師工作壓力之研究-以彰化縣為例,2013 年資訊科技國際研討會。
10. 孫世諺(2005),國語雙字語詞聲調評分方法之研究,台灣科技大學資訊工程系,碩士論文。11. 翁慈宗(2009),資料探勘的發展與挑戰,科學發展期刊,442, 34-37.
12. 張顥鐘(2011),使用單純貝氏分類方法設計互動情境介面,國立臺北科技大學電機工程系碩士班,碩士論文。13. 陳方柏(2013),整數規劃與資料挖掘於最佳裁切方式之應用,東海大學工業工程與經營資訊所,碩士論文。
14. 陳俊旗(2013),利用關聯演算法重現決策樹分類結果,靜宜大學資訊碩士在職專班,碩士論文。15. 陳啟元(2003),資料探勘技術於健保資料之應用-以醫院門診服務點數預測為例,國立中正大學資訊管理研究所,碩士論文。16. 彭文怡、朱經武(2006),季節性預測模式比較—以台灣地區國際港埠進口貨櫃預測為例,航運季刊,25(2),21-36.6217. 曾憲雄、蔡秀滿、蘇東興、曾秋蓉、王慶堯(2006),資料探勘=Data Mining,旗標出版社。
18. 黃莉文(1990),不孕症治療法─ 試管嬰兒,慈濟醫學雜誌,2(1),82-85。19. 黃意茹(2002),都市綠覆率與氣溫之相關性研究-衛星影像類神經網路分類法之應用,逢甲大學土地管理學系,碩士論文。20. 葉怡成(2003),類神經網路模式應用與實作,儒林圖書有限公司,台北。
21. 葉怡成、吳沛儒(2009),基於類神經網路與交叉驗證法之田口方法,品質學報,16(4),261-279。22. 葉宣萱(2011),消費金融無擔保客戶違約協商後毀諾─資料探勘技之應用,台灣金融財務季刊,12(4)。
23. 趙景明、楊清潭(2003),應用資料探勘於顧客價值預測─以醫療器材業為例,2003 年商情資料庫分析與建置之研究成果發表會。
24. 劉桂蘭(2009),不孕症的治療,中醫婦科醫學雜誌,12,52-53。25. 劉蓓麗、李宜致、李威傑、李佳珂、林陽助、王偉 (2007),肥胖病人膽結石生成之預測因子研究,澄清醫護管理雜誌,3(3),29-36。26. 蔡婷鈺、葉怡成、鄒明誠、李振民(2007),以六種資料探勘方法分析影響集集大地震引起山崩之重要因子,中華林學季刊,40(1),69-79。27. 蕭世全(2006),資料探勘於建立精密模具試模知識研究,國立雲林科技大學資訊管理系碩士班,碩士論文。28. 謝邦昌(1995),資料探勘與商業智慧-SQL Server 2005,鼎茂圖書,台北。
29. 謝和昆(2009),疾病分類支援系統之建構-以神經外科與放射科為例,東海大學工業工程與經營資訊學系,碩士論文。30. 簡禎富、許嘉裕(2014),資料挖礦與大數據分析,前程文化,台北。
31. 蘇木春、張孝德(2004),機器學習:類神經網路、模糊系統以及基因演算法則,全華科技圖書股份有限公司,台北。
32. Altman, E. I., Marco, G. V. and Varetto, F., (1994). Corporate distressdiagnosis: comparisons using linear discriminant analysis and neural networks.Journal of Banking and Finance, Vol. 18, pp. 505-529.
33. Berzal, F., Cubero, J.C., Marit, N. & Sanchez, D. (2004). “Building multi-waydecision trees with numerical attributes,” Information Sciences, Vol.165, No.1,pp. 73-90.
34. Breiman, L., Friedman, J., Olsjen, R. & Stone, C. (1984). Classification and 63Regression Trees, Wadsworth Statistics.
35. Chen, M.S.,Han, J. & Yu, P.S. (1996). Data mining : an overview from adatabase perspective, IEEE Transactions on Knowledge and Data Engineering,8(6), 886-883.
36. Chun-Lang Chang & Chih-Hao Chen, (2009). Expert Systems with Applications, Expert Systems with Applications, 36, 4035-4041.
37. Clark, P. & Niblett, T. (1989). The CN2 Induction Algorithm, Machine Learning, 3, 261-283.
38. Dietterich T.G. (2000). Ensemble methods in machine learning, Proceedings of the First International Workshop on Multiple Classifier Systems (MCS00),1-15.
39. Domingos, P. & Plazzani, M. (1997). On the Optimality of the Sample Bayesian Classifier under Zero One Loss, Machine Learning, 29, 203-130.
40. Dursun, D., Christie, F., Charles, M.C. & Deepa R.,(2007). Analysis of healthcare coverage : A data mining approach”. Expert Systems with Applications.
41. Freund, Y. & Schapire. (1996)., R. Experiments with a new boosting algorithm,In Proc. 13th International
Conference on Machine Learning, 148 -156.
42. Freund, Y. & Schapire, R.E. (1997). A decision theoretic generalization of on-line learning and an application to boosting, Computer System Science,
57(1), pp. 119-139.
43. Han, J. & Kamber, M. (2006). Data Mining : Concept and Techniques, Second Edition, San Francisco, Morgan Kaufmann.
44. Hastie, T., Friendman, J. & Tibshirani, R. (2001). The elements of statistica learning, Springer-Verlag, New York.
45. K. Demyttenaere, L. Bonte, and M. Gheldof
(1998).Coping style and depression level influence outcome of in vitro fertilization, Fertility and Sterility , 69, 1026-1033.
46. Kass, G.V. (1980). An Exploratory Technique for Investigating Large Quantities of Categorical Data, Journal of Applied Statistics, 29(2), 119-127.
47. Langley, P. & Sage, S. (1994). Induction of Selective Bayesian Classifiers, Proceedings of the Tenth Conference on Uncertainty in Artificial Intelligence, 64399-406.
48. Leshowitz, B.(1969). Comparison of ROC curves from one and two interval rating-scale procedures, The Journal of Acoustical Society of America, 46(2B),399-402.
49. Nilsson, N.J. (1965). Learning machines: Foundations of trainable pattern classifying systems, McGraw-Hill.
50. Odom, M., and Sharda, R, (1990). A neural network model for bankruptcy prediction, Proceeding of International Joint Conference on Neural Networks,163-168.
51. Quinlan, J.R. (1986). Induction of Decision, Machine Learning, 1(1), 81-106.
52. Quinlan, J.R. (1993). C4.5: Programs for Machine Learning, Morgan Kaufmann Publishers, San Mateo, CA.
53. Rumelhart, D.E., Hinton, G.E., Williams, R.J. (1986). Learning Internal Representations by Back-propagating Errors, Parallel Distributed Processing:Explorations in the Microstructure of Cognition, MIT Press, 1, 318-362.
54. S. Lee, (2010).Using data envelopmentanalysis and decision trees for efficiency analysis and recommendation of B2C controls,.Decision Support Systems, 49, 486-497.
55. Schapire, R. E. (1990). The strength of weak learnability, Machine learning,5(2), 197-227.
56. Tong, Rosemarie.(1997). Feminist approaches to bioethics: theoretical reflections and practical applications. Boulder, Colorado: Westview.