跳到主要內容

臺灣博碩士論文加值系統

(35.175.191.36) 您好!臺灣時間:2021/07/30 12:25
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果 :::

詳目顯示

: 
twitterline
研究生:張鈺卿
研究生(外文):Chang,Yu-Ching
論文名稱:BIB與NEAT設計在不同年度測驗連結效果之比較
指導教授:許天維許天維引用關係郭伯臣郭伯臣引用關係
學位類別:碩士
校院名稱:國立臺中教育大學
系所名稱:教育測驗統計研究所
學門:教育學門
學類:教育測驗評量學類
論文種類:學術論文
論文出版年:2007
畢業學年度:95
語文別:中文
論文頁數:119
中文關鍵詞:平衡不完全區塊設計定錨不等組設計定錨試題試題等化
外文關鍵詞:balanced incomplete blocknon-equivalent groups with anchor test designanchor itemtest equating
相關次數:
  • 被引用被引用:3
  • 點閱點閱:211
  • 評分評分:
  • 下載下載:32
  • 收藏至我的研究室書目清單書目收藏:0
近年來教育資料庫普遍受到重視,因為透過資料庫的建立可以了解全國學生之學習成效,同時可以瞭解比較不同年級、不同年度間的變化。因此,建立共同量尺是非常重要的課題。
本研究以試題反應理論(item response theory, IRT)之三參數羅吉斯模式(three-parameter logistic model)為理論基礎探討利用平衡不完全區塊(balanced incomplete block, BIB)設計與定錨不等組設計(non-equivalent groups with anchor test design, NEAT)兩種連結設計在進行大型教育測驗等化時,對於同年級不同年度間等化之連結效果,並針對受試人數、試題數、受試者能力分布、定錨比例及難度範圍等項目進行模擬實驗。
本研究結果發現在常態分布中,能力參數與試題參數估計誤差會隨著人數增加而降低,並會隨著試題數增加而提高;在不同定錨比例中,大致上以定錨比例為30%有較佳的連結效果。另外,在不同難度範圍中,大致上以難度範圍為-1~1或-2~2有較佳的連結效果。
The main purpose of this study is to explore the linking performance of two large-scale educational assessments which were administrated in different years. Balanced incomplete block (BIB) and non-equivalent groups with anchor test design (NEAT) are two popular test equatinf methods in most of large-scale educational assessments. The effects of numbers of people, numbers of items, ability distributions, the percentage of anchor items and ranges of anchor items are explored under two different linking methods. Three types ranges of difficulty parameters, (-3, 3), (-2, 2), and (-1, 1) are considered in this study.
The results of simulation study show that: When the data follow normal distribution, the equating performance decreases as the numbers of people increases, and increases as the numbers of items increases.The better equating performance occurs as the percentage of anchor items is 30%.The best equating performance occurs when the range of difficulty parameters is (-1, 1) or (-2, 2).
第一章 緒論 1
第一節 研究動機與目的 2
第二節 名詞釋義 4
第二章 文獻探討 7
第一節 測驗等化的意義與種類 7
第二節 測驗等化使用之連結設計 9
第三節 試題反應理論等化方法 13
第三章 研究方法 19
第一節 BIB連結設計 21
第二節 NEAT連結設計 27
第三節 實驗情境與模擬資料產生 31
第四節 研究工具 34
第四章 研究結果 35
第一節 BIB設計等化後估計結果 35
第二節 NEAT設計等化後估計結果 42
第三節 BIB與NEAT設計等化後估計結果綜合比較 50
第五章 結論與改進建議 65
第一節 結論 65
第二節 建議 66
參考文獻 67
中文部分 67
英文部分 68
附錄 70
中文部分
王雅苓(1999)。Kernel smoothing 在 IRT 真分數等化的應用與分析。國立彰化師範大學數學系碩士論文。
王暄博(2006)。BIB與NEAT設計之水平及垂直等化效果比較。國立臺中教育大學教育測驗統計研究所碩士論文。
余民寧(1993)。試題反應理論的介紹(九)-測驗分數的等化(上)。研習資訊10(2),6-11。
李源煌、楊玉女(2000a)。大型考試之基石。文教新潮,5(1)。
李源煌、楊玉女(2000b)。建立學科評量量尺之理論基礎。中國測驗學會測驗年刊,47輯,1期,頁95-116。
吳裕益(1991)。IRT等化法在題庫建立之應用。初等教育學報,第四輯,pp.319-365。國立臺南師範學院初等教育學系。
陳煥文(2004)。垂直等化連結特性之研究-四種連結方法的比較。國科會專題研究計畫。
國立教育研究院籌備處(2005)。臺灣學生學習成就評量資料庫2005年工作成果報告書。台北市:國立教育研究院籌備處。
張鈺卿、陳昇座、郭伯臣、王暄博(2006)。大型教育測驗不同年度量尺等化效果之模擬研究。第七屆海峽兩岸心理與教育測驗學術研討會,2006年10月28日、29日,國立政治大學。
曾玉琳(2005)。不同配置設計下測驗等化效果之模擬研究。國立臺中教育大學數學教育研究所碩士論文。
曾玉琳、王暄博、郭伯臣、許天維(2005)。不同BIB設計對測驗等化的影響。測驗統計年刊,第十三輯下期,頁209-229。台中市:國立台中教育大學。

英文部分
Baker, F. B. (2004). Item Response Theory: Parameter Estimation Techniques. New York: Marcel Dekker. Inc.
Hanson, B.A. & Béguin, A.A. (2002). Obtaining a Common Scale for Item Response Theory Item Parameters Using Separate Versus Concurrent estimation in the Common-Item Equating Design. Applied Psychological Measurement, 26, 3-24.
Hambleton, R.K., & Swaminathan, H. (1985). Item Response Theory: Principles and Application. Boston, MA:Kivwer-Nijhoff.
Haebara, T. (1980). Equating Logistic Ability Scales by a Weighted Least Squares Method. Japanese Psychological Research, 22, 144-149.
Kim, S.H. & Cohen, A.S. (1998). A Comparison of Linking and Concurrent Calibration Under Item Response Theory. Applied Psychological Measurement, 22, 131-143.
Klein, L. W., & Jarjoura, D. (1985). The importance of content representation for common-item equating with non-random groups. Journal of Educational Measurement, 22, 197-206.
Kolen, M.J. & Brennan, R.J. (1995). Test Equating: Methods and Practices. New York: Springer-Verlag.
Kuehl, R. O. (2000). Design of Experiments: Statistical Principles of Research Design and Analysis. CA: Duxbury Press.
Lord, F. M. (1980). Applications of Item Response Theory to Practical Testing Problems. Hillsdale, NJ: Lawrence Erlbaum.
Michale O., Ina V.S., Steven J. (2003). TIMSS 2003 Technical Report.
Mislevy, R. J. (1986). Bayes model estimation in item response models. Psychometrika, 51, 177-195.
Mislevy, R. J. & Bock R. D. (1982). Implementation of the EM algorithm in the estimation of item parameters: The BILOG computer program. In: Item Response Theory and Computerized Adaptive Testing Conference Proceedings (Wayzata, MN).
Mislevy, R. J. & Bock R. D. (1990). BILOG-3 (2nd ed.): Item analysis and test scoring with binary logistic models. Mooresvilk: Scientific Software.
Nemhauser, G. L., & Wolsey, L. A. (1999). Integer and Combinatorial Optimization. New York: John Wiley.
Petersen, S., Kolen, J., Hoover, H.D. (1993). Scaling, Norming, and Equating. In R.L. Linn (Ed.), Educational Measurement (3rd ed., pp221-262). New York: Macmillan.
Rust, K.F. & Johnson, E.G. (1992). Sampling and weighting in the national assessment. Journal of Educational Measurement, 17, 111-129.
Stocking, ML. & Lord, F.M. (1983). Developing a Common Metric in Item Response Theory. Applied Psychological Measurement, 7(2).201-211.
Swaminathan, H., & Gifford, J. A. (1986). Bayesian estimation in the three-parameter logistic models. Psychometrika, 51, 589-601.
von Davier, A. A., Holland, P. W., & Thayer, D. T. (2004). The kernel method of test equating. New York: Springer.
van der Linden, W.J., & Veldkamp, B.P.,& Carlson, J.E. (2004).Optimizing Balanced Incomplete Block Designs for Educational Assessments. Applied Psychological Measurement, 28, 317-331.
Yates, F. (1936). A new method of arranging variety trials involving a large number of varieties. J. Agric. Sci. 26, 424-455
Zimowski, M.F., Muraki, E., Mislevy, R.J. & Bock, R.D. (2003). BILOG-MG. Scientific Software lnternational.
QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top