跳到主要內容

臺灣博碩士論文加值系統

(18.97.9.170) 您好!臺灣時間:2024/12/03 14:27
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果 :::

詳目顯示

: 
twitterline
研究生:楊淑媖
研究生(外文):Yang, Shuying
論文名稱:量尺化高中英文學科能力測驗的建置與應用
論文名稱(外文):The Establishment and the Applications for the Scaling of English in General Scholastic Ability Test for Ordinary Senior High School Students
指導教授:許天維許天維引用關係
指導教授(外文):Sheu,Tianwei
口試委員:許天維郭伯臣黃孝雲
口試委員(外文):Sheu,TianweiKuo, BorchenHuang, Hsiaoyun
口試日期:2013-01-04
學位類別:碩士
校院名稱:國立臺中教育大學
系所名稱:教育測驗統計研究所
學門:教育學門
學類:教育測驗評量學類
論文種類:學術論文
論文出版年:2012
畢業學年度:101
語文別:中文
論文頁數:100
中文關鍵詞:量尺化高中英文學科能力測驗
外文關鍵詞:scalinghigh school EnglishGeneral Scholastic Ability Test(GSAT)
相關次數:
  • 被引用被引用:0
  • 點閱點閱:1094
  • 評分評分:
  • 下載下載:17
  • 收藏至我的研究室書目清單書目收藏:0
本研究旨在發展一個高中學科能力測驗英文科之量尺化題庫系統,除可提供教師評估學生能力以及學生自我檢測的參考依據外,也可作為在高中學科能力測驗英文科目上推估實際表現的一種預測工具。本研究主要分為兩個工作階段:第一階段為命題、組卷及預試,先針對高中學科能力測驗歷屆試題進行質的分析,即利用高中學習能力指標歸納以得到高中學科能力測驗英文科的命題原則以及測驗題數細目表,藉此原則來出題並進行組卷,再透過量的分析,即施測後所得的試題參數值(如:難度、鑑別度、猜測度)、受試者能力值作為量尺化試題庫建置的修正基礎,進而發展成一線上電腦測驗題庫系統;第二階段將評估該系統的設計成效,藉由比較受試者施測後的量尺分數、能力值與實際參加學科能力測驗的量尺分數相關性,驗證該系統之信度與效度,以得其施行之成效分析。
另本研究可知悉以下結果:
一、從高中學科能力測驗英文科的命題原則得知,在評量內容「對高中常用詞彙語意、搭配詞的瞭解與運用」上占最大出題比例26.79%,其次是「能掌握文章內容細節」,出題比例為21.43%。
二、在高中學科能力測驗英文科出題數為56題時,採用Cronbach’s 係數進行英文科測驗試卷內部一致性的分析,得信度為0.897,表示該組題庫試題的內部一致性十分良好。
三、使用效標關聯效度來驗證題庫試題的效度,一比較題庫模擬考及學生實際學測成績而得相關係數0.836;二比較每位學生能力值與學測級分間的相關係數為0.841。兩者效度均高,證明該測驗系統具有優秀的預測能力。

The study aims to develop a scaling item bank in High School General Scholastic Ability Test (GSAT) for the subject English. Teachers may apply the scaling item bank as the basic tool to estimate students’ ability positioning, and students may examine their present achievements as references for their GSAT in the future.
The process of the research was divided into two phases. Phase1: the researcher formulated questions, organized test papers, and gave pre-tests. The test questions of English were collected from GSAT over the past decades for qualitative analysis. That is, by utilizing the questioning principles generated from the ordinary senior high student English Subject Competence Indicators, and the number/item analysis of test questions, test papers were organized, formulated, and then invested in qualitative analysis. Establishment of the Scaling item bank was revised through corrective feedbacks from the quantitative analysis, the item parameters, (such as: item difficulty parameter, item discrimination parameter, and pseudo-chance parameter), and testees’ ability values. Furthermore, it was developed into a computerized system of scaling item bank. Phase 2: the researcher estimated the efficiency of the system design. The reliability and the validity of the system were examined by comparing the testees’ scaling scores after the pre-tests, their ability values, and scaling scores gained from GSAT for the forthcoming efficacy analysis.
The results of the study indicate the followings:
1.Based on the questioning principles generated from the ordinary senior high student English Subject Competence Indicators, in the assessment contents, “understanding and applying often-used lexicon, syntax and matching vocabulary” indicated a major ratio of formulating questions by 26.79%. Meanwhile, “being able to grasp the article content details” showed a ratio of 21.42%.
2.Cronbach’s α coefficients were adopted to analyze the reliability of the high school GSAT English test papers. The validity from a total of 56 questions scored 0.897, which showed fairly reliable internal equity of the item bank.
3.The Correlation coefficients of Criterion-related validity was adopted as the basis to examine the validity in the study. Firstly, the comparison coefficients from students’ pre-tests in the Mock Exam and that from real GSAT tests scored 0.836. Secondly, students’ ability positioning values were compared with their rankings from GSAT. The correlation coefficient scored 0.841. Both correlation coefficients proved the fairly high-level validity of the test item bank and its forecasting capability.

目錄
謝誌 I
中文摘要 II
ABSTRACT III
目錄 V
表目錄 VII
圖目錄 VIII
第一章 緒論 1
第一節 研究動機 1
第二節 研究目的 4
第三節 名詞解釋 5
壹、 學科能力測驗 5
貳、 指定科目考試 5
參、 模擬考試 6
肆、 成就測驗 7
第二章 文獻探討 8
第一節 測驗試題編製 8
壹、 高中能力指標 8
貳、 試題命題原則 11
第二節 試題反應理論 14
壹、 IRT的基本假設 14
貳、 IRT的模式及其特性 15
第三節 線上電腦測驗 17
第三章 研究方法 18
第一節 研究流程 18
第二節 研究步驟 20
第三節 研究工具 24
壹、 統計分析軟體SPSS 24
貳、 BILOG-MG軟體 24
第四節 研究範圍與限制 25
壹、 研究試題方面 25
貳、 研究對象方面 25
第四章 研究結果 26
第一節 高中學測英文科命題架構 26
第二節 高中學測英文科測驗題數分配表 28
第三節 高中學測英文科命題適切檢查表 29
第四節 高中學測英文科題本編製與測驗設計結果 29
第五節 高中學測英文科組卷探討 30
第六節 高中學測英文科試題參數表 31
第七節 不良試題標記表 34
第八節 試題刪除題數統計表 34
第九節 試題結果分析 35
第十節 99課綱高中學測英文科命題原則 36
第十一節 信度分析 38
第十二節 效度分析 38
第五章 結論與建議 39
參考文獻 40
中文部分 40
英文部分 42
附錄一 英文科命題適切檢查表 44
附錄二 英文科預試試題參數表 48
附錄三 99課綱學測英文科參考試卷說明 74
附錄四 95暫綱學測英文科參考試卷說明 82
附錄五 計畫成果交互授權同意書 90

表目錄
表1.1學科能力測驗歷年報名人數統計表 2
表2.1 99課綱與95暫綱之分析 9
表3.1 NEAT設計 20
表4.1 高中學測英文科命題架構 26
表4.2 高中學測英文科測驗題數分配表 28
表4.3 詞彙與慣用語的命題適切檢查表 29
表4.4 高中學測英文科題本編製與測驗設計 29
表4.5 學科能力測驗英文科組卷試卷架構(95暫綱) 30
表4.6 學科能力測驗英文科組卷試卷架構(99課綱) 30
表4.7 高中學測英文科試題參數表 31
表4.8 不良試題標記表 34
表4.9 試題刪除題數統計表 35
表4.10 測驗試題參數平均值分析表 36
表4.11 邏輯思考、判斷與創造力檢查表 37
表4.12 學測成績以及模考成績以及能力值之相關 38

圖目錄
圖3.1 量尺化題庫建置流程暨分工圖 19
參考文獻
中文部分
MBA智庫百科(2012)。成就測驗。2012年12月12日取自http://wiki.mbalib.Com /zh-tw/成就测验。
WikiTeamWork(2012)。電腦測驗的優缺點。2012年12月12日取自http://zh. wikiteamwork.wikia.com/wiki/電腦測驗的優缺點
中等教育司(2008)。因應高中英文、數學、基礎物理課程分版 教材編輯及考試範圍之說明。教育部電子報—即時新聞。2008年2月26日取自http://epaper. edu.tw/e9617_epaper/news.aspx?news_sn=1452
中等教育司(2011a)。普通高級中學課程暫行綱要(95學年度高一新生適用)。高級中學課程標準暨綱要—中等教育司資訊網。臺北市:教育部。取自http://www.edu.tw/high-school/content.aspx?site_content_sn=8403
中等教育司(2011b)。普通高級中學課程綱要總綱(101學年度高一新生適用)。高級中學課程標準暨綱要—中等教育司資訊網。臺北市:教育部。取自http://www.edu.tw/high-school/content.aspx?site_content_sn=8403
余民寧(1993)。「試題反應理論的介紹(十一):題庫的建立」,研習資訊,第十卷,4,9-13。
何榮桂(1990),電腦輔助教學系統中的測驗設計。中等教育,41(2),29-34。
李坤崇(2010)。高中課程99課綱與95暫綱之分析。教育資料與研究雙月刊,92,1-24。
財團法人大學入學考試中心(2008)。大學入學考試中心學科能力測驗暨指定科目考試各考科考試說明公告(2008/9/30更新)。取自http://www.ceec.edu.tw/95課綱考試說明/95課綱(98年施測)考試說明.htm
財團法人大學入學考試中心(2011)。99課綱(民國102年施測)之大學入學考試中心學科能力測驗及指定科目考試各考科測驗範圍暨A、B版之相關考科命題方向公告說明(2011/9/30公告)。取自http://www.ceec.edu.tw/99課綱考試說明/99課綱命題方向說明.htm
財團法人大學入學考試中心(2012a)。學科能力測驗/簡介(2012/9/28更新)。取自http://www.ceec.edu.tw/abilityexam/AbilityExamProfile.htm
財團法人大學入學考試中心(2012b)。指定科目考試/簡介(2012/9/28更新)。取自http://www.ceec.edu.tw/AppointExam/AppointExamProfile.htm
陳新豐(2002)。線上題庫與適性測驗整合系統之發展研究。國立政治大學教育學系教育心理與輔導組博士論文,未出版,臺北。
郭伯臣、曾建銘、吳慧珉(2011)。大型標準化測驗建置流程應用於TASA之研究。新北市:國家教育研究院。
張鈿富、葉連祺、張奕華(2005)。大學多元入學方案對入學機會之影響。教育政策論壇,8(2),1-24。
葉錫南(2009)。高中英文科課程分版之教材編纂、教學、評量及升學考試。考試學刊,6,1-20。臺北市:大學入學考試中心。
盧雪梅(2004)。成就測驗。國中基本學力測驗專刊─飛揚第29期。臺北市:基本學力測驗推動工作委員會。


英文部分
Birnbaum, A.(1968). Some latent trait models and their use in inferring an examinee's ability. In F.M. Lord & M.R. Novick(Eds.), Statistical theories of mental tests scores(pp. 397-479). Reading,MA: Addison-Wesley.
Brown, J.D.(2005). Tesing in language programs: A comprehensive guide to English language assessment. New York: McGraw-Hill College.
Gullikson, H.(1987). Theory of mental tests. Hillsdale, NJ: Lawrence Erlbaum Associates.(Originally published in 1950 by New York: John Wiley & Sons)
Hambleton, R.K., & Swaminathan, H.(1985). Item response theory: Principles and applications. Boston, MA: Kluwer-Nijhoff.
Hambleton, R.K., Swaminathan, H., & Rogers, H.J.(1991). Fundamentals of item response theory. Newburry Park, CA: SAGE.
Hulin, C.L., Drasgow, F., & Parsons, C.K.(1983). Item response theory: Application to psychological measurement. Homewood, IL: Dow Jones-Irwin.
Kolen, M.J. & Brennan, R.L.(1995). Test Equating: Methods and Practices. New York: Springer-Verlag.
Kolen, M.J. & Brennan, R.L.(2004). Test equating, scaling, and linking: methods and practices (2nd ed.). New York: Springer-Verlag.
Lord, F.M.(1952). A theory of test scores. Psychometric Monograph, No. 7.
Lord, F.M.(1980). Applications of item response theory to practional testing problems. Hillsdale, NJ: Lawrence Erlbawn Associates.
Lord, F.M., & Novick, M.R. (1968). Statistical theories of mental test scores. Reading, MA: Addison-Wesley. Masters, G.N. (1982). A Rasch model for partial credit scoring. Psychometrika, 47, 149-174.
Rasch, G(1960). Probabilistic models for some intelligence and attainment tests. Copenhagen: Institute of Educational Research. (Expanded edition, 1980. Chicago: The University of Chicago Press.)
Tianyou, W.(2005). An Alternative Continuization Method to the Kernel Method in von Davier, Holland and Thayer's (2004) Test Equating Framework.
Van der Linden W.J. & Glas, C.A.W.(2000). Computerized adaptive testing:theory and practice. Dordrecht; Boston:Kluwer Academic.
von Davier, A.A., Holland, P.W., & Thayer, D.T. (2004). The kernel method of test equating. New York: Springer.
Wainer, H., Dorans, N.J., Flaugher, R., Green, B.F., Mislevy, R.J., Steinberg, L., & Thissen, D.(Eds.)(1990). Computerized adaptive testing: A primer. Hillsdale, NJ: Lawrence Erlbaum Associates.
Wright, B.D., & Stone, M.H.(1979). Best test design. Chicago: MESA Press.
Wright, B.D., & Masters, G.N. (1982). Rating scale analysis. Chicago: MESA Press.
Zimowski, M.F., Muraki, E., Mislevy, R.J., & Bock, R.(2003). BILOG-MG Chicago, IL: Scientific Software International.
QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top