(3.237.178.91) 您好!臺灣時間:2021/03/07 02:29
字體大小: 字級放大   字級縮小   預設字形  
回查詢結果

詳目顯示:::

我願授權國圖
: 
twitterline
研究生:陳新豐
研究生(外文):Shin-Feng Chen
論文名稱:線上題庫與適性測驗整合系統之發展研究
論文名稱(外文):A Reserach In The Development of An Integrated On-Line Item Bank and Computerized Adaptive Testing System
指導教授:林邦傑林邦傑引用關係余民寧余民寧引用關係
指導教授(外文):Pang-Chien LinMin-Ning Yu
學位類別:博士
校院名稱:國立政治大學
系所名稱:教育學系
學門:教育學門
學類:綜合教育學類
論文種類:學術論文
論文出版年:2002
畢業學年度:90
語文別:中文
論文頁數:337
中文關鍵詞:試題反應理論題庫等化電腦化適性測驗系統開發生命週期
外文關鍵詞:item response theoryitem bankequatingcomputerized adaptive testingsystems development life cycle
相關次數:
  • 被引用被引用:22
  • 點閱點閱:560
  • 評分評分:系統版面圖檔系統版面圖檔系統版面圖檔系統版面圖檔系統版面圖檔
  • 下載下載:0
  • 收藏至我的研究室書目清單書目收藏:7
本研究係結合工具研發、理論驗證與效能評估的研究,旨在開發一個建構在全球資訊網的「線上題庫與適性測驗整合系統」,以提供教師在網際網路環境下的輔助教學評量系統,除了可動態新增題庫之外,並能針對學生提供量身訂做的適性測驗。因此,研究的兩個核心主軸為「線上題庫與適性測驗整合系統」之開發與「線上題庫建置」的理論驗證。
依循這兩個核心主軸,本研究的研究目的有三:(一)開發線上題庫與適性測驗整合系統。(二)驗證建置題庫的相關理論。(三)評估整合系統運作效能與使用者滿意程度。
為達成這三個研究目的,研究者採用結構分析中,Sehlly、Cashmen和Rosenblatt(2001)所提出的「系統開發生命週期」,將「線上題庫與適性測驗整合系統」開發過程分為「系統規劃」、「系統分析」、「系統設計」、「系統建置」、「系統運行與支援」等五個階段逐步開發。
研究樣本方面,第一次預試選用台南市崇明國中三年級學生115人,第二次預試選用台南市建興國中三年級學生191人,正式施測樣本則是台灣地區北、中、南、東、離島等共計九校2567位國中三年級學生為研究對象。此外,在需求調查報告部分,共調查十五位專家對開發系統的意見。
就研究工具來說,本研究主要研究工具為「線上題庫與適性測驗之整合系統」,另外,「功能需求調查問卷」、「硬體設備」、「軟體工具」、「系統評估量表」也是本研究的研究工具。
就資料處理來說,本研究運用ITEMAN、BILOG、MatLab和SPSS套裝軟體進行資料處理,所採用的統計方法包含古典測驗理論與試題反應理論等理論來分析,計有試題分析、IRT三參數估計、因素結構分析等。
研究結果部分,本研究得到如下結論:(一)線上題庫與適性測驗兩個系統可整合為一。(二)線上題庫與適性測驗之整合系統具有多項功能。(三)結構化分析中之系統開發生命週期是開發整合系統的理想方法。(四)題庫等化轉換常數方法以Mean/Mean和Haebara等方法較佳」(五)線上測驗與紙筆測驗的試題訊息量相近,但難度偏高。(六)線上測驗連結效益良好。(七)本整合系統運作效能良好。(八)使用者對整合系統之功能感到滿意。
根據研究結論,本研究針對工具研發、題庫建置、效能評估等提出具體建議。
關鍵字:試題反應理論、題庫、等化、電腦化適性測驗、系統開發生命週期
This research is to develop an integrated internet system of on-line item bank and computerized adaptive testing (the “System”), which is comprised of the teaching tool development, theory verification, and efficiency evaluation. Except for the addition of new item bank dynamically, the System, an auxiliary teaching evaluation system for teachers, can also provide customarily made adaptive testing for students. Therefore, to develop an integrated on-line item bank and computerized adaptive testing system and to verify the theory of on-line item bank development constitute the two core spindles of this research.
Following the aforementioned research spindles, the main purposes of this research are going to: (A). Develop an integrated on-line item bank and computerized adaptive testing system. (B). Verify the related theories concerning the development of on-line item bank. (C). Evaluate the operating efficiency of such System and the degree of users’ satisfaction.
The “systems development life cycle” (Sehlly, Cashmen Rosenblatt, 2001), a structured analysis method, is adopted to conduct the research. The development process of an integrated on-line item bank and computerized adaptive testing system is divided into 5 separate and successive stages, starting from system planning, system analysis, system design, system development, to system operation and support.
In terms of research sampling, the selected samples in the first preliminary testing are 115 ninth-grade students of Chiung-Ming High School in Tainan City, Taiwan. The selected samples in the second preliminary testing are 191 ninth-grade students of Cheng-Sing High School in Tainan City, Taiwan. The third and official sampling is 2,567 ninth-grade students who were selected from a total of 9 high schools ranging from Northern, Central, Southern, and Eastern Taiwan, and islands adjacent to Taiwan. Furthermore, in the demand side, an investigation has been conducted to consult with 15 teaching experts for their professional opinions in regard to such System development.
As far as research tools are concerned, except for the main research tool — the integrated on-line item bank and computerized adaptive testing system, other research tools employed consist of functional demand questionnaires, hardware equipments, software tools, and scales for system evaluation.
In the aspect of data processing, ITEMAN, BILOG, MatLab, and SPSS application softwares are used to perform the data processing. The statistical method, like classical true score theory and item response theory and etc., is applied to conduct the following analyses: item analysis, IRT three-parameter estimate, structured analysis of elements, and etc.
The results of this research lead to the following conclusion:
1. The on-line item bank system and the adaptive testing system, the two separate systems, can be integrated into one system.
2. The integrated on-line item bank and adaptive testing system can play multiple functions.
3. “Systems development life cycle” in the structured analysis is an ideal manner to develop an integrated system.
4. “Mean/Mean”, “Haebara” and, etc. are the better methods to perform the item bank equating and constant conversion.
5. For users, the information volume provided by on-line testing and traditional written testing are quite similar, but the degree of difficulty of on-line testing is higher than that of traditional written testing.
6. The linking effect of on-line testing is fair.
7. The operating efficiency of the integrated system is fair.
8. Users are satisfied with the functions of the integrated system.
Based on research conclusions drawn thereon, suggestions for tool development, item bank development, and efficiency evaluation are also provided.
Keywords:item response theory, item bank, equating, computerized adaptive testing, systems development life cycle
第一章 緒論 1
第一節 研究動機 1
第二節 研究目的 3
第三節 待答問題 3
第四節 名詞釋義 3
第五節 本研究的重要性 5
第二章 文獻探討 6
第一節 電腦化適性測驗 6
第二節 題庫相關議題 33
第三節 等化相關議題 46
第四節 網際網路開發技術之探討 59
第五節 系統開發及評估 76
第三章 研究方法 85
第一節 研究架構 85
第二節 研究設計 86
第三節 研究對象 88
第四節 研究工具 91
第五節 實施程序 94
第六節 資料處理 95
第四章 結果與討論 96
第一節 線上題庫與適性測驗整合系統之開發過程 96
第二節 線上題庫建置過程與結果 130
第三節 線上題庫與適性測驗整合系統的效能評估 154
第五章 結論與建議 177
第一節 主要發現 177
第二節 結論 182
第三節 建議 185
第四節 研究限制 189
參考文獻 191
中文部份 191
英文部份 196
附錄 205
附錄一 國中基本學力測驗第一、二次試題參數估計結果一覽表 205
附錄二 線上題庫與適性測驗整合系統的需求調查問卷 209
附錄三 線上題庫與適性測驗整合系統使用者評估表 212
附錄四 資料字典(處理程序) 214
附錄五 資料字典(資料流) 227
附錄六 資料字典(檔案) 231
附錄七 試卷分析中參數估計程式碼 234
附錄八 模擬程式(答題反應資料計算能力值) 240
附錄九 模擬程式(適性測驗終止標準的設定) 243
附錄十 系統使用說明文件 246
附錄十一 建置題庫第一次預試試卷 289
附錄十二 第一次預試分析結果 304
附錄十三 建置題庫第二次預試試卷 307
附錄十四 第二次預試分析結果 322
附錄十五 施測說明 325
附錄十六 甲乙丙三式主成份係數摘要表 329
附錄十七 正式施測逐題分析摘要表 330
附錄十八 BILOG試題分析參數值一覽表 334
圖 次
圖2-1 金字塔式適性測驗 8
圖2-2 彈性水準適性測驗答題順序 9
圖2-3 五個階層的階層適性測驗 9
圖2-4 單向度假定示意圖 13
圖2-5 非單向度假定示意圖 14
圖2-6 試題特徵曲線 17
圖2-7 七種試題特徵函數的迴歸線 17
圖2-8 不同能力值所推算出來的可能性函數 23
圖2-9 全球資訊網的基本架構 60
圖2-10 靜態的網站內容 70
圖2-11 動態的網站內容 71
圖2-12 利用PHP的網頁內容傳輸流程 72
圖2-13 執行PHP所需環境示意圖 73
圖2-14 網路作業系統在網站的佔有率 75
圖2-15 網際網路中網站伺服器使用率 75
圖2-16 系統開發生命週期各階段及其產出 77
圖3-1 研究架構圖 86
圖3-2 國中基本學力測驗第一、二次測驗訊息及誤差曲線圖 90
圖3-3 初步系統功能需求架構圖 92
圖3-4 實施程序流程圖 95
圖4-1 「線上題庫與適性測驗整合系統」功能架構圖(修正) 103
圖4-2 系統設計之處理程序圖 104
圖4-3 系統設計之檔案圖 105
圖4-4 「線上題庫與適性測驗整合系統」資料流程圖概圖 105
圖4-5 「線上題庫與適性測驗整合系統」資料流程圖第(Level 0) 106
圖4-6 「線上題庫與適性測驗整合系統」資料流程圖第(Level 1) 107
圖4-7 註冊新帳號功能畫面 111
圖4-8 系統管理者收到新郵件要求審查資料的畫面 112
圖4-9 系統出現審核帳號資料的畫面 112
圖4-10 審核帳號的畫面 113
圖4-11 自定連續性測驗查詢畫面 113
圖4-12 自定連續性測驗第二題內容畫面 114
圖4-13 選擇自定連續性測驗 115
圖4-14 確認選擇連續性測驗 115
圖4-15 自定連續性試卷第二種第九題內容畫面 116
圖4-16 測驗結果報告畫面 116
圖4-17 自定連續性測驗第二種全部答對時其能力估計可能曲線圖 117
圖4-18 全部答對時,第20題,PSD=0.39,能力估計值2.25 123
圖4-19 全部答錯時,第23題,PSD=0.39,能力估計值-2.20 124
圖4-20 答對答錯時,第9題,PSD=0.35,能力估計值-0.35 124
圖4-21 線上題庫與適性測驗整合系統主畫面 127
圖4-22 關於我們的畫面 127
圖4-23 第一次預試定錨試題測驗訊息及誤差曲線 135
圖4-24 第二次預試定錨試題測驗訊息及誤差曲線 138
圖4-25 甲式測驗訊息圖 142
圖4-26 乙式測驗訊息圖 143
圖4-27 丙式測驗訊息圖 143
圖4-28 甲乙丙三式測驗訊息圖 144
圖4-29 九十學年度國中基本學力一二次試題與甲乙丙三式測驗訊息圖 144
圖4-30 甲式等化到乙式,甲式前後的測驗訊息曲線圖 147
圖4-31 甲式等化到丙式,甲式前後的測驗訊息曲線圖 148
圖4-32 甲式等化到乙式,與甲式等化到丙式,甲式前後的測驗訊息曲線圖(Mean/Mean) 148
圖4-33 甲式等化到乙式,與甲式等化到丙式,甲式前後的測驗訊息曲線圖(Haebara) 149
圖4-34 甲式等化到乙式,乙式前後的測驗訊息曲線圖 149
圖4-35 乙式等化到丙式,乙式前後的測驗訊息曲線圖 150
圖4-36 甲式等化到乙式,與乙式等化到丙式,乙式前後的測驗訊息曲線圖(Mean/Mean) 150
圖4-37 甲式等化到乙式,與乙式等化到丙式,乙式前後的測驗訊息曲線圖(Haebara) 151
圖4-38 甲式等化到丙式,甲式前後的測驗訊息曲線圖 151
圖4-39 乙式等化到丙式,丙式前後的測驗訊息曲線圖 152
圖4-40 甲式等化到丙式,與乙式等化到丙式,丙式前後的測驗訊息曲線圖(Mean/Mean) 152
圖4-41 甲式等化到丙式,與乙式等化到丙式,丙式前後的測驗訊息曲線圖(Haebara) 153
圖4-42 連續性測驗答題時間折線圖 155
圖4-43 「線上題庫與適性測驗整合系統」日網頁瀏覽統計長條圖 157
圖4-44 「線上題庫與適性測驗整合系統」91年3月網頁瀏覽統計長條圖 158
圖4-45 「線上題庫與適性測驗整合系統」91年4月網頁瀏覽統計長條圖 160
圖4-46 「線上題庫與適性測驗整合系統」來源網址分析圖 161
圖4-47 「線上題庫與適性測驗整合系統」來源國家資料圖 163
圖4-48 「線上題庫與適性測驗整合系統」使用ISP或單位名稱資料圖 164
圖4-49 「線上題庫與適性測驗整合系統」環境分析瀏覽器版本資料圖 167
圖4-50 「線上題庫與適性測驗整合系統」環境分析螢幕解析度與色彩資料圖 168
圖5-1 WebEdit線上試題編輯程式畫面 186
表 次
表2-1 評估題庫品質之各試題參數參考指標 38
表2-2 Linux vs. Windows NT功能評比一覽表 66
表3-1 定錨試題設計模型一覽表 87
表3-2 國中基本學力測驗第一、二次數學科男女生受試者一覽表 89
表3-3 國中基本學力測驗第一、二次數學科不同地區受試者一覽表 89
表3-4 分區母群學生人數及預計取樣之各年級學生人數(題庫等化) 91
表4-1 線上題庫與適性測驗整合系統需求調查問卷專家名單 97
表4-2 專家功能需求調查描述統計結果一覽表 98
表4-3 專家功能需求調查描述統計結果一覽表(排序) 99
表4-4 系統功能架構修正前後模組對照表 102
表4-5 資料字典使用符號說明 108
表4-6 適性測驗前測試題 119
表4-7 題庫中止標準設定模擬程式結果資料一覽表 121
表4-8 國民中學一至三年級數學科單元名稱 130
表4-9 第一次預試試卷雙向細目表 131
表4-10 定錨試題的b參數一覽表 132
表4-11 第一次預試傳統測驗參數統計一覽表 134
表4-12 第一次預試班級模擬考成績單因子變異數分析摘要表 134
表4-13 第二次紙筆預試人數統計一覽表 136
表4-14 第二次預試傳統測驗參數統計一覽表 137
表4-15 正式施測之抽樣學校及班級數、人數一覽表 138
表4-16 甲、乙、丙三卷試題分佈情形一覽表 139
表4-17 甲、乙、丙三式之因素分析摘要表 140
表4-18 甲、乙、丙及定錨試題三式線上測驗傳統試題分析結果摘要表 141
表4-19 BILOG對甲、乙、丙三式測驗之項目分析摘要表 142
表4-20 BILOG等化常數轉換斜率和截距結果一覽表 145
表4-21 利用定錨試題鑑別度、難度連結結果比較一覽表 146
表4-22 「線上題庫與適性測驗整合系統」不同時段登入人數一覽表 154
表4-23 連續性測驗施測資料分析一覽表 155
表4-24 「線上題庫與適性測驗整合系統」總分析表(以91年4月19日為例) 156
表4-25 「線上題庫與適性測驗整合系統」91年3月25日網頁瀏覽統計數一覽表 157
表4-26 「線上題庫與適性測驗整合系統」91年3月網頁瀏覽統計數一覽表 159
表4-27 「線上題庫與適性測驗整合系統」91年4月網頁瀏覽統計數一覽表 160
表4-28 「線上題庫與適性測驗整合系統」來源網址瀏覽數一覽表 162
表4-29 「線上題庫與適性測驗整合系統」來源國家資料一覽表 163
表4-30 「線上題庫與適性測驗整合系統」網域分析語言資料一覽表 164
表4-31 「線上題庫與適性測驗整合系統」使用ISP或單位名稱資料一覽表 164
表4-32 環境分析作業系統平臺資料一覽表 165
表4-33 「線上題庫與適性測驗整合系統」環境分析作業系統版本資料一覽表 166
表4-34 「線上題庫與適性測驗整合系統」環境分析瀏覽器類別資料一覽表 166
表4-35 「線上題庫與適性測驗整合系統」環境分析瀏覽器版本資料一覽表 167
表4-36 「線上題庫與適性測驗整合系統」環境分析螢幕解析度與色彩資料一覽表 169
表4-37 使用者基本資料次數分配表 170
表4-38 使用者評估結果次數分配表 171
表4-39 使用者基本資料在評估量表上之人數及平均數摘要表 172
表4-40 評估量表性別單因子多變量變異數分析結果摘要表 172
表4-41 評估量表每週使用電腦總時數單因子多變量變異數分析結果摘要表 173
表4-42 評估量表家中是否有電腦總時數單因子多變量變異數分析結果摘要表 173
表4-43 評估量表每週上網總時數單因子多變量變異數分析結果摘要表 174
表4-44 評估量表數學學期成績單因子多變量變異數分析結果摘要表 174
表4-45 評估量表性別與家中是否有電腦平均數及標準差摘要表 175
表4-46 性別、家中是否有電腦在人機介面與測驗部份二因子多變量變異數分析摘要表 175
中文部份
大新資訊譯(民89):精通Red Hat Linux管理手冊。臺北市,文魁資訊。
王立行、周東山(民85):應用IRT試題連結設計建立能力成長曲線。測驗年刊,43輯,53-66。
王寶墉(民84):現代測驗理論。臺北市,心理出版社。
台南師院(民85):遠距教學系統於國民小學之應用研究。[ON-LINE]:http://pathfinder.ntntc.edu.tw/。
交通部統計處(民90):台灣地區民眾使用網際網路狀況調查報告。[ON-LINE]:http://www.motc.gov.tw/service/survey/90www.doc。
位元文化(民90):PHP4.0動態網頁徹底研究。臺北市,文魁資訊。
宋麗麗、曹延傑(民79):結構化分析。臺北市,資訊工業策進會。
何榮桂(民80a):電腦化題庫設計的基本架構。教育研究雙月刊,20期,21-26。
何榮桂(民80b):電腦化測驗概述。現代教育,18期,121-129。
何榮桂(民80c):題庫中項目參數分配形態對電腦化適性測驗選題的影響。測驗年刊,38輯,71-96。
何榮桂(民83):電腦化題庫概述。測驗與輔導,126期,2576-2577。
何榮桂、郭再興(民86):網路化適性測驗系統。第六屆國際電腦輔助教學研究會論文集,186-196。
何榮桂、陳麗如(民87):電腦化適性測驗題庫品質管理策略之研究。第七屆國際電腦輔助教學研討會大會論文,409-410。
何榮桂、陳麗如、郭再興、蘇建誠、籃玉如(民86)。虛擬測驗服務中心─建構INTERNET的適性測驗環境。TANET’97, 60-72。
何榮桂、蘇建誠(民86):遠距適性態度測驗系統設計。第六屆國際電腦輔助教學研討會,台北,175-185。
余民寧(民80):試題反應理論的介紹(1)--測驗理論的發展趨勢。研習資訊,8卷6期,13-18。
余民寧(民82a):試題反應理論的介紹(9)--測驗分數的等化 (上)。研習資訊,10卷2期,6-11。
余民寧(民82b):試題反應理論的介紹(10)--測驗分數的等化 (下)。研習資訊,10卷3期,11-16。
余民寧(民82c):試題反應理論的介紹(11)-題庫的建立。研習資訊,10卷4期,9-13。
余民寧(民82d):試題反應理論的介紹(12)─電腦化適性測驗。研習資訊,10卷5期,5-9。
余民寧(民86):教育測驗與評量,成就測驗與教學評量。臺北市,心理出版社。
余嘉元(1992):項目反應理論及其應用。江蘇省,江蘇教育出版社。
吳百能(民83):電腦網路在輔導工作上的應用。諮商與輔導,105,43-45。
吳裕益(民80a):IRT等化法在題庫建立之應用。南師初等教育學報,4期,319-365。
吳裕益(民80b):電腦化適性測驗與傳統測驗之比較。教師天地,54期,49-53。
吳裕益(民86):題目反應理論。上課講義(未發表)。
吳裕益、陳英豪、洪碧霞、楊家輝、劉明秋、丁振豐、葉千綺(民80):國民小學高年級數學能力電腦化適性測驗之研究。國科會專案研究,未發表。
吳鐵雄、孫光天、陳新豐(民87):國民小學線上適性測驗系統之建構。第十二屆電腦輔助教學研討會論文集。
李盛袓(民86):國小數學乘法系列診斷測驗題庫的建立與應用研究。國立台灣師範大學教育心理與輔導研究所碩士論文(未出版)。
李連順(民89):國中生活科技線上測驗系統發展研究。國立高雄師範大學工業科技教育學系碩士論文(未出版)。
周宣光譯(民89):管理資訊系統:網路化企業中的組織與科技。臺北市,東華書局。
周倩(民87):電腦輔助測驗與評量-發展趨勢與研究方向。第十四屆科學教育研討會,國立高雄師範大學。
林世華(民75):潛在特質理論與其應用於適性測驗之評估研究。國立台灣師大輔導研究所碩士論文(未出版)。
林奇賢(民86):全球資訊網輔助學習系統網際網路與國小教育。資訊與教育,第58期,2-11。
林明達(民87):全球資訊網線上測驗系統之設計與製作。國立交通大學碩士論文(未出版)。
施威銘研究室(民88):Red Hat Linux 6.0實務應用。臺北市,旗標。
施叡凝(民89):網際網路上的智慧型考試系統。東華大學資訊工程研究所碩士論文(未出版)。
洪榮昭、劉明洲(民86):電腦輔助教學之設計原理與應用。臺北,師大書苑。
洪碧霞(民80):中文電腦化適性測驗系統建立時的思量與前瞻。中國測驗學會,民國八十年年會研討會參考資料(未出版),36-43。
洪碧霞、吳裕益、陳英豪、黃淑津、蕭淳元、徐綺穗、丁振豐(民80):IRT參數量尺化系列研究。國科會專題研究計畫成果報告,NSC80-0301-H-024-01。
洪碧霞、吳鐵雄(民78):簡介電腦化適性測驗的發展及其實施要素並兼論我國大專聯考電腦適性化的可行性。測驗年刊,36輯,75-94。
夏漢民(民85):中華民國國家資訊基礎建設之遠景與藍圖。經濟情勢暨評論,1卷4期,1-13。
孫光天、陳新豐(民88):利用人工智慧技術於選題策略之研究。測驗年刊,46輯,1期,75-88。
孫光天、陳新豐、吳鐵雄(民87):線上適性測驗回饋對作答情緒與動機影響之研究。第七屆國際電腦輔助教學研討會學生論文專題論文彙編,9-14。
孫光天、陳新豐、吳鐵雄(民90):線上適性測驗系統回饋對電腦態度影響之研究。台南師院學報,第34期,1-18。
祝鈞毅、黃國禎(民87):網路智慧型多專家測驗資料庫重複性、一致性及完整性分析。第七屆國際電腦輔助教學研討會大會論文,344-349。
張豊雄(民82):結構化系統分析與設計。臺北市,松崗。
許擇基、劉長萱(民81):試題作答理論簡介。臺北,中國行為科學社。
傅志忠(民81):實用系統分析與設計─結構化方法。臺北市,松崗。
陳年興、曾建翰(民86):全球資訊網上WebTitle之製作。遠距教育,第2卷,12-21。
陳柏熹(民89):選題限制與曝光率控制對多向度電腦化適性測驗之測量精確度與試題曝光率的影響。國立中正大學心理學研究所博士論文(未出版)。
陳新豐(民88a):多媒體線上適性測驗系統發展及其相關研究。國立台南師院資訊研究所碩士論文(未出版)。
陳新豐(民88b)。國小學生對電腦化適性測驗態度之調查研究。嘉義師院國民教育學報,第5期,301-329。
陳新豐、吳鐵雄(民88):線上適性測驗系統之研發。1999教育與心理測驗學術研討會論文。
陳麗如(民86):從CAI中的題目到Internet上的題庫。測驗與輔導,144期,2990-2993。
陳麗如(民87):電腦化適性測驗之題庫品質管理策略。台灣師大資訊教育研究所碩士論文(未出版)。
惠志堅(民86):生活科技教師網路教學諮詢系統發展研究。高雄師大工業科技教育學系碩士論文(未出版)。
黃明祥(民77):系統分析與設計。臺北市,松崗。
黃朝恭(民89):國民小學國語科多媒體線上測驗系統建置之相關研究。臺中師範學院教育測驗統計研究所碩士論文(未出版)。
楊文誌(民81):Linux實務手冊。臺北市,第三波。
葉雅俐(民89):以概率法探討兩種量尺限制在試題反應理論的差異功能檢定之效果。國立中正大學心理學研究所碩士論文(未出版)。
葉維彰(民87):結構化系統分析與設計。臺北市,松崗。
趙素珍(民87):IRT軟體估計精準度之比較。國立台中師範學院國民教育研究所碩士論文(未出版)。
蔡志煌(民89):利用類神經網路於題目反應理論參數估計之研究。臺南師範學院資訊教育研究所碩士論文(未出版)。
蔡福興(民88):國中生活科技教學活動網路資源系統發展研究。台灣師大工業科技教育學系碩士論文(未出版)。
鄭海東(民88):以類神經網路進行適性測驗題目參數估計之研究。臺南師範學院資訊教育研究所碩士論文(未出版)。
賴信仁(民86):題目參數校準研究。台灣師大資訊教育研究所碩士論文(未出版)。
謝欽旭、莊明峰、徐得恩(民89)。輕鬆學習網路資料庫:MySQL與PHP。臺北市,松崗。
簡茂發、劉湘川、許天維、郭伯臣、般志文(民84):以Mantel-Haenszel法檢定試題區別功能之相關因素探討。測驗年刊,42輯,85-101。
饒瑞文(民82):系統開發導論。臺北市,松崗。
英文部份
Ager, T.(1993). Online placement testing in mathematics and chemistry. Journal and Computer-Based Instruction, 20(2), 52-57.
Angoff, W. H. (1971). Scales, norms, and equivalent scores. In R. L. Thorndike(ed.) Educational Measurement(2nd.). Washington, D. C. : American Council on Education.
Angoff, W. H. (1982). Summary, derivation of equating methods used at ETS. In P. W. Holland & D. B. Rubbin (Eds.), Test Equating. New York: Academic Press.
Baker J. G., Rounds J. B. & Zevon M. A. (2000). A Comparison of Graded Response and Rasch Partial Credit Models with Subjective Well-Being. Journal of Educational and Behavioral Statistics, 25(3), 253-270.
Baker, Frank B. (1992). Item Response Theory: Parameter Estimation Techniques. New York :M. Dekker.
Bennett R. E., Morley M. & Quardt D. (2000). Three Response Types for Broadening the Conception of Mathematical Problem Solving in Computerized Tests. Applied Psychological Measurement, 24(4), 294-309.
Bennett R. E., Rock D. A. & Wang M. (1991). Equivalence of Free-Response and Multiple-Choice Items. Journal of Educational Measurement, 28(1), 77-92.
Bielinski J. & Davison M. L. (2001). A Sex Difference by Item Difficulty Interaction in Multiple-Choice Mathematics Items Administered to National Probability Samples. Journal of Educational Measurement, 38(1), 51-77.
Bock R. D. & Mislevy R. J. (1982). Adaptive EAP estimation of ability in a Microcomputer environment. Applied Psychological Measurement, 6(4), 431-444.
Bock R. D., Thissen D. & Zimowski M. F. (1997). IRT estimation of Domain Scores. Journal of Educational Measurement, 34(3), 197-211.
Boekkooi-Timminga, E. (1991). A method for designing Rasch model-based item banks. Paper presented at the annual meeting of the Psychomertic Society, Princeton, NJ.(ED 329583).
Bolt D. M. (1999). Evaluating the Effects of Multidimensionality on IRT True-Score Equating. Applied Measurement in Education, 12(4), 383-407.
Budescu D. V., Cohen Y. & Ben-Simin A.(1997). A Revised Modified Parallel Analysis for the Construction of Unidimensional item Pools. Applied Psychological Measurement, 21(3), 233-252.
Camilli G. & Penfield D. A. (1997). Variance estimation for differential test functioning based on mantel-haenszel statistics. Journal of Educational Measurement, 34(2), 123-139.
Cheng P E. & Liou M. (2000). Estimation of Trait Level in Computerized Adaptive Testing. Applied Psychological Measurement, 24(3), 257-265.
Cook, L. L. & Eignor, D. R. (1991). NCME instrucational module: IRT equating methods. Educational Measurement: Issues and Practice, 10(3), 37-45.
Cook, L. L. & Eignor, D. R.(1981). Score equating and item response theory:Some practical considerations. Paper presented at the annual meeting of the American Educational Research Association and the National Conference on Measurement in Education, Los Angeles.(ED 208023).
Cook, L. L. & Eignor, D. R.(1983). An Investigation of the feasibility of applying item response theory to equate achievement tests. Paper presented at the annual meeting of the American Educational Research Association, Montreal.(ED235198).
Deayala R. J. & Sava-Bolesta M. (1999). Item Parameter Recovery for the Nominal Response Model. Applied Psychological Measurement, 23(1), 3-19.
Dechamplain A. F. (1996). The Effect of Multidimensionality on IRT True-Score Equating for Subgroups of Examinees. Journal of Educational Measurement, 33(2), 181-201.
Dorans, N. J. (1990). Equating methods and sampling designs. Applied Measurement In Education, 3(1), 3-17.
Flaugher , R.(2000). Item Pools. In H. Wainer, Computerized adaptive testing: A primter(pp.37-59). Hillsdale, NJ:Lawrence Erlbaum Associates.
Green, D. R. & Others (1988). Experience in the application of item response theory in test construction, paper presented at the Annual Meeting of the National Council on Measurement in Education, New Orleans, LA.(ED 300449).
Haebara, T. (1980). Equating logistic ability scale by weighted least squares method. Japanese Psychological Research, 22, 144-149.(ED 193300)
Hambleton, R. K. & Cook, L. L. (1977). Latent trait models and their use in the analysis of educational test data. Journal of Educational Measurement, 14(2), 75-96.
Hamblenton, R. K. & Swaminathan, H. (1985). Item response theory: principles and applications. Boston: Kluwer Nijhoff Publishing.
Hambleton, R. K., Swaminathan, H., & Rogers, H. J. (1991). Fundamentals of item response theory. CA: SAGE.
Hambleton, R. K., Zaal, J. N., Pieters, Jo. P. M.(1991). Computerized adaptive testing: theory, applications, and standards. In editors Hambleton, R. K.,& Zaal, J. N.(1991). Advances in educational and psychological testing:theory and applications. Boston: Kluwer Academic Publishers, 341-366.
Han. T., Kolen M. & Pohlmann J. (1997). A Comparison Among IRT True-and Observed-Score Equatings and Traditional Equipercentile Equating. Applied Measurement in Education, 10(2), 105-121.
Hsu, T.C. & Sadock, S.F.(1985).Computer-assisted test construction: A state of art. ERIC on tests, measurement, and Evaluation. Princeton. NJ: Educational Testing Serverice.(ED 272515).
Huynh H. & Ferrara S. (1994). A Comparison of Equal Percentile and Partial Credit Equatings for Performance-Based Assessments Composed of Free-Response Items. Journal of Educational Measurement, 31(2), 125-141.
IMPAC (1995). IMPACT-II The Teachers Networks.[ON-LINE].Available: http://www.teachnet.org/.
Kirch, J.(2001). Microsoft Windows NT Server 4.0 versus UNIX. [On-Line].Available:http://www.lot-germany.com/magazin/unix-nt.htm.
Klein, L. W. & Jarjoura, D. (1985). The importance of content representation for common-item equating with nonrandom groups. Journal of Educational Measurement, 22, 197-206.
Kolen, M. J. & Harris D. J. (1990). Comparison of Item Preequating and Random Groups Equating Using IRT and Equipercentile Methods. Journal of Educational Measurement, 27(1), 27-39.
Kolen, M. J.(1981). Comparison of traditional and item response theory methods for equating tests. Journal of Educational Measurement, 18, 1-11.
Kolen, Michael J. & Brennan, Robert L. (1995):Test Equating: Methods and Practices. Springer:New York。
Linn, R. L. Rock, D. A., & Cleary, T. A. (1972). Sequential testing for dichotomous decision. Educational Psychological Measurement, 32, 85-96.(EJ 055886).
Lord, F. M. (1980). Applications of item response theory to practical testing problems. Hillsdale, NJ: Erlbaum.
Lord, F. M., & Novick, M. R. (1968). Statistical theories of mental test scores. New York: Addison Wesley.
Loyd B. H. & Gressard C. (1984). Reliability and factorial validity of computer attitude scales. Educational and Psychological Measurement, 44, 501-505.
Loyd B. H. & Loyd D. E. (1985). The reliability and validity of an instrument for the assessment of computer attitudes. Educational and Psychological Measurement, 45, 903-908.
Luo G. (2000). A Joint Maximum Likelihood Estimation Procedure for the Hyperbolic Cosine Model for Single-Stimulus Responses. Applied Psychological Measurement, 24(1), 33-49.
Mazzeo, J., & Harvey, A. L. (1988). The equivalance of scores from automated and conventional education and psychological tests. New York: College Entrance Examination Board.
Mark D. Reckase(1997). The Next Generation of Computerized Tests: Implications for Testing of Advances in Multimedia, Intelligent Tutoring Systems, and Language Processing, American College Testing Program. 教育測驗新近發展趨勢學術研討會論文集, 13.
McDonald R. P. (2000). A Basis for Multidimensional Item Response Theory. Applied Psychological Measurement, 24(2), 99-114.
Mckinley, R. L. & Reckase, M. D.(1981). A comparison of procedures for constructing large item pools( Research Report 81-3). Columbia MO:University of Missouri, Department of Educational Psychology.(ED207998).
Meijer R. R. & Nering M. L. (1999). Computerized Adaptive Testing: Overview and Introduction. Applied Psychological Measurement, 23(3), 187-194.
Millman, J. & Arter J. A. (1984). Issue in banking. Journal of Educational Measurement, 21(4), 315-330.
Oshima T. C. & Raju N. S. & Flowers C. P. (1997). Development and Demonstration of Multidimensional IRT-Based internal measures of differential functioning of items and tests. Journal of Educational Measurement, 34(3), 253-272.
Parshall C. G., Houghton P. Du Bose, & Kromrey J.D. (1995). Equating Error and Statistical Bias in Small Sample Linear Equating. Journal of Educational Measurement, 32(1), 37-54.
Reckase, M. D.(1981). Tailored testing, measurement problems and latent trait theory. Paper presented at the annual meeting of the National Council for Measurement in Educatio, Los Angeles.(ED 207987).
Sands, William A., Waters, Brian K. & McBride James R.(1997). Computerized Adaptive Testing: From Inquiry to Operation. Washington, DC :American Psychological Association.
Shelly Gray B. Cashman Thomas J. & Rosenblatt Harry J. (2001).System Analysis and Design.Thomson Learning, Inc.
Sijtsma K. & Hemker B.T. (2000). A Taxonomy of IRT Models for Ordering Persons and Items Using Simple Sum Scores. Journal of Educational and Behavioral Statistics, 25(4), 391-415.
Skaggs & Lissitz (1982). Test equating: relevant issues and review of recent research. Paper presented at the Annual Meeting of the American Educational Research Association, Los Angeles.(ED 241540).
Slinde, J. A.,& Linn, R. L.(1979). A note on vertical equating via the Raschmodel for groups of quite different ability and test of quite different difficulty. Journal of Educational Measurement, 16, 159-165.
Snetzler S. & Qualls A. L. (2000). Examination of differential item functioning on a standardized achievement battery with limited English proficient students. Educational and Psychological Measurement, 60(4), 564-577.
Stocking, M. L. & Lord, F. M. (1983). Developing a common metric in item response theory. Applied Psychological Measurement, 7(2), 201-211.
Stocking, M. L. & Swanson. L. (1998). Optimal design of item banks for computerized adaptive test. Applied Psychological Measurement, 22,271-280.
Stocking, M. L. (1994). Three practical issue for modern adaptive testing item pools. (Research Report RR-94-5). Princeton, NJ: Educational Testing Service.(ED 385551).
Stone C. A. & Hansen M. A. (2000). The effect of errors in estimating ability on goodness-of-fit tests for IRT models. Educational and Psychological Measurement, 60(6), 974-991.
Swanson,L. & Stocking, M. L. (1993). A model and heuristic for solving very large item selection problems, Applied Psychological Measurement, 17(2), 151-166.
Tsai T. H., Hanson B. A., Kolen M. J. & Forsyth R. A. (2001). A Comparison of Bootstrap Standard Errors of IRT Equating Methods for the Common-Item Nonequivalent Groups Design. Applied Measurement in Education, 14(1), 17-30.
Uebersax J. S. (1999). Probit Latent Class Analysis With Dichotomous or Ordered Category Measures: Conditional Independence/Dependence Models. Applied Psychological Measurement, 23(4), 283-297.
Vale, C. D. (1986). Linking item parameters onto a common scale. Applied Psychological Measurement, 10(4), 333-344.
Vale, C. D., & Weiss, D. J., (1975). A study of computer-administered stradaptive ability testing. Research Report 75-4. Minneapolis, Minnesota: Department of Psychology, Psychometric Methods Program, University of Minnesota.(ED 118602).
Vale, C. D., Maurelli, V. A., Gialluca, K. A., Weiss, D. J. & Ree, M. J.(1981). Methods of linking item parameter. Final Report. Assessment Systems Corp., St. Paul, Minn.(ED 210314).
Van der Linden W. J. & Glas, C. A. W.(2000a). Computerized adaptive testing : theory and practice. Dordrecht ;Boston :Kluwer Academic.
Van der Linden W. J. & Glas C. A. W. (2000b). Capitalization on Item Calibration Error in Adaptive Testing. Applied Measurement in Education, 13(1), 35-53.
Van der Linden, W. J.& Editor G.(1998). Optimal Assembly of Psychological and Educational Tests. Applied Psychological Measurement, 22(3), 195-211.
Van der Linden, W. J., Veldkamp, B. P., & Reese, L. M. (2000) . An integer programming approach to item pool design. Applied Psychological Measurement, 24.
Wainer, Howard & Dorans, Neil J.(2000). Computerized adaptive testing :a primer. Mahwah, N.J. :Lawrence Erlbaum Associates,2nd ed.
Wang T. & Kolen M. J. (2001). Evaluating Comparability in Computerized Adaptive Testing: Issues, Criteria and an Example. Journal of Educational Measurement, 38(1), 19-49.
Weiss D. J. & Kingsbury G. G. (1984). Application of computerized adaptive testing to educational problems. Journal of Educational Measurement, 21(4), 361-375.
Weiss D. J. (1982). Improving Measurement quality and efficiency with adaptive testing. Applied Psychological Measurement, 6(4), 473-492.
Weiss, D. J. & Betz, N. E. (1973). Ability Measurement: Conventional or adaptive? Research Report 73-1. Minneapolis: Department of Psychology, Psychometric Methods Program, University of Minnesota.(ED 077933).
Whitely, S. E. & Dawis, R. V. (1974). The nature of objectivity with the Rasch model. Journal of Educational Measurement, 11(3),163-178.(EJ 105045).
Wood, R. (1973). Response-Contingent Test. Review of Educational Research, 43, 529-544.
Zimowski, M. F., Muraki, E. , Mislevy, R. J., & Bock, R. D. (1996). BILOG-MG: Multiple-Group IRT Analysis and Test Maintence for Binary Items. Chicage: Socientistic Sofrware International INC.
QRCODE
 
 
 
 
 
                                                                                                                                                                                                                                                                                                                                                                                                               
第一頁 上一頁 下一頁 最後一頁 top
1. 陳年興、曾建翰(民86):全球資訊網上WebTitle之製作。遠距教育,第2卷,12-21。
2. 陳麗如(民86):從CAI中的題目到Internet上的題庫。測驗與輔導,144期,2990-2993。
3. 夏漢民(民85):中華民國國家資訊基礎建設之遠景與藍圖。經濟情勢暨評論,1卷4期,1-13。
4. 孫光天、陳新豐(民88):利用人工智慧技術於選題策略之研究。測驗年刊,46輯,1期,75-88。
5. 洪碧霞、吳鐵雄(民78):簡介電腦化適性測驗的發展及其實施要素並兼論我國大專聯考電腦適性化的可行性。測驗年刊,36輯,75-94。
6. 余民寧(民82b):試題反應理論的介紹(10)--測驗分數的等化 (下)。研習資訊,10卷3期,11-16。
7. 林奇賢(民86):全球資訊網輔助學習系統網際網路與國小教育。資訊與教育,第58期,2-11。
8. 吳裕益(民80b):電腦化適性測驗與傳統測驗之比較。教師天地,54期,49-53。
9. 吳百能(民83):電腦網路在輔導工作上的應用。諮商與輔導,105,43-45。
10. 余民寧(民82d):試題反應理論的介紹(12)─電腦化適性測驗。研習資訊,10卷5期,5-9。
11. 余民寧(民82c):試題反應理論的介紹(11)-題庫的建立。研習資訊,10卷4期,9-13。
12. 何榮桂(民80b):電腦化測驗概述。現代教育,18期,121-129。
13. 余民寧(民82a):試題反應理論的介紹(9)--測驗分數的等化 (上)。研習資訊,10卷2期,6-11。
14. 余民寧(民80):試題反應理論的介紹(1)--測驗理論的發展趨勢。研習資訊,8卷6期,13-18。
15. 何榮桂(民80c):題庫中項目參數分配形態對電腦化適性測驗選題的影響。測驗年刊,38輯,71-96。
 
系統版面圖檔 系統版面圖檔