“The ideal testing situation would be to give every examinee a test that is tailored or adapted to the examinee’s ability level” Hambleton, Swaminathan, & Roger (1991: 145). In CAT applications, students do not take the same test. Despite item numbers and properties (such as item difficulties or item discriminations) of items are different for the students; the precise of measures improves in positioning students on an ability or success continuum in CAT applications. In IRT which is used in CAT applications, item information is calculated according to the level of each student's ability or knowledge, and then the information provided by a test for an ability level is the sum of the item information functions. When enough test information is obtained to reliably predict a student's ability the test is terminated by computer. Questions answered by a student depend on the student's ability or learning level. In item response theory, there are some models to estimate a student’s ability level, such as one-parameter logistic model, two-parameter logistic model, and three-parameter logistic model. As Hambleton, Swaminathan, & Roger (1991) reported, (Green, Bock, Hunphreys, Linn & Reckase, 1984; Lord, 1980; Weiss, 1983) pointed out that the IRT most appropriate in computerized adaptive testing is the three parameter logistic model. According to Hambleton, Swaminathan, & Roger (1991) the main reason for choosing the three-parameter logistic model is that it generally fits multiple-choice item data better than the one or two parameter models. According to Lord (1980) to use CAT, computer should accomplish below items:
Predict from the examinee’s previous responses how the examinee would respond to various test items not yet administered.
Make effective use of this knowledge to select the test item to be administered next.
Assign at the end of testing a numerical score that represents the ability of the examinee tested” (Hambleton, Swaminathan, & Roger, 1991:147).
Computerized adaptive testing research has been focused in six areas:
Choice of IRT model,
Item bank,
Starting point for testing,
Selection of subsequent test items,
Scoring/ability estimation and
Choice of method for deciding when to terminate the test administration” (Hambleton, Swaminathan, & Roger, 1991: 148).
There are some models which consider both difficulties of course materials and learner ability to assess students’ achievement; and propose a personalized e-learning system based on item response theory, which estimates the abilities of online learners and recommends appropriate course materials to learners, interested readers should read Chen, Lee, & Chen, (2005).
“The ideal testing situation would be to give every examinee a test that is tailored or adapted to the examinee’s ability level” Hambleton, Swaminathan, & Roger (1991: 145). In CAT applications, students do not take the same test. Despite item numbers and properties (such as item difficulties or item discriminations) of items are different for the students; the precise of measures improves in positioning students on an ability or success continuum in CAT applications. In IRT which is used in CAT applications, item information is calculated according to the level of each student's ability or knowledge, and then the information provided by a test for an ability level is the sum of the item information functions. When enough test information is obtained to reliably predict a student's ability the test is terminated by computer. Questions answered by a student depend on the student's ability or learning level. In item response theory, there are some models to estimate a student’s ability level, such as one-parameter logistic model, two-parameter logistic model, and three-parameter logistic model. As Hambleton, Swaminathan, & Roger (1991) reported, (Green, Bock, Hunphreys, Linn & Reckase, 1984; Lord, 1980; Weiss, 1983) pointed out that the IRT most appropriate in computerized adaptive testing is the three parameter logistic model. According to Hambleton, Swaminathan, & Roger (1991) the main reason for choosing the three-parameter logistic model is that it generally fits multiple-choice item data better than the one or two parameter models. According to Lord (1980) to use CAT, computer should accomplish below items: Predict from the examinee’s previous responses how the examinee would respond to various test items not yet administered. Make effective use of this knowledge to select the test item to be administered next. Assign at the end of testing a numerical score that represents the ability of the examinee tested” (Hambleton, Swaminathan, & Roger, 1991:147).Computerized adaptive testing research has been focused in six areas: Choice of IRT model, Item bank, Starting point for testing, Selection of subsequent test items, Scoring/ability estimation and Choice of method for deciding when to terminate the test administration” (Hambleton, Swaminathan, & Roger, 1991: 148).There are some models which consider both difficulties of course materials and learner ability to assess students’ achievement; and propose a personalized e-learning system based on item response theory, which estimates the abilities of online learners and recommends appropriate course materials to learners, interested readers should read Chen, Lee, & Chen, (2005).
การแปล กรุณารอสักครู่..
"สถานการณ์การทดสอบที่เหมาะจะเป็นที่จะให้นักเรียนทุกการทดสอบที่เหมาะหรือปรับให้เข้ากับระดับความสามารถของผู้เข้าสอบ" Hambleton, Swaminathan และโรเจอร์ (1991: 145) ในการใช้งาน CAT นักเรียนไม่ได้ใช้การทดสอบเดียวกัน แม้จะมีจำนวนรายการและคุณสมบัติ (เช่นความยากลำบากในรายการหรือแบ่งแยกรายการ) ของรายการที่แตกต่างกันสำหรับนักเรียน; แม่นยำของมาตรการช่วยเพิ่มนักเรียนในการวางตำแหน่งบนต่อเนื่องหรือความสามารถในการประสบความสำเร็จในการใช้งานกสท ใน IRT ซึ่งจะใช้ในการใช้งาน CAT ข้อมูลรายการคำนวณตามระดับความสามารถของนักเรียนแต่ละคนหรือความรู้แล้วข้อมูลที่ให้ไว้โดยการทดสอบระดับความสามารถคือผลรวมของฟังก์ชั่นข้อมูลรายการ เมื่อได้รับข้อมูลการทดสอบมากพอที่จะได้รับความน่าเชื่อถือในการคาดการณ์ความสามารถของนักเรียนการทดสอบจะถูกยกเลิกโดยคอมพิวเตอร์ คำถามที่ตอบโดยนักเรียนขึ้นอยู่กับความสามารถของนักเรียนระดับการเรียนรู้ ในทฤษฎีการตอบสนองรายการมีบางรุ่นที่จะประเมินระดับความสามารถของนักเรียนเช่นเดียวพารามิเตอร์โมเดลโลจิสติกสองพารามิเตอร์โมเดลโลจิสติกและสามพารามิเตอร์โมเดลโลจิสติก ในฐานะที่เป็น Hambleton, Swaminathan และโรเจอร์ (1991) รายงาน (สีเขียว, เบียร์ Hunphreys, ลินน์และ Reckase 1984; ลอร์ด 1980; ไวสส์, 1983) ชี้ให้เห็นว่า IRT ที่เหมาะสมที่สุดในการทดสอบการปรับตัวคอมพิวเตอร์เป็นสามพารามิเตอร์โมเดลโลจิสติก . ตามที่ Hambleton, Swaminathan และโรเจอร์ (1991) เหตุผลหลักสำหรับการเลือกสามพารามิเตอร์โมเดลโลจิสติกก็คือว่ามันเหมาะกับข้อมูลทั่วไปของรายการหลายทางเลือกที่ดีกว่าหนึ่งหรือสองรุ่นพารามิเตอร์ ตามที่พระเจ้า (1980) เพื่อใช้ CAT คอมพิวเตอร์ควรบรรลุรายการด้านล่าง:
ทำนายจากการตอบสนองก่อนสอบวิธีการสอบจะตอบสนองต่อรายการทดสอบต่างๆยังไม่ได้บริหารงาน.
ทำให้การใช้งานที่มีประสิทธิภาพของความรู้นี้เพื่อเลือกรายการทดสอบที่จะ การบริหารงานต่อไป.
กำหนดในตอนท้ายของการทดสอบคะแนนเป็นตัวเลขที่แสดงถึงความสามารถในการสอบการทดสอบ "(Hambleton, Swaminathan และโรเจอร์, 1991: 147).
คอมพิวเตอร์การวิจัยการทดสอบการปรับตัวได้มุ่งเน้นในพื้นที่ที่หก:
เลือก IRT รุ่นธนาคารรายการจุดเริ่มต้นสำหรับการทดสอบการเลือกรายการทดสอบต่อมาการประมาณค่าเกณฑ์การให้คะแนน/ ความสามารถและความการเลือกใช้วิธีการในการตัดสินใจเมื่อยุติการบริหารการทดสอบ "(Hambleton, Swaminathan และโรเจอร์, 1991: 148) . มีบางรุ่นที่พิจารณาทั้งความยากลำบากของวัสดุหลักสูตรเรียนและความสามารถในการประเมินผลสัมฤทธิ์ทางการเรียนของนักเรียนคือ และนำเสนอระบบการเรียนรู้อิเล็กทรอนิกส์ส่วนบุคคลบนพื้นฐานของทฤษฎีการตอบสนองข้อสอบซึ่งประเมินความสามารถของผู้เรียนออนไลน์และแนะนำวัสดุหลักสูตรที่เหมาะสมกับผู้เรียนผู้อ่านที่สนใจควรอ่านเฉินลีและเฉิน (2005)
การแปล กรุณารอสักครู่..
" สถานการณ์การทดสอบที่เหมาะจะให้ทุกผู้สอบแบบทดสอบที่ออกแบบหรือปรับให้เข้ากับระดับความสามารถของผู้สอบ " swaminathan & Hambleton , โรเจอร์ ( 2534 : 145 ) ในงานแมว นักเรียนไม่ใช้การทดสอบเดียวกัน แม้จะมีตัวเลขรายการและคุณสมบัติ ( เช่น ระดับความยากง่ายของข้อสอบ หรือข้อสอบ discriminations ) ของรายการที่แตกต่างกันสำหรับนักเรียนชัดเจนของมาตรการปรับปรุงนักเรียนตำแหน่งความสามารถหรือความสำเร็จต่อเนื่องในงานแมว ในวิธีที่ใช้ในงานแมว , ข้อมูลรายการคำนวณตามระดับของนักเรียนแต่ละคน ความสามารถ หรือความรู้ และข้อมูลที่ให้ไว้โดยการทดสอบความสามารถในระดับคือผลรวมของรายการข้อมูลการทำงานเมื่อได้ข้อมูลมากพอที่จะเชื่อถือได้คาดการณ์ความสามารถของนักเรียนในการสอบถูกยกเลิกโดยคอมพิวเตอร์ คำถามตอบโดยนักเรียน ขึ้นอยู่กับ ความสามารถของนักเรียนในการเรียนรู้หรือระดับ ในทฤษฎีการตอบสนองข้อสอบ มีบางรุ่นในการประเมินระดับความสามารถของนักเรียน เช่น หนึ่งพารามิเตอร์โมเดลโลจิสติก 2 พารามิเตอร์โมเดลโลจิสติก 3 พารามิเตอร์ และโมเดลโลจิสติก .เป็น swaminathan & Hambleton , โรเจอร์ ( 1991 ) รายงาน ( สีเขียว , บ็อค hunphreys , Linn , & reckase , 1984 ; พระเจ้า , 1980 ; Weiss , 1983 ) ชี้ให้เห็นว่าวิธีที่เหมาะสมที่สุดในการทดสอบแบบปรับเหมาะด้วยคอมพิวเตอร์เป็นสามพารามิเตอร์โมเดลโลจิสติก . ตาม swaminathan Hambleton ,&โรเจอร์ ( 1991 ) เหตุผลหลักสำหรับการเลือกโมเดลโลจิสติก 3 พารามิเตอร์ คือ ว่า โดยทั่วไปเหมาะกับข้อมูลจำนวนรายการมากกว่าหนึ่งหรือสองพารามิเตอร์โมเดล ตามท่าน ( 1980 ) ที่จะใช้แมว คอมพิวเตอร์ควรบรรลุด้านล่างรายการ :
ทำนายจากการบ่งว่าก่อนสอบจะตอบข้อสอบต่าง ๆยังไม่สมบูรณ์ .
ทำให้การใช้งานที่มีประสิทธิภาพของความรู้นี้เพื่อเลือกข้อสอบที่จะทดสอบต่อไป
มอบหมายเมื่อสิ้นสุดการทดสอบตัวเลขคะแนนที่แสดงถึงความสามารถของผู้สอบทดสอบ " ( swaminathan & Hambleton , โรเจอร์ 1991:147 ) .
การวิจัยแบบทดสอบคอมพิวเตอร์ได้รับการมุ่งเน้นในพื้นที่ 6
ทางเลือกของ นางแบบ IRT
, ธนาคารรายการ
จุดเริ่มต้นการทดสอบ
การคัดเลือกข้อสอบตามมา
คะแนน / ความสามารถในการประมาณค่าและ
ทางเลือกของวิธีการการตัดสินใจเมื่อสิ้นสุดการทดสอบการบริหาร " ( swaminathan & Hambleton , โรเจอร์ , 1991 : 148 ) .
มีบางรุ่นที่พิจารณาปัญหาของวัสดุหลักสูตรและผู้เรียนสามารถศึกษาผลสัมฤทธิ์ทางการเรียนของนักเรียน ' ;และเสนอแบบระบบการเรียนรู้ตามทฤษฎีการตอบสนองข้อสอบ ซึ่งประเมินความสามารถของผู้เรียนออนไลน์ และแนะนำหลักสูตรที่เหมาะสมกับผู้เรียน ผู้สนใจควรอ่าน เฉิน ลี &เฉิน ( 2005 )
การแปล กรุณารอสักครู่..