ECD and Learning Progressions
As just noted, learning progressions serve multiple purposes
ranging from informing curriculum to the design of the assessment.
However, incorporating learning progressions into assessments is a
far more complex process than traditional test development.
Assessment designers have traditionally relied on content standards
that serve to delineate the scope and depth of the content coverage
of an assessment (Schmeiser & Welch, 2006). The outcome of this
process is typically represented as a table indicating the content
areas covered by the test, their weight, and a classification of the
content coverage along a relevant dimension such as “cognitive
level”, based, for example, on Bloom’s taxonomy. This table, in turn,
can be used to create a test blueprint, a more detailed version of the
table, from which test forms could be produced.
In an educational context, interpreting the scores from a test
developed in that fashion has typically involved an ordering of test
takers along some continuum (i.e., a norm-referenced interpretation),
or it has required a process known as standard setting (Cizek &
Bunch, 2007; Hambleton & Pitoniak, 2006), whereby regions of the
score scale are referenced to descriptions of what students know and
can do. The boundaries between levels and the levels themselves are
also known as “achievement levels” in the standard setting literature,
although they do not correspond necessarily or typically to levels in
a learning progression, which are intended to be a more concrete and
actionable approach to reporting assessment results. In the United
States, the National Assessment of Educational Progress (NAEP) and
many state tests have used this kind of standard setting to make
distinctions such as Basic, Proficient, and Advanced, which however,
lack the developmental implications of learning progressions.
Specifically, since the standard setting process for each grade is
typically carried out independently by grade, the potential for
incomparable standards (Lissitz & Wei, 2008) is substantial, in that
the rigor in the definition of the different levels is not necessarily
consistent across grades. Several approaches to address the problem
have been suggested (Ferrara et al., 2007; Lewis & Haug, 2005).
Among them, is incorporating learning progressions in the design of
an assessment, such that the vertical articulation takes place
explicitly, naturally, and by design, rather than retrospectively (Bejar,
Braun, & Tannenbaum, 2007; Kannan, in press). To achieve that goal,
the assessment needs to be developed with learning progressions as
an input to the assessment design process following a methodology
such as evidence-centered design.
Zieky (this issue) outlined the basic elements of evidencecentered
design as consisting of several layers (Mislevy & Haertel,
2006). The first layer of ECD, domain analysis, reviews relevant
research on student learning, including a high level view of the sort
of situations that would serve to elicit evidence about students’
learning and specifically the level at which they performed. The
levels in the learning progression provide milestones against which
student progress can be evaluated. Unlike more traditional
achievement levels such a Basic, Proficient and Advanced, the levels
in a learning progression are associated with well articulated
performances, as markers, and for that reason, they can be used to
guide the development of an assessment that reflects the progression.
The next ECD layer is domain modeling where the assessment
argument is formulated. That is, the intended inference or claim, for
example, that the student’s performance is characteristic of students
at a given level of a learning progression, is justified by enumerating
the warrants for score interpretation or use and corresponding
supporting information. Another outcome of domain modeling is
one or more design patterns as a way to begin specifying tangible
design components. For an assessment that is informed by a learning
progression, the design pattern would include distinctions between
levels in the learning progression (e.g., Mislevy et al., 2014). In
addition, the design pattern would include the type of performance
evidence that would be characteristic of students at different levels
of the learning progression. Finally, the outlines of situations that
could serve to elicit such evidence would complete the design
pattern.
The Conceptual Assessment Framework (CAF), the third layer,
recasts the design up to this point into a set of models represented
as a set of variables. The student model describes the student,
typically as the “ability” parameter(s) in a suitable psychometric
model. Task models include the features of task and guidelines for
task development, for example task templates (Riconscente, Mislevy,
& Hamel, 2005) to produce actual tasks. The evidence model
describes the scoring of the student performance and consists of two
parts, scoring rules, and the psychometric model to update the
student model based on student performance.
Increasingly, assessments are being delivered on computer and
therefore ECD can take advantage of technological supports (Mislevy,
Bejar, Bennett, Haertel, & Winters, 2010) for their delivery and the
processing of the interaction of the student with the assessment,
which would include the scoring of such interactions. Recasting of
evidence rules as an automated scoring process (Williamson,
Mislevy, & Bejar, 2006) is natural in that context, for example. For
assessments informed by a learning progression, the distinctions
among the levels of the learning progression can serve as the scoring
rubric for a task. That is, responses can be classified as being
characteristic of the student at a given level of the progression.
Ordered multiple choice (OMC) (Briggs & Alonzo, 2012) items are an
example of that idea for the multiple choice case. A similar idea can
be implemented in the open-ended case by designing the automated
scoring process to classify responses with respect to a learning
progression.
The requirements for a suitable psychometric model, the second
component of the evidence model, are also formulated as part of the
CAF. As noted earlier, learning progressions are not constrained by
the convenient assumptions, such as unidimensionality, made by
off-the-shelf psychometric models, and will require far more flexible
approaches (Wilson, 2012). Since learning progressions are ordered,
polytomous item response models (van Rijn et al., this issue) are
necessary. Modeling need not be limited to item response models,
and Bayesian networks (West et al., 2012) could also be suitable for
fitting to data from such an assessment.
As noted by Zieky the last two layers of the design process are
implementation and delivery. Implementation is concerned with the
authoring of tasks or algorithms for the production of tasks and
actual scoring, fitting response models, and similar implementation
details. Delivery is concerned with the orchestration of test
administration, including the delivery of the items. It interacts with
the student model, especially in the case of adaptive testing, for
choosing the next item. Accommodating students with special needs
is also handled at this stage provided the design process took that
requirement into account, which is entirely possible within ECD
(Hansen & Mislevy, 2008).
The pay off of gearing domain analysis to formulate a learning
progression is illustrated in the context of the CBAL project, where
the design led to the idea of a scenario-based assessment (Sheehan
& O’Reilly, 2012). Deane and Song (this issue) describe the process of
developing a learning progression for argumentation skills. They
noted that in light of the complexity of the argumentation construct,
ECD was an ideal approach to design the assessment. The domain
analysis they conducted suggested that argumentation can be seen
as involving five stages: understanding the stakes, exploring the
subject, considering positions, creating and evaluating arguments,
and organizing and presenting arguments. The fine granularity of the
analysis is appropriate for a school context where the goal is not
simply to assess learning but also to promote and scaffold the
development of skills through actionable feedback on student
performance. By contrast, an admission test, such as the Graduate
ECD and Learning Progressions
As just noted, learning progressions serve multiple purposes
ranging from informing curriculum to the design of the assessment.
However, incorporating learning progressions into assessments is a
far more complex process than traditional test development.
Assessment designers have traditionally relied on content standards
that serve to delineate the scope and depth of the content coverage
of an assessment (Schmeiser & Welch, 2006). The outcome of this
process is typically represented as a table indicating the content
areas covered by the test, their weight, and a classification of the
content coverage along a relevant dimension such as “cognitive
level”, based, for example, on Bloom’s taxonomy. This table, in turn,
can be used to create a test blueprint, a more detailed version of the
table, from which test forms could be produced.
In an educational context, interpreting the scores from a test
developed in that fashion has typically involved an ordering of test
takers along some continuum (i.e., a norm-referenced interpretation),
or it has required a process known as standard setting (Cizek &
Bunch, 2007; Hambleton & Pitoniak, 2006), whereby regions of the
score scale are referenced to descriptions of what students know and
can do. The boundaries between levels and the levels themselves are
also known as “achievement levels” in the standard setting literature,
although they do not correspond necessarily or typically to levels in
a learning progression, which are intended to be a more concrete and
actionable approach to reporting assessment results. In the United
States, the National Assessment of Educational Progress (NAEP) and
many state tests have used this kind of standard setting to make
distinctions such as Basic, Proficient, and Advanced, which however,
lack the developmental implications of learning progressions.
Specifically, since the standard setting process for each grade is
typically carried out independently by grade, the potential for
incomparable standards (Lissitz & Wei, 2008) is substantial, in that
the rigor in the definition of the different levels is not necessarily
consistent across grades. Several approaches to address the problem
have been suggested (Ferrara et al., 2007; Lewis & Haug, 2005).
Among them, is incorporating learning progressions in the design of
an assessment, such that the vertical articulation takes place
explicitly, naturally, and by design, rather than retrospectively (Bejar,
Braun, & Tannenbaum, 2007; Kannan, in press). To achieve that goal,
the assessment needs to be developed with learning progressions as
an input to the assessment design process following a methodology
such as evidence-centered design.
Zieky (this issue) outlined the basic elements of evidencecentered
design as consisting of several layers (Mislevy & Haertel,
2006). The first layer of ECD, domain analysis, reviews relevant
research on student learning, including a high level view of the sort
of situations that would serve to elicit evidence about students’
learning and specifically the level at which they performed. The
levels in the learning progression provide milestones against which
student progress can be evaluated. Unlike more traditional
achievement levels such a Basic, Proficient and Advanced, the levels
in a learning progression are associated with well articulated
performances, as markers, and for that reason, they can be used to
guide the development of an assessment that reflects the progression.
The next ECD layer is domain modeling where the assessment
argument is formulated. That is, the intended inference or claim, for
example, that the student’s performance is characteristic of students
at a given level of a learning progression, is justified by enumerating
the warrants for score interpretation or use and corresponding
supporting information. Another outcome of domain modeling is
one or more design patterns as a way to begin specifying tangible
design components. For an assessment that is informed by a learning
progression, the design pattern would include distinctions between
levels in the learning progression (e.g., Mislevy et al., 2014). In
addition, the design pattern would include the type of performance
evidence that would be characteristic of students at different levels
of the learning progression. Finally, the outlines of situations that
could serve to elicit such evidence would complete the design
pattern.
The Conceptual Assessment Framework (CAF), the third layer,
recasts the design up to this point into a set of models represented
as a set of variables. The student model describes the student,
typically as the “ability” parameter(s) in a suitable psychometric
model. Task models include the features of task and guidelines for
task development, for example task templates (Riconscente, Mislevy,
& Hamel, 2005) to produce actual tasks. The evidence model
describes the scoring of the student performance and consists of two
parts, scoring rules, and the psychometric model to update the
student model based on student performance.
Increasingly, assessments are being delivered on computer and
therefore ECD can take advantage of technological supports (Mislevy,
Bejar, Bennett, Haertel, & Winters, 2010) for their delivery and the
processing of the interaction of the student with the assessment,
which would include the scoring of such interactions. Recasting of
evidence rules as an automated scoring process (Williamson,
Mislevy, & Bejar, 2006) is natural in that context, for example. For
assessments informed by a learning progression, the distinctions
among the levels of the learning progression can serve as the scoring
rubric for a task. That is, responses can be classified as being
characteristic of the student at a given level of the progression.
Ordered multiple choice (OMC) (Briggs & Alonzo, 2012) items are an
example of that idea for the multiple choice case. A similar idea can
be implemented in the open-ended case by designing the automated
scoring process to classify responses with respect to a learning
progression.
The requirements for a suitable psychometric model, the second
component of the evidence model, are also formulated as part of the
CAF. As noted earlier, learning progressions are not constrained by
the convenient assumptions, such as unidimensionality, made by
off-the-shelf psychometric models, and will require far more flexible
approaches (Wilson, 2012). Since learning progressions are ordered,
polytomous item response models (van Rijn et al., this issue) are
necessary. Modeling need not be limited to item response models,
and Bayesian networks (West et al., 2012) could also be suitable for
fitting to data from such an assessment.
As noted by Zieky the last two layers of the design process are
implementation and delivery. Implementation is concerned with the
authoring of tasks or algorithms for the production of tasks and
actual scoring, fitting response models, and similar implementation
details. Delivery is concerned with the orchestration of test
administration, including the delivery of the items. It interacts with
the student model, especially in the case of adaptive testing, for
choosing the next item. Accommodating students with special needs
is also handled at this stage provided the design process took that
requirement into account, which is entirely possible within ECD
(Hansen & Mislevy, 2008).
The pay off of gearing domain analysis to formulate a learning
progression is illustrated in the context of the CBAL project, where
the design led to the idea of a scenario-based assessment (Sheehan
& O’Reilly, 2012). Deane and Song (this issue) describe the process of
developing a learning progression for argumentation skills. They
noted that in light of the complexity of the argumentation construct,
ECD was an ideal approach to design the assessment. The domain
analysis they conducted suggested that argumentation can be seen
as involving five stages: understanding the stakes, exploring the
subject, considering positions, creating and evaluating arguments,
and organizing and presenting arguments. The fine granularity of the
analysis is appropriate for a school context where the goal is not
simply to assess learning but also to promote and scaffold the
development of skills through actionable feedback on student
performance. By contrast, an admission test, such as the Graduate
การแปล กรุณารอสักครู่..

บก. ปอศ. และการเรียนรู้ก้าวหน้า
เพิ่งสังเกต เรียนรู้ ก้าวหน้าบริการหลายวัตถุประสงค์
ตั้งแต่แจ้งหลักสูตรการออกแบบการประเมิน ผสมผสานการเรียนรู้
แต่คอร์ดในการประเมินเป็นไกลที่ซับซ้อนมากขึ้นกว่าการพัฒนากระบวนการ
ออกแบบการประเมินการทดสอบแบบดั้งเดิม มีประเพณีที่อาศัย
มาตรฐานเนื้อหาที่ใช้เพื่ออธิบายขอบเขตและความลึกของเนื้อหาครอบคลุม
การประเมิน ( schmeiser & Welch , 2006 ) ผลของกระบวนการนี้
โดยปกติจะแสดงเป็นตารางแสดงเนื้อหา
ครอบคลุมพื้นที่ โดยทดสอบน้ำหนักของพวกเขาและการจัดหมวดหมู่ของ
เนื้อหาครอบคลุมตามมิติที่เกี่ยวข้อง เช่น ระดับสติปัญญา
" ตาม ตัวอย่างเช่น บานของอนุกรมวิธาน โต๊ะนี้ในการเปิด ,
สามารถใช้สร้างแบบทดสอบพิมพ์เขียวรุ่นรายละเอียดเพิ่มเติมของ
โต๊ะ ซึ่งแบบทดสอบสามารถผลิต
ในบริบททางการศึกษา ตีความ คะแนนที่ได้จากการทดสอบ
พัฒนาในแฟชั่นที่ได้มักจะเกี่ยวข้องกับการสั่งทดสอบ
takers พร้อมบางส่วนต่อเนื่อง ( เช่น ปกติการตีความอ้างอิง ) ,
หรือมีใช้กระบวนการที่เรียกว่าการตั้งค่ามาตรฐาน ( ชิเซ็ก&
พวง , 2007 ; ( & pitoniak , 2006 ) โดยภูมิภาคของ
ระดับคะแนนแตกต่างกับคำอธิบายของสิ่งที่นักเรียนรู้และ
สามารถทำ เขตแดนระหว่างระดับ และระดับตัวเอง
เรียกว่า " ระดับความสำเร็จ " ในวรรณคดี การตั้งค่ามาตรฐาน
ถึงแม้ว่าพวกเขาไม่ตรงหรือโดยทั่วไปจะเป็นในระดับ
การเรียนรู้ ความก้าวหน้าซึ่งมีวัตถุประสงค์ที่จะเป็นรูปธรรมมากขึ้นและวิธีการที่ปลอดภัยเพื่อรายงานผลการประเมิน
. ในสหรัฐอเมริกา
ประเทศสหรัฐอเมริกา การประเมินความก้าวหน้าของการศึกษาแห่งชาติ ( naep ) และรัฐหลายได้ใช้
การทดสอบชนิดนี้ของการตั้งค่ามาตรฐานให้
ความแตกต่าง เช่น พื้นฐาน ความเชี่ยวชาญ และขั้นสูง ซึ่งอย่างไรก็ตาม ไม่มีความหมายของพัฒนาการการเรียนรู้
โดยเฉพาะ ก้าวหน้า .ตั้งแต่ขั้นตอนการกำหนดมาตรฐานสำหรับแต่ละระดับคือมักจะดำเนินการโดยอิสระ
เกรดที่มีมาตรฐานหาตัวจับยาก ( lissitz & Wei , 2008 ) คือ รูปธรรม ในที่
การแข็งตัวในนิยามของระดับที่แตกต่างกัน คือ ไม่จำเป็น
สอดคล้องกันระหว่างเกรด หลายวิธีที่จะแก้ไขปัญหา
ได้รับการแนะนำ ( Ferrara et al . , 2007 ; ลูอิส&
ฮอก , 2005 )ในหมู่พวกเขา จะก้าวหน้าในการเรียนรู้การออกแบบ
การประเมินดังกล่าวว่า เสียงที่เปล่งออกมาในแนวตั้งเกิดขึ้น
อย่างชัดเจน ตามธรรมชาติ และด้วยการออกแบบมากกว่าย้อนหลัง ( เบยาร์
, ซ่า , &แทนเนินเบาม์ , 2007 ; kannan ในกด ) เพื่อให้บรรลุเป้าหมายที่
การประเมินจะต้องมีการพัฒนาด้วยการเรียนรู้ก้าวหน้าเป็น
การป้อนข้อมูลเพื่อประเมินกระบวนการ การออกแบบตามวิธีการ เช่น ศูนย์กลางการออกแบบหลักฐาน
.
zieky ( ปัญหานี้ ) อธิบายองค์ประกอบพื้นฐานของการออกแบบเป็น evidencecentered
ประกอบด้วยหลายชั้น ( mislevy & haertel
, 2006 ) ครั้งแรกที่ชั้น ของ บก. ปอศ. การวิเคราะห์วิจารณ์งานวิจัย
ในการเรียนรู้ของนักเรียน ได้แก่ ระดับมุมมองของการจัดเรียง
สถานการณ์ที่จะใช้ในการเก็บหลักฐานเกี่ยวกับ
การเรียนรู้ของนักเรียน และโดยเฉพาะในระดับที่พวกเขาแสดง
ในระดับการเรียนรู้ ความก้าวหน้าให้กับเหตุการณ์ที่
นักเรียนสามารถประเมิน . ซึ่งแตกต่างจากผลสัมฤทธิ์ทางการเรียนแบบดั้งเดิมมากขึ้นเช่น
พื้นฐานความเชี่ยวชาญขั้นสูง และระดับความก้าวหน้าในการเรียนรู้
ดีก้องที่เกี่ยวข้องกับการแสดง , เป็นเครื่องหมาย , และสำหรับเหตุผลที่ พวกเขาสามารถใช้
คู่มือการพัฒนาการประเมินที่สะท้อนให้เห็นถึงความก้าวหน้า ชั้นถัดไปเป็น บก. ปอศ.
โดเมนแบบจำลองที่ประเมิน
อาร์กิวเมนต์จะถูกสร้างขึ้น นั่นคือเจตนาการอนุมานหรือการเรียกร้องสำหรับ
ตัวอย่าง ว่า การแสดงของนักเรียน คือ ลักษณะของนักเรียน
ที่ให้ระดับของการเรียนรู้ ความก้าวหน้าเป็นคนชอบธรรมโดย enumerating
ตามการตีความคะแนนหรือใช้และที่สอดคล้องกัน
สนับสนุนข้อมูล อีกหนึ่งผลของโดเมนแบบ
หนึ่งหรือมากกว่าหนึ่งรูปแบบการออกแบบเป็นวิธีการเริ่มต้นการระบุองค์ประกอบการออกแบบที่จับต้องได้
สำหรับการประเมินที่ถูกแจ้งโดยการเรียนรู้
ก้าวหน้า รูปแบบการออกแบบจะรวมถึงความแตกต่างระหว่าง
ระดับในความก้าวหน้าทางการ เช่นmislevy et al . , 2010 ) ใน
นอกจากนี้ รูปแบบการออกแบบจะรวมถึงชนิดของหลักฐานนั้นจะเป็นลักษณะของงาน
ของนักเรียนในระดับต่าง ๆความก้าวหน้าในการเรียนรู้ สุดท้าย สรุปสถานการณ์ว่า จะให้บริการเพื่อกระตุ้น
หลักฐานดังกล่าวจะเสร็จสมบูรณ์ในรูปแบบการออกแบบ
.
กรอบแนวคิดการประเมิน ( CAF ) , ชั้น 3
recasts การออกแบบถึงจุดนี้เป็นชุดของนางแบบ
เป็นชุดของตัวแปร รุ่นนักเรียนอธิบายนักเรียน
มักจะเป็น " ความสามารถ " พารามิเตอร์ที่เหมาะสม ( s ) ในทางจิตวิทยา
นางแบบ แบบงานรวมถึงคุณลักษณะของงานและแนวทางการพัฒนางาน สำหรับแม่แบบงานตัวอย่าง ( riconscente mislevy
, , &แฮเมิล , 2005 ) เพื่อผลิตงานจริง หลักฐานแบบ
อธิบายการให้คะแนนของนักเรียน และประกอบด้วยสอง
ส่วนกฎคะแนนและการวัดทางจิตวิทยาแบบปรับปรุง
นักเรียนตัวอย่าง ตามผลงานนักเรียน
ยิ่งขึ้น การประเมินจะถูกส่งบนคอมพิวเตอร์ และ บก. ปอศ.
จึงสามารถใช้ประโยชน์จากการสนับสนุนเทคโนโลยี ( mislevy
เบยาร์ เบนเน็ตต์ , haertel & , , หนาว 2010 ) สำหรับการส่งมอบของพวกเขาและ
การประมวลผลของปฏิสัมพันธ์ของนักเรียนด้วยแบบประเมิน
ซึ่งจะรวมถึงการให้คะแนนของปฏิกิริยาดังกล่าว การเปลี่ยนรูปใหม่ของ
กฎหลักฐานเป็นโดยอัตโนมัติคะแนนกระบวนการ ( Williamson ,
mislevy &เบยาร์ , 2006 ) เป็นธรรมชาติในบริบท ตัวอย่าง เพื่อประเมินความก้าวหน้าการเรียนรู้
แจ้งโดย , ความแตกต่าง
ระหว่างระดับของความก้าวหน้าในการเรียนรู้ สามารถใช้เป็นคะแนน
รูบริกสำหรับงาน นั่นคือการตอบสนองสามารถจัดว่าเป็น
ลักษณะของนักเรียนที่ได้รับระดับของความก้าวหน้า .
สั่งหลายทางเลือก ( OMC ) ( Briggs &อลองโซ , 2012 ) สินค้าเป็น ตัวอย่างของความคิดที่
ทางเลือกหลายคดี ความคิดที่คล้ายกันสามารถใช้ในกรณี
-
โดย แบบอัตโนมัติคะแนนกระบวนการแยกการตอบสนองต่อความก้าวหน้าการเรียนรู้
.
ความต้องการคุณภาพที่เหมาะสมรูปแบบ , องค์ประกอบที่สอง
หลักฐานแบบมียุทธศาสตร์เป็นส่วนหนึ่งของ
ร้าน ตามที่ระบุไว้ก่อนหน้านี้คอร์ดเรียนรู้ไม่ถูกบังคับโดย
สมมติฐานที่สะดวก เช่น ความเป็นเอกมิติ ทำโดย
ปิดการเก็บรักษาคุณภาพรุ่นและจะต้องใช้วิธีการห่างไกลความยืดหยุ่น
( Wilson , 2012 ) ตั้งแต่เรียนคอร์ดมีคำสั่ง
หญิงรุ่นตอบสนองข้อสอบ ( ฟาน แรยน์ et al . , ปัญหานี้ )
ที่จําเป็น แบบไม่ จำกัด รูปแบบสินค้า และคชกรรมเครือข่ายการตอบสนอง ,
( ตะวันตก et al . , 2012 ) ยังอาจจะเหมาะสำหรับกระชับข้อมูลจาก
การประเมินตามที่ระบุไว้โดย zieky 2 ชั้นของกระบวนการออกแบบ
การดำเนินการและจัดส่งสินค้า การเกี่ยวข้องกับ
เขียนงานหรือขั้นตอนวิธีสำหรับการผลิตงานและ
คะแนนจริง รูปแบบการตอบสนองที่เหมาะสมและรายละเอียดการใช้งาน
ที่คล้ายคลึงกัน การเกี่ยวข้องกับผู้ประพันธ์ทดสอบ
การบริหาร รวมถึงการจัดส่งสินค้า มันมีปฏิกิริยากับ
รุ่นนักเรียน โดยเฉพาะอย่างยิ่งในกรณีของการทดสอบแบบปรับเหมาะสำหรับ
เลือกรายการถัดไป รองรับนักเรียนที่มีความต้องการพิเศษ
ยังจัดการในขั้นตอนนี้ให้กระบวนการออกแบบเอาความต้องการที่
เข้าบัญชีซึ่งเป็นไปได้ทั้งหมดภายในบก.
( แฮนเซน& mislevy , 2008 ) .
จ่ายปิดของเกียร์การวิเคราะห์โดเมน เพื่อสร้างการเรียนรู้
ความก้าวหน้าเป็นภาพประกอบในบริบทของโครงการ cbal ที่
การออกแบบที่จะนำความคิดของสถานการณ์ตามการประเมิน ชี น
& O ' Reilly , 2012 ) ดินและเพลง ( ปัญหานี้ ) อธิบายกระบวนการของการพัฒนาทักษะการเรียนรู้
ความก้าวหน้าการโต้แย้ง . พวกเขา
กล่าวว่าในแง่ของความซับซ้อนของการโต้แย้งสร้าง
บก. เป็นวิธีการที่เหมาะสมที่สุดในการออกแบบการประเมินโดเมน
การวิเคราะห์พวกเขาดำเนินการ พบว่า สามารถเห็นการโต้แย้ง
เป็นเกี่ยวข้องกับห้าขั้นตอน : เข้าใจเดิมพันสํารวจ
เรื่องการพิจารณาตำแหน่ง , การสร้างและการประเมินข้อโต้แย้ง ,
และจัดระเบียบและการนำเสนอข้อโต้แย้ง การปรับ granularity
การวิเคราะห์ที่เหมาะสมสำหรับบริบทของโรงเรียนที่เป้าหมายไม่ได้
เพียงแค่เพื่อประเมินการเรียนรู้ แต่ยังส่งเสริมและนั่งร้าน
การพัฒนาทักษะผ่านความคิดเห็นในการปฏิบัติงานในอนาคต นักศึกษา
โดยคมชัด , การทดสอบการยอมรับ เช่น บัณฑิต
การแปล กรุณารอสักครู่..
