In the original Advisory, interobserver agreement among Task
Force members and two methodologists was established by interrater
reliability testing. Agreement levels using a kappa () statistic for
two-rater agreement pairs were as follows: (1) type of study design,
0.64–0.78; (2) type of analysis, 0.74–0.87; (3) evidence
linkage assignment, 0.69–0.94; and (4) literature inclusion for
database, 0.77–1.00. Three-rater chance-corrected agreement
values were: (1) study design, Sav 0.69, Var (Sav) 0.022; (2)
type of analysis, Sav 0.82, Var (Sav) 0.017; (3) linkage assignment,
Sav 0.79, Var (Sav) 0.007; and (4) literature database
inclusion, Sav 0.86 Var (Sav) 0.030. These values represent
moderate-to-high levels of agreement. For the updated Advisory,
the same two methodologists involved in the original Advisory conducted
the literature review.
ในต้นฉบับ ที่ปรึกษา , interobserver ข้อตกลงระหว่างสมาชิกในทีม
2 methodologists ก่อตั้งโดยการทดสอบความน่าเชื่อถือแบบอิง
ข้อตกลงระดับโดยใช้ Kappa ( ) สถิติ
2 คู่ข้อตกลงระดับดังนี้ ( 1 ) ประเภทของการออกแบบการศึกษา
0.64 – 0.78 ; ( 2 ) ประเภทของการวิเคราะห์ 0.74 และ 0.87 ; ( 3 ) หลักฐาน
เชื่อมโยงงาน 0.69 - 0.94 ;และ ( 4 ) วรรณกรรมและ
ฐานข้อมูล 0.77 - 1.00 3 ไม่มีโอกาสแก้ไขข้อตกลง
ค่าคือ ( 1 ) การออกแบบการศึกษาของคุณ 0.69 , var ( SAV ) 0.022 ( 2 )
ประเภทของการวิเคราะห์ของคุณ 0.82 , var ( SAV ) 0.017 ; ( 3 ) การมอบหมายการเชื่อมโยง ,
sav 0.79 , var ( SAV ) 0.007 ; และ ( 4 ) การรวมฐานข้อมูล
วรรณกรรม ช 0.86 var ( SAV ) 0.030 . ค่าเหล่านี้เป็นตัวแทน
ให้สูงระดับความคิดเห็นปานกลาง .สำหรับการปรับปรุง ที่ปรึกษา ,
เดียวกันสอง methodologists เกี่ยวข้องในต้นฉบับที่ปรึกษาดำเนินการ
วรรณกรรม .
การแปล กรุณารอสักครู่..
