Bigger samples are not always
better
With Internet-based surveys using a listbased
sampling frame, rather than sending the
survey out to a sample, researchers often simply
send the survey out to the entire sampling
frame. That is, researchers naively conducting
(all electronic) Internet-based surveys – where
the marginal costs for additional surveys canbe virtually nil – often fail to recognize
the ‘trade-off between easy, low cost access
to large numbers of patients [participants]
and the representativeness in the population
being studied’ (Soetikno et al., 1997). As we
previously discussed, for both probability and
non-probability-based samples, larger sample
sizes do not necessarily mean the sample is
more representative of any greater population:
a sample can be biased whether it is large or
small.
One might argue that in these situations
the researchers are attempting to conduct a
census, but in practice they are forgoing a
probability sample in favour of a convenience
sample by allowing members of the sampling
frame to opt into the survey. Dillman et al.
(1999) summarized this practice as follows:
‘…the ease of collecting hundreds, thousands,
or even tens of thousands of responses
to web questionnaires at virtually no cost,
except for constructing and posting, appears
to be encouraging a singular emphasis on the
reduction of sampling error’. By this Dillman
et al. mean that researchers who focus only on
reducing sampling error by trying to collect
as large a sample as possible miss the point
that it is equally important to reduce coverage,
measurement, and nonresponse error in order
to be able to accurately generalize from the
sample data.
A myopic focus on large sample sizes –
and the idea that large samples equate to
sample representativeness which equates to
generalizability – occurs with convenience
sample-based web and e-mail surveys as
well. ‘Survey2000’ is an excellent example
of this type of focus. A large-scale, unrestricted,
self-selected survey, conducted as
a collaborative effort between the National
Geographic Society (NGS) and some academic
researchers, Survey2000 was fielded
in 1998. The survey was posted on the
National Geographic Society’s website and
participants were solicited both with a link on
the NGS homepage and via advertisements
in NGS periodicals, other magazines, and
newspapers.
Upon completion of the effort, Witte et al.
(2000) report that more than 80,000 surveys
were initiated and slightly more than 50,000
were completed. While this is an impressively
large number of survey completions, the
unrestricted, self-selected sampling strategy
clearly results in a convenience sample that
is not generalizable to any larger population.
Yet, Witte et al. (2000) go to extraordinary
lengths to rationalize that their results are
somehow generalizable, while simultaneously
demonstrating that the results of the
survey generally do not correspond to known
population quantities.
ตัวอย่างที่ใหญ่กว่าไม่เคยดีขึ้นด้วยการสำรวจอินเทอร์เน็ตใช้listbased กรอบการสุ่มตัวอย่างแทนที่จะส่งการสำรวจออกไปตัวอย่างนักวิจัยมักจะส่งการสำรวจออกไปเก็บตัวอย่างทั้งกรอบ นั่นคือนักวิจัยอย่างไร้เดียงสาการดำเนินการ(อิเล็กทรอนิกส์) การสำรวจอินเทอร์เน็ต - กรณีที่ค่าใช้จ่ายส่วนเพิ่มสำหรับการสำรวจเพิ่มเติมcanbe แทบไม่มี - มักจะล้มเหลวในการรับรู้การค้าระหว่างง่ายเข้าถึงต้นทุนต่ำจำนวนมากของผู้ป่วย [ผู้เข้าร่วม] และ มูลในประชากรที่มีการศึกษา(Soetikno et al., 1997) ในฐานะที่เรากล่าวถึงก่อนหน้านี้ทั้งน่าจะเป็นและตัวอย่างที่ไม่น่าจะเป็นตามตัวอย่างที่มีขนาดใหญ่ขนาดไม่จำเป็นต้องหมายความตัวอย่างเป็นตัวแทนของประชากรใดๆ มากขึ้น: ตัวอย่างสามารถลำเอียงไม่ว่าจะเป็นขนาดใหญ่หรือ. ขนาดเล็กหนึ่งอาจยืนยันว่าในสถานการณ์เหล่านี้นักวิจัยกำลังพยายามที่จะดำเนินการสำรวจสำมะโนประชากรแต่ในทางปฏิบัติพวกเขาจะละทิ้งน่าจะเป็นตัวอย่างในความโปรดปรานของความสะดวกสบายตัวอย่างโดยให้สมาชิกของการสุ่มตัวอย่างกรอบที่จะเลือกเข้ามาในการสำรวจ . Dillman, et al (1999) สรุปการปฏิบัติดังต่อไปนี้: ... ความสะดวกในการจัดเก็บภาษีร้อยพันหรือแม้กระทั่งนับหมื่นของการตอบสนองในการแบบสอบถามเว็บที่แทบไม่มีค่าใช้จ่ายยกเว้นสำหรับการสร้างและการโพสต์จะปรากฏที่จะส่งเสริมให้เอกพจน์เน้นการลดลงของการสุ่มตัวอย่างข้อผิดพลาด ' โดยวิธีการนี้ Dillman et al, หมายความว่านักวิจัยที่มุ่งเน้นเฉพาะในการลดข้อผิดพลาดการสุ่มตัวอย่างโดยพยายามที่จะเก็บรวบรวมเป็นตัวอย่างที่มีขนาดใหญ่ที่สุดเท่าที่พลาดจุดที่มันเป็นสิ่งสำคัญอย่างเท่าเทียมกันเพื่อลดความคุ้มครองการวัดและความผิดพลาดในการสั่งซื้อnonresponse เพื่อให้สามารถพูดคุยได้อย่างถูกต้องจากข้อมูลตัวอย่างการให้ความสำคัญในสายตาสั้นขนาดตัวอย่างมีขนาดใหญ่ - และความคิดที่ว่ากลุ่มตัวอย่างที่มีขนาดใหญ่ถือเอาตัวอย่างมูลซึ่งเท่ากับgeneralizability - เกิดขึ้นด้วยความสะดวกสบายเว็บตัวอย่างที่ใช้และการสำรวจอีเมลเป็นอย่างดี 'Survey2000' เป็นตัวอย่างที่ดีของประเภทของการโฟกัสนี้ ที่มีขนาดใหญ่ระดับไม่ จำกัดการสำรวจตัวเองที่เลือกดำเนินการเป็นความพยายามร่วมกันระหว่างชาติสมาคมภูมิศาสตร์(NGS) และนักวิชาการบางนักวิจัยSurvey2000 ถูกสอดแทรกในปี1998 การสำรวจได้โพสต์บนเว็บไซต์ของสมาคมภูมิศาสตร์แห่งชาติและผู้เข้าร่วมได้รับการร้องขอทั้งที่มีการเชื่อมโยงในหน้าแรกของ NGS และผ่านการโฆษณาในวารสารNGS นิตยสารอื่น ๆ และหนังสือพิมพ์. เมื่อเสร็จสิ้นการพยายามวิตต์ et al. (2000) รายงานว่ามากกว่า 80,000 สำรวจริเริ่มและน้อยกว่า50,000 เสร็จสมบูรณ์ ขณะนี้เป็นที่น่าประทับใจจำนวนมากของการสำรวจความสำเร็จที่ไม่จำกัด กลยุทธ์การสุ่มตัวอย่างเลือกตัวเองอย่างชัดเจนส่งผลให้เกิดความสะดวกสบายตัวอย่างที่ไม่generalizable ประชากรขนาดใหญ่ใด ๆ . แต่วิตต์, et al (2000) ไปที่พิเศษความยาวให้เหตุผลว่าผลของพวกเขาจะgeneralizable อย่างใดขณะเดียวกันแสดงให้เห็นว่าผลของการสำรวจโดยทั่วไปจะไม่ตรงกับที่รู้จักกันในปริมาณประชากร
การแปล กรุณารอสักครู่..