3.3.1 การเป็นตัวแทน

ผู้แทนจะเกี่ยวกับการทำข้อสรุปจากการตอบแบบสอบถามของคุณไปยังกลุ่มเป้าหมายของคุณ

เพื่อให้เข้าใจถึงความผิดพลาดที่อาจเกิดขึ้นเมื่ออนุมานจากผู้ตอบแบบสอบถามต่อประชากรกลุ่มใหญ่ให้พิจารณาการสำรวจความคิดเห็นของ วรรณกรรม ฟางที่พยายามทำนายผลของการเลือกตั้งประธานาธิบดีสหรัฐฯในปีพ. ศ. 2479 แม้ว่าจะเกิดขึ้นมากกว่า 75 ปีมาแล้ว แต่ปัญหานี้ยังคงมีบทเรียนที่สำคัญที่จะสอนนักวิจัยในวันนี้

วรรณกรรมย่อย เป็นนิตยสารที่ได้รับความนิยมทั่วไปและในปีพ. ศ. 2463 พวกเขาเริ่มสำรวจฟางเพื่อทำนายผลของการเลือกตั้งประธานาธิบดี เพื่อให้การคาดการณ์เหล่านี้พวกเขาจะส่งบัตรลงคะแนนให้กับผู้คนจำนวนมากและจากนั้นจะรวบรวมคะแนนที่ส่งคืน วรรณกรรม Digest ภูมิใจรายงานว่าบัตรลงคะแนนที่พวกเขาได้รับไม่เป็น“ถ่วงน้ำหนักปรับหรือตีความ.” ขั้นตอนนี้จะถูกทำนายผู้ชนะของการเลือกตั้งในปี 1920, 1924, 1928 และปี 1932 ในปี 1936 ในท่ามกลางความตกต่ำวรรณกรรม Digest ได้ ส่งบัตรลงคะแนนให้ผู้คนจำนวน 10 ล้านคนซึ่งส่วนใหญ่มาจากสมุดโทรศัพท์และบันทึกการลงทะเบียนรถยนต์ นี่เป็นวิธีที่พวกเขาอธิบายวิธีการของพวกเขา:

"เครื่องทำงานที่ราบรื่นของ DIGEST ทำงานได้อย่างแม่นยำด้วยประสบการณ์ที่ยาวนานถึงสามสิบปีเพื่อลดการคาดเดาข้อเท็จจริงที่ยากลำบาก ... สัปดาห์นี้ 500 ปากกาได้ขูดขีดกว่าหนึ่งในสี่ล้านฉบับต่อวัน ทุกๆวันในห้องที่ดีเยี่ยมบนถนน Fourth Avenue ที่ New York มีคนงาน 400 คนสไลด์แผ่นงานพิมพ์จำนวนหนึ่งล้านชิ้นซึ่งเพียงพอที่จะปูบล็อกสี่สิบสี่เหลี่ยมในซองจดหมาย ทุกชั่วโมงในที่ทำการไปรษณีย์ของ DIGEST เองมีเครื่องวัด 3 เครื่องที่เจี๊ยก ๆ ปิดผนึกและประทับตราหีบห่อสีขาว พนักงานไปรษณีย์ที่มีฝีมือพลิกพวกเขาเป็นอีเมลที่โป่ง; กองยานเกราะ DIGEST เร่งให้พวกเขาแสดงไปรษณีย์ - รถไฟ . . สัปดาห์หน้าคำตอบแรกจากสิบล้านคนนี้จะเริ่มต้นการทำเครื่องหมายคะแนนที่ได้รับการตรวจสอบแล้วสามครั้งตรวจสอบห้าครั้งและมีการจัดหมวดหมู่รวมกันทั้งหมด เมื่อตัวเลขล่าสุดถูกตรวจสอบแล้วหากประสบการณ์ที่ผ่านมาเป็นเกณฑ์ประเทศจะทราบได้ถึงคะแนนนิยมที่แท้จริงของคะแนนเสียงถึงสี่สิบล้าน [คะแนน] "(22 สิงหาคม 1936)

การ fetishization ขนาดของ Literary Digest จะเป็นที่จดจำได้ทันทีสำหรับนักวิจัยข้อมูลขนาดใหญ่ทุกวันนี้ จาก 10 ล้านแจกคะแนน 2.4 ล้านคนถูกส่งกลับมาซึ่งนับว่าใหญ่กว่าการสำรวจทางการเมืองในปัจจุบันถึง 1,000 เท่า จากผู้ตอบแบบสอบถาม 2.4 ล้านคนคำตัดสินมีความชัดเจน: นายอัลฟ์แลนกำลังจะเอาชนะหน้าที่ของแฟรงคลินรูสเวลต์ แต่ในความเป็นจริง Roosevelt แพ้ Landon ในแผ่นดินถล่ม วรรณกรรมสำคัญทำ ผิดพลาดกับข้อมูลมากขนาดไหน? ความเข้าใจที่ทันสมัยเกี่ยวกับการสุ่มตัวอย่างทำให้ข้อผิดพลาดใน วรรณกรรมสำคัญ และช่วยให้เราหลีกเลี่ยงข้อผิดพลาดที่คล้ายคลึงกันในอนาคต

การคิดอย่างชัดเจนเกี่ยวกับการสุ่มตัวอย่างทำให้เราต้องพิจารณากลุ่มคนสี่กลุ่ม (รูปที่ 3.2) กลุ่มแรกเป็น ประชากรกลุ่มเป้าหมาย นี่เป็นกลุ่มที่นักวิจัยกำหนดให้เป็นกลุ่มที่น่าสนใจ ในกรณีของ วรรณกรรมสำคัญ ประชากรเป้าหมายคือคะแนนเสียงในการเลือกตั้งประธานาธิบดี 2479

หลังจากตัดสินใจเลือกกลุ่มเป้าหมายผู้วิจัยจำเป็นต้องพัฒนารายชื่อบุคคลที่สามารถใช้สำหรับการสุ่มตัวอย่าง รายการนี้เรียกว่า เฟรมการสุ่มตัวอย่าง และคนที่เรียกว่า เฟรม อุดมคติและประชากรเฟรมจะเหมือนกัน แต่ในทางปฏิบัติมักไม่เป็นเช่นนี้ ตัวอย่างเช่นในกรณีของ Literary Digest ประชากรเฟรมคือ 10 ล้านคนที่มีชื่อมาเป็นส่วนใหญ่จากสมุดโทรศัพท์และบันทึกการลงทะเบียนรถยนต์ ความแตกต่างระหว่างประชากรเป้าหมายกับจำนวนเฟรมที่เรียกว่า ข้อผิดพลาดในการครอบคลุม ข้อผิดพลาดเกี่ยวกับความครอบคลุมไม่ได้รับประกันปัญหา อย่างไรก็ตามอาจทำให้เกิด ความครอบคลุม หากผู้คนในเฟรมมีระบบแตกต่างจากคนในกลุ่มเป้าหมายที่ไม่ได้อยู่ในกลุ่มเฟรม นี่คือความจริงแล้วสิ่งที่เกิดขึ้นในการหยั่งเสียง Literary Digest คนในกลุ่มของพวกเขามักจะมีแนวโน้มที่จะสนับสนุน Alf Landon ส่วนใหญ่เป็นเพราะพวกเขาร่ำรวย (จำได้ว่าทั้งโทรศัพท์และรถยนต์เป็นของใหม่และมีราคาแพงในปีพ. ศ. 2479) ดังนั้นในการหยั่งเสียง Literary Digest ข้อผิดพลาดในการรายงานข่าวจึงนำไปสู่ความลำเอียง

ภาพที่ 3.2: ข้อผิดพลาดในการแสดง

ภาพที่ 3.2: ข้อผิดพลาดในการแสดง

หลังจากกำหนด จำนวนเฟรม แล้วขั้นตอนต่อไปคือเพื่อให้นักวิจัยเลือก ตัวอย่างประชากร เหล่านี้คือคนที่ผู้วิจัยจะพยายามสัมภาษณ์ ถ้าตัวอย่างมีลักษณะแตกต่างจากประชากรเฟรมการสุ่มตัวอย่างอาจทำให้เกิด ข้อผิดพลาดในการสุ่มตัวอย่าง ในกรณีของความล้มเหลว Literary Digest อย่างไรก็ดีไม่มีการสุ่มตัวอย่าง - นิตยสารจะติดต่อทุกคนในกรอบ - ดังนั้นจึงไม่มีข้อผิดพลาดในการสุ่มตัวอย่าง นักวิจัยหลายคนมักจะมุ่งความสนใจไปที่ข้อผิดพลาดในการสุ่มตัวอย่างซึ่งโดยปกติจะเป็นข้อผิดพลาดเพียงอย่างเดียวที่เกิดจากขอบของข้อผิดพลาดที่รายงานไว้ในแบบสอบถาม แต่ความล้มเหลวของ Literary Digest เตือนเราว่าเราต้องพิจารณาแหล่งที่มาของข้อผิดพลาดทั้งแบบสุ่มและเป็นระบบ

สุดท้ายหลังจากเลือกตัวอย่างประชากรแล้วนักวิจัยพยายามสัมภาษณ์สมาชิกทั้งหมด คนที่ได้รับการสัมภาษณ์ประสบความสำเร็จจะเรียกว่า ผู้ตอบแบบสอบถาม ตัวอย่างประชากรและผู้ตอบแบบสอบถามจะเหมือนกัน แต่ในทางปฏิบัติจะไม่มีการตอบสนอง นั่นคือคนที่ถูกเลือกในกลุ่มตัวอย่างบางครั้งไม่เข้าร่วม ถ้าคนที่ตอบสนองแตกต่างจากผู้ที่ไม่ตอบสนองก็อาจมี ความลำเอียงที่ไม่ตอบสนอง ความอคติที่ไม่ตอบสนองเป็นปัญหาหลักที่สองกับการหยั่งเสียง Literary Digest เพียง 24% ของผู้ที่ได้รับการลงคะแนนเสียงตอบว่าและปรากฏว่าผู้ที่สนับสนุน Landon มีแนวโน้มที่จะตอบสนองมากขึ้น

นอกเหนือจากการเป็นตัวอย่างเพื่อนำเสนอแนวคิดในการเป็นตัวแทนแล้วการสำรวจความคิดเห็นใน วรรณกรรม เป็นคำอุปมาที่ทำซ้ำหลายครั้งเตือนนักวิจัยเกี่ยวกับอันตรายของการสุ่มตัวอย่างอย่างสุ่ม แต่น่าเสียดายที่ฉันคิดว่าบทเรียนที่หลายคนวาดมาจากเรื่องนี้เป็นเรื่องที่ผิด จริยธรรมที่พบมากที่สุดในเรื่องคือนักวิจัยไม่สามารถเรียนรู้อะไรจากตัวอย่างที่ไม่น่าจะเป็นได้ (เช่นตัวอย่างที่ไม่มีกฎเกณฑ์ที่น่าจะเป็นไปได้อย่างเข้มงวดสำหรับการเลือกผู้เข้าร่วม) แต่ที่ฉันจะแสดงในบทนี้จะไม่ถูกต้อง แต่ฉันคิดว่ามีสองศีลธรรมกับเรื่องนี้; ศีลธรรมที่เป็นจริงในวันนี้เช่นที่พวกเขาในปี 1936 ประการแรกจำนวนมากของข้อมูลที่เก็บรวบรวมอย่างไม่เป็นทางการจะไม่รับประกันการประมาณการที่ดี โดยทั่วไปการมีผู้ตอบจำนวนมากลดความแปรปรวนของการประมาณค่า แต่ไม่จำเป็นต้องลดความอคติ ข้อมูลจำนวนมากนักวิจัยบางครั้งอาจได้รับการประมาณการที่แม่นยำของสิ่งผิด; พวกเขาสามารถถูกต้องได้ อย่างแม่นยำ (McFarland and McFarland 2015) บทเรียนที่สองจากความล้มเหลวของ วรรณกรรมสำคัญ คือนักวิจัยจำเป็นต้องพิจารณาถึงวิธีการเก็บตัวอย่างของพวกเขาเมื่อทำการประมาณค่า กล่าวอีกนัยหนึ่งเนื่องจากกระบวนการสุ่มตัวอย่างในการหยั่งเสียง Literary Digest เป็นแบบเบี่ยงเบนอย่างเป็นระบบต่อผู้ตอบบางคนนักวิจัยจำเป็นต้องใช้กระบวนการประมาณค่าที่ซับซ้อนมากขึ้นซึ่งให้น้ำหนักผู้ตอบแบบสอบถามบางรายมากกว่าผู้อื่น ต่อมาในบทนี้เราจะแสดงขั้นตอนการถ่วงน้ำหนักดังกล่าวอย่างใดอย่างหนึ่งดังต่อไปนี้ซึ่งจะช่วยให้คุณสามารถประมาณค่าที่ดีขึ้นจากตัวอย่างสุ่มตัวอย่าง