3.3.1 ייצוג

ייצוג הוא לגבי ביצוע היקשים מן המשיבים שלך לקהל היעד שלך.

כדי להבין את סוג השגיאות שעלולות להתרחש כאשר שואבים מהמשיבים לאוכלוסיה הגדולה יותר, הבה נבחן את סקר הקש של הספרות Digest שניסה לחזות את תוצאות הבחירות לנשיאות ארצות הברית ב -1936. למרות שזה קרה לפני יותר מ -75 שנה, עדיין יש לה כישרון חשוב זה ללמד את החוקרים כיום.

הספרותי Digest היה מגזין פופולרי-עניין כללי, החל משנת 1920 הם החלו לרוץ סקרי קש כדי לחזות את התוצאות של הבחירות לנשיאות. כדי לבצע תחזיות אלה, הם היו שולחים פתקים להרבה אנשים ואז פשוט מסכמים את הקולות שהוחזרו; Literary Digest דיווחה בגאווה כי פתקי ההצבעה שקיבלו היו "משוקלל, מותאם, ולא פירש." הליך זה נכון שחזה את הזוכים בבחירות ב 1920, 1924, 1928 ו 1932. בשנת 1936, בעיצומו של השפל הגדול, ספרותי Digest שלח את ההצבעה ל -10 מיליון אנשים, ששמותיהם הגיעו בעיקר מספרי טלפון ורשומות רישום רכב. כך הם תיארו את המתודולוגיה שלהם:

"המכונה המהירה של הדייגסט נעה בדייקנות מהירה של ניסיון של שלושים שנה כדי להפחית את הניחושים לעובדות קשות ... השבוע 500 עטים גירדו יותר מרבע מיליון כתובות ביום. כל יום, בחדר גדול גבוה מעל לשדרה הרביעית, בניו יורק, 400 פועלים מחלקים בזריזות מיליון פריטים מודפסים - דיים כדי לסלול ארבעים גושי בניינים - לתוך המעטפות הנזכרות. מדי שעה, בתחנת המשנה של משרד הדואר של דיגסט, חתמו שלוש מכונות הדבקה של דמי דואר וחתמו את המלבנים הלבנים; עובדי דואר מיומנים הכניסו אותם לתיקי דואר בולטים; צי משאיות DIGEST דחף אותם להביע רכבות דואר. . . בשבוע הבא, התשובות הראשונות מתוך עשרה מיליון אלה יתחילו את הגאות הנכנסת של פתקים מסומנים, להיות משולשת בדק, מאומת, חמש פעמים חוצה מסווגים והסתכם. כאשר הדמות האחרונה נחקרה ובדקה, אם ניסיון העבר הוא קריטריון, המדינה תדע לחלק קטן של אחוז אחד את ההצבעה הרווחת בפועל של ארבעים מיליון [מצביעים] ". (22 באוגוסט 1936)

הספרות של Digiter Digest של הגודל מזוהה באופן מיידי לכל חוקר "נתונים גדולים" היום. מתוך 10 מיליון הקולות שהופצו, הוחזרו 2.4 מיליון איש - סכום זה גדול פי 1,000 מהסקרים הפוליטיים המודרניים. מבין אלה 2.4 מיליון המשיבים, פסק הדין היה ברור: Alfonon הולך להביס את פרנקלין רוזוולט המכהן. אבל למעשה, רוזוולט הביס את לנדון במפולת. איך יכול ספרותי Digest להשתבש עם כל כך הרבה נתונים? ההבנה המודרנית שלנו של הדגימה עושה שגיאות הספרות של Digest ברור ומסייע לנו להימנע לעשות טעויות דומות בעתיד.

המחשבה בבירור על הדגימה מחייבת אותנו לשקול ארבע קבוצות שונות של אנשים (איור 3.2). הקבוצה הראשונה היא אוכלוסיית היעד ; זו הקבוצה שהחוקר מגדירה כאוכלוסיית העניין. במקרה של ספרות ספרותית , אוכלוסיית היעד היתה הבוחרים בבחירות לנשיאות 1936.

לאחר שהחליט על אוכלוסיית היעד, חוקר צריך לפתח רשימה של אנשים שניתן להשתמש בהם עבור הדגימה. רשימה זו נקראת מסגרת הדגימה והאנשים עליה נקראים אוכלוסיית המסגרת . באופן אידיאלי, אוכלוסיית היעד ואת האוכלוסייה מסגרת יהיה בדיוק אותו דבר, אבל בפועל זה לעתים קרובות לא המקרה. לדוגמה, במקרה של ספרות Digest , האוכלוסייה מסגרת היה 10 מיליון אנשים ששמותיהם הגיעו בעיקר מספרי טלפון ורשומות רישום הרכב. ההבדלים בין אוכלוסיית היעד ואוכלוסיית המסגרת נקראים שגיאת כיסוי . שגיאת כיסוי אינה, כשלעצמה, מבטיחה בעיות. עם זאת, זה יכול להוביל הטיה כיסוי אם אנשים באוכלוסייה מסגרת שונים באופן שיטתי מאנשים באוכלוסיית היעד שאינם נמצאים מסגרת האוכלוסייה. זהו, למעשה, בדיוק מה שקרה בסקר ספרותי Digest . האנשים באוכלוסיית המסגרת שלהם נטו יותר לתמוך באלף לנדון, בין היתר משום שהם היו עשירים יותר (נזכיר שגם טלפונים וגם מכוניות היו חדשים ויקרים יחסית ב -1936). אז, בסקר ספרותי Digest , שגיאת כיסוי הובילה הטיה כיסוי.

איור 3.2: טעויות ייצוג.

איור 3.2: טעויות ייצוג.

לאחר הגדרת האוכלוסייה מסגרת , הצעד הבא הוא עבור חוקר לבחור את האוכלוסייה המדגם ; אלה האנשים שהחוקר ינסה לראיין. אם המדגם יש מאפיינים שונים מאשר האוכלוסייה מסגרת, ואז דגימה יכול להציג טעות הדגימה . אולם, במקרה של כישלון הספרות הספרותית , למעשה לא היה שום דגימה - המגזין יצר קשר עם כולם באוכלוסיית המסגרת - ולכן לא היתה טעות דגימה. חוקרים רבים נוטים להתמקד בטעות הדגימה - זה בדרך כלל סוג השגיאה היחיד שנלכד בשולי השגיאה שדווחו בסקרים - אך הפיאסקו הספרותי של Digest מזכיר לנו שעלינו לשקול את כל מקורות השגיאה, האקראיים והשיטתיים כאחד.

לבסוף, לאחר בחירת אוכלוסיה מדגם, חוקר מנסה לראיין את כל חבריה. אותם אנשים שרואיינו בהצלחה נקראים משיבים . באופן אידיאלי, אוכלוסיית המדגם והמשיבים יהיו בדיוק אותו הדבר, אך בפועל אין תגובה. כלומר, אנשים שנבחרו במדגם לפעמים לא להשתתף. אם האנשים שמגיבים הם שונים מאלה שאינם מגיבים, אז יכול להיות חוסר תגובה משוא פנים . הטיה ללא תגובה היתה הבעיה העיקרית השנייה עם הסקר ספרותי Digest . רק 24% מהאנשים שקיבלו פתק הגיבו, והתברר כי אנשים שתמכו לנדון נטו להגיב יותר.

מעבר לסוגיית הצגת הרעיונות של הייצוג, הסקר של " ספרות ספרותית " הוא משל חד פעמי, המזהיר את החוקרים לגבי הסכנות של הדגימה האקראית. לצערי, אני חושב שהלקח שאנשים רבים שואבים מהסיפור הזה הוא הלקוי. המוסר השכיח ביותר של הסיפור הוא שחוקרים אינם יכולים ללמוד דבר מדגימות שאינן הסתברותיות (כלומר, דגימות ללא כללים מבוססי הסתברות מחמירים לבחירת המשתתפים). אבל, כפי שאראה בהמשך פרק זה, זה לא לגמרי נכון. במקום זאת, אני חושב שיש באמת שני מוסר לסיפור הזה; מוסר כי הם נכון היום כפי שהם היו בשנת 1936. ראשית, כמות גדולה של נתונים שנאספו באופן אקראי לא יבטיח הערכה טובה. באופן כללי, יש מספר רב של משיבים מקטין את השונות של אומדנים, אבל זה לא בהכרח להפחית את ההטיה. עם הרבה נתונים, חוקרים יכולים לפעמים לקבל הערכה מדויקת של הדבר הלא נכון; הם יכולים להיות מדויקים בדיוק (McFarland and McFarland 2015) . הלקח העיקרי השני מהכישלון של Digiter Digest הוא שחוקרים צריכים להסביר כיצד המדגם שלהם נאסף בעת ביצוע האומדנים. במילים אחרות, מכיוון שתהליך הדגימה בסקר של Digit Digest הועתק באופן שיטתי כלפי חלק מהנשאלים, החוקרים נדרשו להשתמש בתהליך הערכה מורכב יותר שמשקל חלק מהנשאלים יותר מאחרים. בהמשך פרק זה אראה לכם הליך ניפוח שכזה - פוסט-ריבוד - שיאפשר לכם לעשות אומדנים טובים יותר מדוגמאות אקראיות.