3.3.1 Darstellung

Die Darstellung erfolgt über Konsequenzen aus Ihrer Befragten auf Ihre Zielgruppe zu machen.

Um die Art von Fehler zu verstehen, was passieren kann , wenn sie von Befragten auf die größere Bevölkerung Folgern, lassen Sie uns die Literary Digest Stroh Umfrage betrachten, die das Ergebnis der 1936 US - Präsidentschaftswahlen vorherzusagen versucht. Obwohl es vor mehr als 75 Jahren war, hat diese Debakel noch eine wichtige Lektion Forscher heute zu lehren.

Literary Digest war ein beliebtes General-Interest - Magazin, und im Jahr 1920 beginnen begann sie Stroh Umfragen laufen die Ergebnisse der Präsidentschaftswahlen zu prognostizieren. Um diese Vorhersagen zu treffen würden sie Stimmzettel viele Leute schicken, und dann einfach die Stimmzettel Tally , die zurückgegeben wurden; Literary Digest berichtet stolz , dass die Stimmzettel sie empfangen wurden weder "gewichtet, angepasst, noch interpretiert werden ." Dieses Verfahren korrekt den Sieger vorhergesagt der Wahlen im Jahr 1920, 1924, 1928 und 1932. im Jahr 1936, in der Mitte der Großen Depression, schickte Literary Digest aus Stimmzettel zu 10 Millionen Menschen, deren Namen kamen überwiegend aus Telefonverzeichnissen und Auto Registrierung Aufzeichnungen. Hier ist, wie sie ihre Methodik beschrieben:

"Der Digest ist leichtgängige Maschine bewegt sich mit der schnellen Präzision von dreißig Jahren Erfahrung Mutmaßungen zu harten Fakten zu reduzieren. . . .Diese Woche 500 Stifte ausgekratzt mehr als ein Viertel der eine Million Adressen pro Tag. Jeden Tag in einem großen Raum hoch über Motor-ribboned Fourth Avenue, in New York, 400 Arbeiter gleiten flink eine Million Stücke von Drucksachen-genug vierzig Stadt Blöcke-in den adressierten Briefumschlägen [sic] zu ebnen. Jede Stunde, in der eigenen Post Substation'S DIGEST, drei Rattern Frankiermaschinen versiegelt und gestempelt die weißen oblongs; qualifizierte Postangestellte blätterte sie mailsacks in prall; Flotte DIGEST Lastwagen raste sie Mail-Züge zum Ausdruck bringen. . . Nächste Woche werden die ersten Antworten von diesen zehn Millionen wird die Flut von markierten Stimmzettel, beginnen Triple-Option aktiviert ist, überprüft, fünffacher Kreuzklassifizierungen und betrug zu sein. Wenn die letzte Zahl hat zusammengezählt und geprüft, ob Erfahrungen aus der Vergangenheit ein Kriterium ist, wird wissen, das Land innerhalb von einem Anteil von 1 Prozent der tatsächlichen Stimmen von vierzig Millionen [Wähler]. "(22. August 1936)

Die Digest Fetischisierung Größe ist sofort erkennbar an jedem "Big Data" Forscher heute. Von den 10 Millionen Stimmzettel verteilt wurden eine erstaunliche 2,4 Millionen Stimmzettel zurück-, dass rund 1000-mal ist größer als moderne politische Umfragen. Von diesen 2,4 Millionen Befragten war das Urteil klar: Literary Digest prognostiziert , dass der Herausforderer Alf Landon den amtierenden Franklin Roosevelt zu besiegen würde. Aber in der Tat passiert das genaue Gegenteil. Roosevelt besiegte Landon in einem Erdrutsch. Wie konnte Literary Digest mit so viel Daten schief gehen? Unser modernes Verständnis der Probenahme macht Literary Digest Fehler klar und hilft uns in der Zukunft machen ähnliche Fehler zu vermeiden.

deutlich über Probenahme Denken erfordert, dass wir vier verschiedene Gruppen von Menschen (Abbildung 3.1) zu berücksichtigen. Die erste Gruppe von Menschen ist die Zielpopulation; Dies ist die Gruppe, die die Forschung als die Bevölkerung von Interesse definiert. Im Fall der Literary Digest war die Zielgruppe Wähler in der Präsidentschaftswahl 1936. Nach der Entscheidung, eine Zielgruppe auf, muss ein Forscher als nächstes eine Liste von Menschen zu entwickeln, die für die Probenahme verwendet werden kann. Diese Liste ist ein Stichprobenrahmen und die Bevölkerung auf dem Stichprobenrahmen genannt wird der Rahmen Bevölkerung genannt. Im Fall von Literary Digest war der Rahmen Bevölkerung die 10 Millionen Menschen , deren Namen kamen überwiegend aus Telefonverzeichnissen und Auto Registrierung Aufzeichnungen. Im Idealfall würde die Zielpopulation und der Rahmen Population exakt gleich sein, aber in der Praxis ist dies oft nicht der Fall. Die Unterschiede zwischen der Zielgruppe und Rahmen Bevölkerung Berichterstattung Fehler bezeichnet. Coverage Fehler nicht von selbst Probleme garantieren. Aber, wenn die Menschen in der Bevölkerung Rahmen von Menschen systematisch unterschiedlich sind nicht in den Rahmen Bevölkerung wird es Abdeckung Bias sein. Coverage Fehler war der erste der größten Mängel der Literary Digest - Umfrage. Sie wollten über die Wähler-, die lernen war ihre Zielgruppe, aber sie gebaut einen Stichprobenrahmen überwiegend aus Telefonverzeichnissen und Autoregister, Quellen, dass überrepräsentiert reicheren Amerikaner, die waren eher zu Alf Landon (man erinnere sich, dass beide Technologien unterstützen, Welches sind heute üblich, waren relativ neu in der Zeit und dass die USA in der Mitte der Großen Depression).

Abbildung 3.1: Darstellungsfehler.

Abbildung 3.1: Darstellungsfehler.

Nach der Definition des Rahmen Bevölkerung, ist der nächste Schritt für einen Forscher die Probenpopulation zu wählen; das sind die Leute, die die Forscher zu interviewen wird versuchen. Wenn die Probe unterschiedliche Eigenschaften als die Rahmen Bevölkerung hat, dann können wir Abtastfehler einzuführen. Dies ist die Art von Fehler in der Fehlergrenze quantifiziert, die normalerweise Schätzungen begleitet. Im Fall des Fiaskos Literary Digest, gab es eigentlich keine Probe; sie versuchten, jeder im Rahmen Bevölkerung in Kontakt zu treten. Auch wenn es keine Stichprobenfehler war, gab es offensichtlich immer noch Fehler. Dies verdeutlicht, dass die Ränder der Fehler, die sind in der Regel mit den Schätzungen aus Erhebungen berichtet sind in der Regel misleadingly klein; sie enthalten nicht alle Fehlerquellen.

Schließlich versucht ein Forscher alle in der Stichprobe zu interviewen. Jene Leute , die erfolgreich befragt werden Befragten genannt. Idealerweise wäre die Probenpopulation und die Antwort genau das gleiche, aber in der Praxis gibt es non-response. Das heißt, Menschen, die in der Probe ausgewählt werden, weigern sich zu beteiligen. Wenn die Menschen , die anders sind als diejenigen reagieren, die nicht reagieren, dann kann es nicht Antwort Bias sein. Non-Response - Bias war das zweite Hauptproblem bei der Umfrage Literary Digest. Nur 24% der Menschen, die einen Stimmzettel erhalten geantwortet, und es stellte sich heraus, dass Menschen, die Landon unterstützt wurden eher zu reagieren.

Darüber hinaus ist nur ein Beispiel zu sein , die Ideen der Repräsentation, die Literary Digest - Umfrage ist eine oft wiederholte Gleichnis, warnt Forscher über die Gefahren von planlos Probenahme einzuführen. Leider denken, ich, dass die Lektion, die viele Menschen aus dieser Geschichte ziehen die falsche ist. Die häufigste Moral der Geschichte ist, dass die Forscher nichts aus Nicht-Wahrscheinlichkeitsstichproben (dh Proben ohne strenge wahrscheinlichkeitsbasierte Regeln für die Auswahl der Teilnehmer) lernen können. Aber, wie ich später in diesem Kapitel zeigen werde, das ist nicht ganz richtig. Stattdessen denke ich, es zu dieser Geschichte wirklich zwei Moral sind; Moral, die heute ebenso wahr sind, wie sie im Jahr 1936. Zunächst wird eine große Menge an wahllos gesammelten Daten waren nicht eine gute Schätzung garantieren. Zweitens müssen die Forscher zu erklären, wie sie ihre Daten erfasst wurden, wenn sie Schätzungen von ihm machen. Mit anderen Worten, da die Datenerhebung in der Umfrage Literary Digest systematisch zu einigen Befragten verzerrt wurde, brauchen die Forscher eine komplexere Schätzprozess zu verwenden , die Gewichte einige der Befragten mehr als andere. Später in diesem Kapitel werde ich zeigen Ihnen eine solche Gewichtungsverfahren-post-Schichtung-, die Sie aktivieren können, um eine bessere Einschätzung mit Nicht-Wahrscheinlichkeitsstichproben machen.