Aktivitäten

  • Schwierigkeitsgrad: einfach einfach , Mittel Mittel , hart hart , sehr schwer sehr schwer
  • erfordert Mathematik ( erfordert Mathematik )
  • erfordert Codierung ( erfordert Codierung )
  • Datensammlung ( Datensammlung )
  • meine Favoriten ( mein Liebling )
  1. [ hart , erfordert Mathematik ] In dem Kapitel war ich sehr positiv über die Nachschichtung. Dies verbessert jedoch nicht immer die Qualität der Schätzungen. Konstruieren Sie eine Situation, in der die Nachschichtung die Qualität der Schätzungen verringern kann. (Für einen Hinweis, siehe Thomsen (1973) .)

  2. [ hart , Datensammlung , erfordert Codierung ] Entwerfen und führen Sie eine Nicht-Wahrscheinlichkeits-Umfrage bei Amazon Mechanical Turk durch, um Fragen zu Waffenbesitz und Einstellungen zur Waffenkontrolle zu stellen. Damit Sie Ihre Schätzungen mit denen aus einer Wahrscheinlichkeitsstichprobe vergleichen können, kopieren Sie den Fragetext und die Antwortmöglichkeiten direkt aus einer qualitativ hochwertigen Umfrage, wie sie vom Pew Research Center durchgeführt wird.

    1. Wie lange dauert Ihre Umfrage? Wie viel kostet es? Wie vergleichen sich die demografischen Merkmale Ihrer Stichprobe mit den demografischen Daten der US-Bevölkerung?
    2. Was ist die Rohschätzung des Waffenbesitzes mit Ihrer Probe?
    3. Korrigieren Sie die Nicht-Repräsentativität Ihrer Probe mit Hilfe von Post-Stratifizierung oder einer anderen Technik. Wie schätzen Sie den Waffenbesitz ein?
    4. Wie vergleichen sich Ihre Schätzungen mit der letzten Schätzung aus einer Wahrscheinlichkeitsbasierten Stichprobe? Was, denkst du, erklärt die Unstimmigkeiten, wenn es welche gibt?
    5. Wiederholen Sie die Fragen (b) - (d) für Einstellungen zur Waffenkontrolle. Wie unterscheiden sich Ihre Ergebnisse?
  3. [ sehr schwer , Datensammlung , erfordert Codierung ] Goel und Kollegen (2016) verwalteten 49 Multiple-Choice-Einstellungsfragen aus der Allgemeinen Sozialen Umfrage (GSS) und ausgewählten Umfragen des Pew Research Center zu Nicht-Wahrscheinlichkeits-Stichproben von Befragten aus Amazon Mechanical Turk. Anschließend passten sie die Nicht-Repräsentativität der Daten mithilfe einer modellbasierten Nachstratifizierung an und verglichen ihre bereinigten Schätzungen mit denen aus den wahrscheinlichkeitsbasierten GSS- und Pew-Erhebungen. Führen Sie dieselbe Umfrage bei Amazon Mechanical Turk durch und versuchen Sie, Abbildung 2a und Abbildung 2b zu replizieren, indem Sie Ihre angepassten Schätzungen mit den Schätzungen der letzten Runden der GSS- und Pew-Umfragen vergleichen. (Siehe Anhang A2 für die Liste von 49 Fragen.)

    1. Vergleichen und kontrastieren Sie Ihre Ergebnisse mit denen von Pew und GSS.
    2. Vergleichen und vergleichen Sie Ihre Ergebnisse mit denen aus der Mechanical Turk Umfrage in Goel, Obeng, and Rothschild (2016) .
  4. [ Mittel , Datensammlung , erfordert Codierung ] Viele Studien verwenden selbstberichtete Messungen der Mobiltelefonnutzung. Dies ist eine interessante Umgebung, in der Forscher selbstberichtetes Verhalten mit protokolliertem Verhalten vergleichen können (siehe zB Boase and Ling (2013) ). Zwei häufige Verhaltensweisen, nach denen gefragt werden kann, sind Anrufen und SMS, und zwei gemeinsame Zeitrahmen sind "gestern" und "in der vergangenen Woche".

    1. Bevor Sie irgendwelche Daten sammeln, welche der Selbstberichtmaßnahmen sind Ihrer Meinung nach genauer? Warum?
    2. Rekrutiere fünf deiner Freunde, um an deiner Umfrage teilzunehmen. Bitte fasse kurz zusammen, wie diese fünf Freunde gesampelt wurden. Könnte dieses Stichprobenverfahren zu spezifischen Verzerrungen in Ihren Schätzungen führen?
    3. Stellen Sie ihnen die folgenden mikroskopischen Fragen:
    • "Wie oft hast du gestern dein Handy benutzt, um andere anzurufen?"
    • "Wie viele SMS hast du gestern verschickt?"
    • "Wie oft haben Sie in den letzten sieben Tagen Ihr Mobiltelefon benutzt, um andere anzurufen?"
    • "Wie oft haben Sie in den letzten sieben Tagen Ihr Mobiltelefon zum Senden oder Empfangen von SMS / SMS verwendet?"
    1. Wenn diese Mikrountersuchung abgeschlossen ist, fragen Sie nach, ob die Nutzungsdaten von Ihrem Telefon oder Dienstanbieter protokolliert wurden. Wie vergleicht sich die Verwendung von Self-Report mit Protokolldaten? Welches ist am genauesten, welches ist am wenigsten genau?
    2. Kombinieren Sie nun die Daten, die Sie gesammelt haben, mit den Daten anderer Personen in Ihrer Klasse (wenn Sie diese Aktivität für eine Klasse durchführen). Wiederholen Sie mit diesem größeren Datensatz den Teil (d).
  5. [ Mittel , Datensammlung ] Schuman und Presser (1996) argumentieren, dass Fragenordnungen für zwei Arten von Fragen von Bedeutung seien: Teilfragen, bei denen zwei Fragen dieselbe Spezifität aufweisen (z. B. Bewertungen von zwei Präsidentschaftskandidaten); und Teil-Ganzes-Fragen, bei denen eine allgemeine Frage einer spezifischeren Frage folgt (zB "Wie zufrieden bist du mit deiner Arbeit?" gefolgt von "Wie zufrieden bist du mit deinem Leben?").

    Sie charakterisieren ferner zwei Arten von Frage-Reihenfolge-Effekten: Konsistenz-Effekte treten auf, wenn Antworten auf eine spätere Frage näher an eine frühere Frage herangetragen werden (als sie es sonst wären); Kontrasteffekte treten auf, wenn größere Unterschiede zwischen Antworten auf zwei Fragen bestehen.

    1. Erstellen Sie ein Paar von Teil-Teil-Fragen, die Ihrer Meinung nach einen großen Frage-Reihenfolge-Effekt haben werden; ein Paar von Teil-Ganzen-Fragen, von denen Sie denken, dass sie einen großen Ordnungseffekt haben werden; und ein Paar Fragen, deren Reihenfolge du denkst, wäre egal. Führen Sie ein Umfrageexperiment für Amazon Mechanical Turk aus, um Ihre Fragen zu testen.
    2. Wie groß konnten Sie einen Part-Part-Effekt erzeugen? War es eine Konsistenz- oder Kontrastwirkung?
    3. Wie groß war ein Teil-Ganzes-Effekt, den Sie erstellen konnten? War es eine Konsistenz- oder Kontrastwirkung?
    4. Gab es einen Frage-Reihenfolge-Effekt in Ihrem Paar, wo Sie nicht der Meinung waren, dass die Reihenfolge von Bedeutung wäre?
  6. [ Mittel , Datensammlung ] Ausgehend von der Arbeit von Schuman und Presser beschreibt Moore (2002) eine separate Dimension des Frage-Ordnung-Effekts: additive und subtraktive Effekte. Während Kontrast- und Konsistenzeffekte als Ergebnis der gegenseitigen Bewertung der beiden Elemente durch die Befragten entstehen, werden additive und subtraktive Effekte erzeugt, wenn die Befragten sensibilisiert werden für den größeren Rahmen, in dem die Fragen gestellt werden. Lesen Sie Moore (2002) , entwerfen und führen Sie dann ein Umfrageexperiment mit MTurk durch, um additive oder subtraktive Effekte zu demonstrieren.

  7. [ hart , Datensammlung ] Christopher Antoun und Kollegen (2015) führten eine Studie durch, in der die Convenience-Beispiele aus vier verschiedenen Online-Rekrutierungsquellen verglichen wurden: MTurk, Craigslist, Google AdWords und Facebook. Entwerfen Sie eine einfache Umfrage und rekrutieren Sie Teilnehmer durch mindestens zwei verschiedene Online-Rekrutierungsquellen (diese Quellen können sich von den vier Quellen unterscheiden, die in Antoun et al. (2015) ).

    1. Vergleichen Sie die Kosten pro Rekrut in Bezug auf Geld und Zeit zwischen verschiedenen Quellen.
    2. Vergleichen Sie die Zusammensetzung der Proben aus verschiedenen Quellen.
    3. Vergleichen Sie die Qualität der Daten zwischen den Stichproben. Für Ideen zur Messung der Datenqualität bei den Befragten siehe Schober et al. (2015) .
    4. Was ist deine bevorzugte Quelle? Warum?
  8. [ Mittel ] In dem Bemühen, die Ergebnisse des EU-Referendums 2016 (dh Brexit) vorherzusagen, führte YouGov - ein internetbasiertes Marktforschungsunternehmen - Online-Umfragen eines Panels von etwa 800.000 Befragten im Vereinigten Königreich durch.

    Eine detaillierte Beschreibung des statistischen Modells von YouGov finden Sie unter https://yougov.co.uk/news/2016/06/21/yougov-referendum-model/. Grob gesagt teilte YouGov die Wähler in Typen ein, die auf der Wahlwahl 2015, dem Alter, den Qualifikationen, dem Geschlecht und dem Interviewdatum sowie dem Wahlkreis, in dem sie lebten, basierten. Zuerst verwendeten sie Daten, die von den YouGov-Panelisten gesammelt wurden, um unter den Wählern den Anteil der Personen jedes Wähltyps zu schätzen, die abstimmen wollten. Sie schätzten die Wahlbeteiligung jedes Wähler-Typs anhand der britischen Wahlstudie 2015 (BES), einer persönlichen Umfrage nach der Wahl, bei der die Wahlbeteiligung bestätigt wurde. Schließlich schätzten sie anhand der letzten Volkszählung und der jährlichen Bevölkerungsumfrage (mit einigen zusätzlichen Informationen aus anderen Datenquellen), wie viele Personen von jedem Wähler-Typ in der Wählerschaft waren.

    Drei Tage vor der Abstimmung zeigte YouGov eine Zwei-Punkte-Führung für Leave. Am Vorabend der Abstimmung zeigte die Umfrage an, dass das Ergebnis zu kurz war, um anzurufen (49/51 Remain). Die endgültige Tagesstudie prognostizierte 48/52 zugunsten von Remain (https://yougov.co.uk/news/2016/06/23/yougov-day-poll/). Tatsächlich hat diese Schätzung das Endergebnis (52/48 Leave) um vier Prozentpunkte verfehlt.

    1. Verwenden Sie das in diesem Kapitel beschriebene Gesamterhebungs-Framework, um einzuschätzen, was schief gegangen sein könnte.
    2. Die Antwort von YouGov nach der Wahl (https://yougov.co.uk/news/2016/06/24/brexit-follows-close-run-campaign/) erklärte: "Dies scheint zu einem großen Teil durch die Wahlbeteiligung bedingt zu sein wir haben gesagt, die ganze Zeit wäre entscheidend für das Ergebnis einer so fein ausbalancierten Rasse. Unser Wahlbeteiligungsmodell basierte zum Teil darauf, ob die Befragten bei den letzten Parlamentswahlen abgestimmt hatten und eine Wahlbeteiligung, die über der von allgemeinen Wahlen lag, das Modell insbesondere im Norden durcheinander brachte. "Ändert dies Ihre Antwort auf Teil (a)?
  9. [ Mittel , erfordert Codierung ] Schreiben Sie eine Simulation, um jeden der Darstellungsfehler in Abbildung 3.2 zu veranschaulichen.

    1. Erstellen Sie eine Situation, in der sich diese Fehler tatsächlich aufheben.
    2. Erstellen Sie eine Situation, in der sich die Fehler gegenseitig ergänzen.
  10. [ sehr schwer , erfordert Codierung ] Die Forschung von Blumenstock und Kollegen (2015) beinhaltete den Aufbau eines maschinellen Lernmodells, das digitale Trace-Daten zur Vorhersage von Umfrageantworten verwenden konnte. Jetzt werden Sie dasselbe mit einem anderen Datensatz versuchen. Kosinski, Stillwell, and Graepel (2013) herausgefunden, dass Facebook-Likes einzelne Merkmale und Attribute vorhersagen können. Überraschenderweise können diese Vorhersagen sogar noch genauer sein als die von Freunden und Kollegen (Youyou, Kosinski, and Stillwell 2015) .

    1. Lesen Sie Kosinski, Stillwell, and Graepel (2013) und replizieren Sie Abbildung 2. Ihre Daten sind verfügbar unter http://mypersonality.org/
    2. Jetzt replizieren Sie Abbildung 3.
    3. Schließlich, versuchen Sie ihr Modell auf Ihren eigenen Facebook-Daten: http://applymagicsauce.com/. Wie gut funktioniert es für dich?
  11. [ Mittel ] Toole et al. (2015) verwendeten Call Detail Records (CDRs) von Mobiltelefonen, um aggregierte Trends bei der Arbeitslosigkeit vorherzusagen.

    1. Vergleiche und kontrastiere das Studiendesign von Toole et al. (2015) mit denen von Blumenstock, Cadamuro, and On (2015) .
    2. Denken Sie, dass CDRs traditionelle Umfragen ersetzen, ergänzen oder überhaupt nicht für die Politik der Regierung zur Überwachung der Arbeitslosigkeit verwendet werden sollten? Warum?
    3. Welche Beweise würden Sie davon überzeugen, dass CDRs traditionelle Messgrößen für die Arbeitslosenquote vollständig ersetzen können?