Aktivitäten

Schlüssel:

  • Schwierigkeitsgrad: leicht einfach , Mittel Mittel , hart hart , sehr schwer sehr schwer
  • erfordert Mathematik ( erfordert Mathe )
  • erfordert Codierung ( erfordert Codierung )
  • Datensammlung ( Datensammlung )
  • meine Favoriten ( mein Favorit )
  1. [ hart . erfordert Mathe Im Kapitel], war ich sehr positiv über die nachträgliche Schichtung. Allerdings ist es nicht immer die Qualität der Schätzungen zu verbessern. Konstruieren Sie eine Situation, in der die nachträgliche Schichtung kann abnehmen kann die Qualität der Schätzungen. (Für einen Hinweis finden Thomsen (1973) ).

  2. [ hart . Datensammlung . erfordert Codierung eine nicht-Wahrscheinlichkeit Umfrage auf Amazon MTurk] Konzeption und Durchführung über Waffenbesitz zu stellen ( "Haben Sie oder hat jemand in Ihrem Haushalt, besitzen eine Pistole, Gewehr oder Pistole? Ist, dass Sie oder jemand anderes in Ihrem Haushalt?") und Einstellungen gegenüber Waffenkontrolle ( "Was Sie denken, tun, ist noch wichtiger, um das Recht der Amerikaner schützen Waffen zu besitzen, oder Waffenbesitz zu kontrollieren?").

    1. Wie lange dauert Ihre Umfrage teilnehmen? Wie viel kostet es? Wie vergleichen die Demografie Ihrer Probe auf die demografische Entwicklung der US-Bevölkerung?
    2. Was ist die grobe Schätzung von Waffenbesitz Ihrer Probe mit?
    3. Richtige für die Nicht-Repräsentativität der Stichprobe mit post-Schichtung oder eine andere Technik. Was ist nun die Schätzung von Waffenbesitz?
    4. Wie Ihre Schätzungen auf den jüngsten Schätzungen von Pew Research Center vergleichen? Was denken Sie, die Diskrepanzen zu erklären, wenn es eine gibt?
    5. Wiederholen Sie die Übung 2-5 für Haltung gegenüber Waffenkontrolle. Wie Sie Ihre Ergebnisse unterscheiden?
  3. [ sehr schwer . Datensammlung . erfordert Codierung ] Goel und Kollegen (2016) von der General Social Survey (GSS) und wählen Sie Umfragen des Pew Research Center auf Amazon MTurk gezogen , um eine nicht wahrscheinlichkeitsbasierte Umfrage , bestehend aus 49 Multiple-Choice - Fragen einstellungs verabreicht. Sie passen dann für die Nicht-Repräsentativität der Daten unter Verwendung von modellbasierten post-Schichtung (Herr P), und vergleichen Sie die angepassten Schätzungen mit denen geschätzt unter Verwendung von wahrscheinlichkeitsbasierte GSS / Pew Umfragen. Führen Sie die gleiche Umfrage auf MTurk und versuchen, 2a und 2b zu replizieren, indem Sie Ihre angepassten Schätzungen mit den Schätzungen aus den jüngsten Runden von GSS / Pew Vergleich (siehe Anhang Tabelle A2 für die Liste von 49 Fragen).

    1. Vergleichen Sie die Ergebnisse mit den Ergebnissen von Pew und GSS Kontrast.
    2. Vergleichen und Gegen Ihre Ergebnisse zu den Ergebnissen der Umfrage MTurk in Goel, Obeng, and Rothschild (2016) .
  4. [ Mittel . Datensammlung . erfordert Codierung ] Viele Studien Selbst Bericht Maßnahmen der Handy-Aktivitätsdaten verwenden. Dies ist eine interessante Umgebung , wo die Forscher selbst berichteten Verhalten mit protokollierten Verhalten (siehe zB vergleichen Boase and Ling (2013) ). Zwei gemeinsame Verhaltensweisen zu fordern und SMS, und zwei gemeinsamen Zeitrahmen sind "gestern" und "in der vergangenen Woche." Fragen

    1. Bevor irgendwelche Daten zu sammeln, die von der Selbst Bericht Maßnahmen denken Sie, ist genauer? Warum?
    2. Rekrutieren Sie 5 Ihrer Freunde in Ihrer Umfrage zu sein. Bitte kurz zusammenfassen, wie diese fünf Freunde abgetastet wurden. Könnte das Stichprobenverfahren spezifische Verzerrungen in Ihre Schätzungen induzieren?
    3. Bitte fragen Sie die folgende Mikro Umfrage:
    • "Wie oft haben Sie verwendet Handy andere gestern anrufen?"
    • "Wie viele SMS-Nachrichten haben senden Sie gestern?"
    • "Wie oft haben Sie mit Ihrem Handy andere in den letzten sieben Tagen anrufen?"
    • "Wie oft haben Sie mit Ihrem Handy zu senden oder Textnachrichten / SMS in den letzten sieben Tagen erhalten?" Sobald die Umfrage abgeschlossen ist, bitten, ihre Nutzungsdaten zu überprüfen, wie von ihrem Handy oder Service-Provider angemeldet.
    1. Wie funktioniert selbst Bericht Nutzung vergleichen Daten zu protokollieren? Welche ist am genauesten, was am wenigsten genau?
    2. Nun kombinieren, um die Daten, die Sie mit den Daten von anderen Menschen in der Klasse gesammelt haben (wenn Sie diese Aktivität für eine Klasse tun). Mit diesem größeren Datensatz wiederholen Teil (d).
  5. [ Mittel . Datensammlung ] Schuman und Presser (1996) argumentieren , dass Frage Aufträge für zwei Arten von Beziehungen zwischen Fragen Materie würde: Teil Teil Fragen , bei denen zwei Fragen auf der gleichen Ebene der Spezifität sind (zB Bewertungen von zwei Präsidentschaftskandidaten); und Teil-Ganzes-Fragen, bei denen eine allgemeine Frage folgt eine spezifischere Frage (zB zu fragen: "Wie zufrieden sind Sie mit Ihrer Arbeit?", gefolgt von "Wie zufrieden sind Sie mit Ihrem Leben?").

    Sie charakterisieren zwei weitere Arten von Fragen, um Wirkung: Konsistenz Effekte treten auf, wenn Antworten auf eine spätere Frage näher gebracht denen zu einer früheren Frage gegeben (als sie es sonst wäre); Kontrasteffekte treten auf, wenn es größere Unterschiede zwischen Antworten auf zwei Fragen.

    1. Erstellen Sie ein Paar von Teil Teil Fragen, die Sie denken, wird eine große Frage, um Wirkung haben, ein Paar von Teil-Ganzes-Fragen, die Sie denken, wird eine große Order-Effekt haben, und ein anderes Paar von Fragen, deren Reihenfolge Sie denken, egal wäre. Führen Sie eine Umfrage Experiment auf MTurk Ihre Fragen zu testen.
    2. Wie groß war der Teil-Teil-Effekt waren Sie in der Lage zu schaffen? War es eine Konsistenz oder Kontrastwirkung?
    3. Wie groß war der Teil-Ganzes-Effekt waren Sie in der Lage zu schaffen? War es eine Konsistenz oder Kontrastwirkung?
    4. Gab es eine Frage-Order-Effekt in Ihrem Paar, wo Sie die Reihenfolge egal, würde nicht glaube?
  6. [ Mittel . Datensammlung ] Aufbauend auf der Arbeit von Schuman und Presser, Moore (2002) beschreibt eine separate Dimension der Wirkung Frage um: additiven und subtraktiven. Während Kontrast und Konsistenz Effekte als Folge der Befragten Auswertungen der zwei Elemente in Bezug zueinander, additive und subtraktive Wirkungen werden erzeugt, wenn Befragten empfindlicher auf dem größeren Rahmen gemacht werden, innerhalb der die Fragen gestellt werden. Lesen Moore (2002) , dann Design und eine Erhebung Versuch MTurk laufen additive oder subtraktive Effekte zu demonstrieren.

  7. [ hart . Datensammlung ] Christopher Antoun und Kollegen (2015) führte eine Studie , die die Bequemlichkeit Proben erhalten aus vier verschiedenen Online - Recruiting Quellen zu vergleichen: MTurk, Craigslist, Google AdWords und Facebook. Entwerfen Sie eine einfache Umfrage und gewinnen die Teilnehmer durch mindestens zwei verschiedene Online - Recruiting Quellen (sie können verschiedene Quellen aus den vier Quellen verwendet in Antoun et al. (2015) ).

    1. Vergleichen Sie die Kosten pro rekrutieren, in Form von Geld und Zeit, zwischen den verschiedenen Quellen.
    2. Vergleichen der Zusammensetzung der aus verschiedenen Quellen erhaltenen Proben.
    3. Vergleichen der Qualität der Daten zwischen den Proben. Für Ideen , wie die Datenqualität von Befragten zu messen, siehe Schober et al. (2015) .
    4. Was ist Ihre bevorzugte Quelle? Warum?
  8. [ Mittel ] YouGov, ein Internet-Marktforschungsunternehmen, durchgeführt Online-Umfragen von einem Panel von über 800.000 Befragten in Großbritannien und verwendet Herr P. das Ergebnis der EU-Referendum (dh Brexit), wo die britischen Wähler stimmen entweder zu bleiben, um vorherzusagen, in oder die Europäische Union verlassen.

    Eine detaillierte Beschreibung des statistischen Modells YouGov ist hier (https://yougov.co.uk/news/2016/06/21/yougov-referendum-model/). Grob gesagt, partitioniert YouGov Wähler in Typen auf 2015 allgemeine Wahlen Abstimmung Wahl basiert, Alter, Qualifikation, Geschlecht, Datum des Interviews, sowie der Wahlkreis in der sie leben. Zunächst verwendeten sie Daten von den YouGov Diskussionsteilnehmer gesammelt zu schätzen, unter denen, die den Anteil der Menschen jeder Wähler Typ wählen, die verlassen beabsichtigen, zu stimmen. Sie schätzen die Wahlbeteiligung der einzelnen Wählertyp unter Verwendung der 2015 britischen Wahlstudie (BES) nach der Wahl face-to-face-Umfrage, die Wahlbeteiligung von den Wähler validiert. Schließlich schätzen sie, wie viele Menschen dort jeder Wähler Art sind in der Wähler basierend auf neuesten Volkszählung und Annual Population Survey (mit einigen Zusatzinformationen aus den BES, Umfrage YouGov Daten aus der ganzen allgemeinen Wahlen, und Informationen darüber, wie viele Menschen stimmten für jede Partei in jedem Wahlkreis).

    Drei Tage vor der Abstimmung zeigte YouGov zwei Punkte Vorsprung für Leave. Am Vorabend der Abstimmung zeigte die Umfrage zu nahe zu rufen (49-51 bleiben). Der endgültige on-the-Tage-Studie prognostiziert 48/52 zugunsten von Remain (https://yougov.co.uk/news/2016/06/23/yougov-day-poll/). In der Tat, verpasste diese Schätzung auf das Endergebnis (52-48 Leave) um vier Prozentpunkte.

    1. Verwenden Sie den gesamten Umfrage Fehlerrahmen in diesem Kapitel behandelt zu beurteilen, was schief gegangen sein könnte.
    2. YouGov Antwort nach der Wahl (https://yougov.co.uk/news/2016/06/24/brexit-follows-close-run-campaign/) erklärt: "Das ist in einem großen Teil scheint aufgrund Beteiligung - etwas, das wir haben die ganze Zeit sagte zu dem Ergebnis eines solchen fein austarierte Rennen entscheidend sein würde. Unsere Weichen Modell beruhte teilweise auf, ob die Befragten in der letzten allgemeinen Wahlen und eine Wahlbeteiligung Ebene über der allgemeinen Wahlen aufregen das Modell gestimmt hatten, vor allem im Norden. "Tut dies zu ändern Ihre Antwort auf Teil (a)?
  9. [ Mittel . erfordert Codierung Schreiben] eine Simulation jedes der Darstellungsfehler in Abbildung 3.1 zu erläutern.

    1. Erstellen Sie eine Situation, wo diese Fehler tatsächlich aufheben.
    2. Erstellen Sie eine Situation, in der die Fehler einander Verbindung.
  10. [ sehr schwer . erfordert Codierung ] Die Forschung von Blumenstock und Kollegen (2015) beteiligt , eine Maschine Lernmodell aufzubauen , die digitale Trace - Daten nutzen könnten Antworten auf die Umfrage zu prognostizieren. Nun, werden Sie das Gleiche mit einem anderen Daten - Set zu versuchen. Kosinski, Stillwell, and Graepel (2013) fand heraus , dass Facebook mag können einzelne Merkmale und Attribute vorhersagen. Überraschenderweise lassen sich diese Vorhersagen noch genauer sein als die von Freunden und Kollegen (Youyou, Kosinski, and Stillwell 2015) .

    1. Lesen Sie Kosinski, Stillwell, and Graepel (2013) , und replizieren Abbildung 2. Ihre Daten verfügbar sind hier: http://mypersonality.org/
    2. Nun replizieren Abbildung 3.
    3. Schließlich versuchen, ihr Modell auf dem eigenen Facebook-Daten: http://applymagicsauce.com/. Wie gut funktioniert es für Sie arbeiten?
  11. [ Mittel ] Toole et al. (2015) Verwendung Call Detail Records (CDRs) von Mobiltelefonen insgesamt die Entwicklung der Arbeitslosigkeit zu prognostizieren.

    1. Vergleichen und das Design von Kontrast Toole et al. (2015) mit Blumenstock, Cadamuro, and On (2015) .
    2. Denken Sie, CDRs traditionelle Umfragen ersetzen soll, ergänzen sie oder gar nicht für politische Entscheidungsträger verwendet werden, die Arbeitslosigkeit zu verfolgen? Warum?
    3. Welche Beweise würden überzeugen, dass CDRs vollständig traditionelle Maßnahmen der Arbeitslosenquote ersetzen kann?