Activités

  • degré de difficulté: facile facile , moyen moyen , difficile difficile , très dur très dur
  • nécessite des maths ( nécessite des maths )
  • nécessite un codage ( nécessite un codage )
  • collecte de données ( collecte de données )
  • mes favoris ( mon préféré )
  1. [ difficile , nécessite des maths ] Dans le chapitre, j'étais très positif à propos de la poststratification. Cependant, cela n'améliore pas toujours la qualité des estimations. Construire une situation où la post-stratification peut diminuer la qualité des estimations. (Pour un indice, voir Thomsen (1973) .)

  2. [ difficile , collecte de données , nécessite un codage ] Concevoir et mener une enquête non probabiliste sur Amazon Mechanical Turk pour s'informer de la propriété d'armes à feu et des attitudes à l'égard du contrôle des armes à feu. Pour pouvoir comparer vos estimations à celles dérivées d'un échantillon probabiliste, veuillez copier le texte de la question et les options de réponse directement à partir d'une enquête de haute qualité, comme celles menées par le Pew Research Center.

    1. Combien de temps dure votre sondage? Combien ça coûte? Comment les données démographiques de votre échantillon se comparent-elles aux données démographiques de la population américaine?
    2. Quelle est l'estimation brute de la possession d'une arme à feu en utilisant votre échantillon?
    3. Corrigez la non-représentativité de votre échantillon en utilisant une post-stratification ou une autre technique. Quelle est l'estimation de la possession d'une arme à feu?
    4. Comment vos estimations se comparent-elles à la dernière estimation d'un échantillon basé sur la probabilité? Que pensez-vous explique les écarts, s'il y en a?
    5. Répétez les questions (b) à (d) pour les attitudes envers le contrôle des armes à feu. Comment vos résultats diffèrent-ils?
  3. [ très dur , collecte de données , nécessite un codage ] Goel et ses collègues (2016) administré 49 questions attitudinales à choix multiples tirées de l'Enquête sociale générale (ESG) et sélectionné des enquêtes du Pew Research Centre auprès d'un échantillon non probabiliste de répondants tirés d'Amazon Mechanical Turk. Ils ont ensuite ajusté la non-représentativité des données en utilisant la post-stratification basée sur le modèle et ont comparé leurs estimations ajustées avec celles des enquêtes ESG et Pew basées sur la probabilité. Mener la même enquête sur Amazon Mechanical Turk et essayer de reproduire la figure 2a et la figure 2b en comparant vos estimations ajustées avec les estimations des plus récents cycles des enquêtes GSS et Pew. (Voir le tableau A2 en annexe pour la liste des 49 questions.)

    1. Comparez et comparez vos résultats avec ceux de Pew et GSS.
    2. Comparez et contrastez vos résultats avec ceux de l'enquête Mechanical Turk de Goel, Obeng, and Rothschild (2016) .
  4. [ moyen , collecte de données , nécessite un codage ] De nombreuses études utilisent des mesures autodéclarées de l'utilisation du téléphone mobile. C'est un cadre intéressant dans lequel les chercheurs peuvent comparer le comportement autodéclaré avec le comportement journalisé (voir, par exemple, Boase and Ling (2013) ). Deux comportements communs à poser sont l'appel et le texto, et deux trames communes sont "hier" et "la semaine dernière".

    1. Avant de recueillir des données, laquelle des mesures d'auto-évaluation est la plus exacte? Pourquoi?
    2. Recrutez cinq de vos amis pour participer à votre enquête. Veuillez résumer brièvement comment ces cinq amis ont été échantillonnés. Cette procédure d'échantillonnage pourrait-elle induire des biais spécifiques dans vos estimations?
    3. Posez-leur les questions suivantes de microsurvey:
    • "Combien de fois avez-vous utilisé votre téléphone portable pour appeler les autres hier?"
    • "Combien de SMS avez-vous envoyé hier?"
    • "Combien de fois avez-vous utilisé votre téléphone portable pour appeler les autres au cours des sept derniers jours?"
    • "Combien de fois avez-vous utilisé votre téléphone mobile pour envoyer ou recevoir des SMS / SMS au cours des sept derniers jours?"
    1. Une fois cette microsurveillance terminée, demandez à vérifier les données d'utilisation enregistrées par leur téléphone ou leur fournisseur de services. Comment l'utilisation de l'auto-évaluation se compare-t-elle aux données de journalisation? Lequel est le plus précis, lequel est le moins précis?
    2. Maintenant, combinez les données que vous avez recueillies avec les données d'autres personnes de votre classe (si vous faites cette activité pour une classe). Avec ce jeu de données plus grand, répétez la partie (d).
  5. [ moyen , collecte de données ] Schuman et Presser (1996) affirment que les ordres de questions seraient importants pour deux types de questions: les questions en partie-parties où deux questions sont au même niveau de spécificité (par exemple, les notes de deux candidats à la présidence); et des questions partielles où une question générale suit une question plus précise (p. ex. demander «Dans quelle mesure êtes-vous satisfait de votre travail?» suivi de «Dans quelle mesure êtes-vous satisfait de votre vie?»).

    Ils caractérisent en outre deux types d'effet d'ordre de question: les effets de cohérence se produisent lorsque les réponses à une question ultérieure sont rapprochées (qu'elles ne le seraient autrement) de celles données à une question antérieure; les effets de contraste se produisent lorsqu'il y a de plus grandes différences entre les réponses à deux questions.

    1. Créez une paire de questions en partie-parties qui, selon vous, auront un grand effet d'ordre de question; une paire de questions partielles qui, selon vous, auront un grand effet d'ordre; et une paire de questions dont vous pensez que l'ordre n'aurait pas d'importance. Exécutez une expérience d'enquête sur Amazon Mechanical Turk pour tester vos questions.
    2. Quelle est l'ampleur d'un effet partiel que vous avez pu créer? Était-ce un effet de consistance ou de contraste?
    3. Quelle est l'ampleur d'un effet partiel que vous avez pu créer? Était-ce un effet de consistance ou de contraste?
    4. Y at-il eu un effet d'ordre de question dans votre paire où vous ne pensiez pas que l'ordre aurait de l'importance?
  6. [ moyen , collecte de données En s'appuyant sur le travail de Schuman et Presser, Moore (2002) décrit une dimension distincte de l'effet de l'ordre des questions: les effets additifs et soustractifs. Alors que les effets de contraste et de cohérence sont produits à la suite des évaluations des deux éléments par les répondants, les effets additifs et soustractifs sont produits lorsque les répondants sont plus sensibles au cadre plus large dans lequel les questions sont posées. Lisez Moore (2002) , puis concevez et exécutez une expérience d'enquête sur MTurk pour démontrer les effets additifs ou soustractifs.

  7. [ difficile , collecte de données ] Christopher Antoun et ses collègues (2015) mené une étude comparant les échantillons de commodité obtenus à partir de quatre sources de recrutement en ligne différentes: MTurk, Craigslist, Google AdWords et Facebook. Concevoir une enquête simple et recruter des participants à travers au moins deux sources de recrutement en ligne différentes (ces sources peuvent être différentes des quatre sources utilisées dans Antoun et al. (2015) ).

    1. Comparez le coût par recrue - en termes d'argent et de temps - entre différentes sources.
    2. Comparer la composition des échantillons obtenus à partir de différentes sources.
    3. Comparez la qualité des données entre les échantillons. Pour des idées sur la façon de mesurer la qualité des données des répondants, voir Schober et al. (2015) .
    4. Quelle est votre source préférée? Pourquoi?
  8. [ moyen ] Afin de prédire les résultats du référendum de 2016 sur l'UE (Brexit), YouGov, une société d'études de marché basée sur Internet, a mené des sondages en ligne auprès d'un panel d'environ 800 000 répondants au Royaume-Uni.

    Une description détaillée du modèle statistique de YouGov peut être trouvée à https://yougov.co.uk/news/2016/06/21/yougov-referendum-model/. Grosso modo, YouGov a divisé les électeurs en types selon le choix du vote pour les élections générales de 2015, l'âge, les qualifications, le sexe et la date de l'interview, ainsi que la circonscription dans laquelle ils vivaient. Premièrement, ils ont utilisé les données recueillies auprès des panélistes de YouGov pour estimer, parmi ceux qui ont voté, la proportion de personnes de chaque type d'électeur qui avaient l'intention de voter. Ils ont estimé le taux de participation de chaque type d'électeur à l'aide de la British Election Study (BES) 2015, une enquête en face-à-face post-électorale, qui a validé le taux de participation des listes électorales. Enfin, ils ont estimé le nombre de personnes de chaque type d'électeur dans l'électorat, sur la base du dernier recensement et de l'Enquête annuelle sur la population (avec quelques informations supplémentaires provenant d'autres sources de données).

    Trois jours avant le vote, YouGov a montré une avance de deux points pour le congé. A la veille du vote, le sondage indiquait que le résultat était trop proche de l'appel (49/51 Reste). L'étude finale de la journée prédit 48/52 en faveur de Remain (https://yougov.co.uk/news/2016/06/23/yougov-day-poll/). En fait, cette estimation a raté le résultat final (congé 52/48) de quatre points de pourcentage.

    1. Utilisez le cadre d'erreur d'enquête totale discuté dans ce chapitre pour évaluer ce qui pourrait avoir mal tourné.
    2. La réponse de YouGov après l'élection (https://yougov.co.uk/news/2016/06/24/brexit-follows-close-run-campaign/) a expliqué: "Cela semble en grande partie dû au taux de participation - quelque chose qui nous avons dit que tout au long serait crucial pour le résultat d'une telle course finement équilibrée. Notre modèle de participation était fondé, en partie, sur le fait que les répondants avaient voté aux dernières élections générales et qu'un taux de participation supérieur à celui des élections générales bouleversait le modèle, particulièrement dans le Nord. »Cela change-t-il votre réponse à la partie a)?
  9. [ moyen , nécessite un codage ] Écris une simulation pour illustrer chacune des erreurs de représentation de la figure 3.2.

    1. Créer une situation où ces erreurs s'annulent réellement.
    2. Créez une situation où les erreurs se compliquent mutuellement.
  10. [ très dur , nécessite un codage ] La recherche de Blumenstock et ses collègues (2015) impliqué la construction d'un modèle d'apprentissage automatique qui pourrait utiliser des données de trace numériques pour prédire les réponses aux enquêtes. Maintenant, vous allez essayer la même chose avec un ensemble de données différent. Kosinski, Stillwell, and Graepel (2013) constaté que les goûts de Facebook peuvent prédire des traits et des attributs individuels. Étonnamment, ces prédictions peuvent être encore plus précises que celles d'amis et de collègues (Youyou, Kosinski, and Stillwell 2015) .

    1. Lisez Kosinski, Stillwell, and Graepel (2013) , et reproduisez la figure 2. Leurs données sont disponibles sur http://mypersonality.org/
    2. Maintenant, reproduisez la figure 3.
    3. Enfin, essayez leur modèle sur vos propres données Facebook: http://applymagicsauce.com/. À quel point cela fonctionne-t-il pour vous?
  11. [ moyen ] Toole et al. (2015) utilisé les enregistrements détaillés des appels (CDR) des téléphones mobiles pour prédire les tendances globales du chômage.

    1. Comparer et contraster le modèle d'étude de Toole et al. (2015) avec celle de Blumenstock, Cadamuro, and On (2015) .
    2. Pensez-vous que les CDR devraient remplacer les enquêtes traditionnelles, les compléter ou ne pas du tout être utilisées par les décideurs politiques pour suivre le chômage? Pourquoi?
    3. Quelles preuves vous convaincraient que les CDR peuvent remplacer complètement les mesures traditionnelles du taux de chômage?