attività

  • grado di difficoltà: facile facile , medio medio , difficile difficile , molto difficile molto difficile
  • richiede matematica ( richiede la matematica )
  • richiede la codifica ( richiede la codifica )
  • raccolta dati ( raccolta dati )
  • i miei preferiti ( il mio preferito )
  1. [ difficile , richiede la matematica ] Nel capitolo, sono stato molto positivo sulla post-stratificazione. Tuttavia, questo non migliora sempre la qualità delle stime. Costruisci una situazione in cui la post-stratificazione può ridurre la qualità delle stime. (Per un suggerimento, vedi Thomsen (1973) .)

  2. [ difficile , raccolta dati , richiede la codifica ] Progetta e conduci un sondaggio non probabilistico su Amazon Mechanical Turk per chiedere informazioni sulla proprietà delle armi e gli atteggiamenti nei confronti del controllo delle armi. Affinché sia ​​possibile confrontare le stime con quelle ottenute da un campione probabilistico, si prega di copiare il testo delle domande e le opzioni di risposta direttamente da un'indagine di alta qualità come quelle eseguite dal Pew Research Center.

    1. Quanto dura il tuo sondaggio? Quanto costa? Come si confrontano i dati demografici del campione con i dati demografici della popolazione statunitense?
    2. Qual è la stima grezza della proprietà della pistola usando il tuo campione?
    3. Corretto per la non rappresentatività del campione usando la post-stratificazione o qualche altra tecnica. Ora, qual è la stima della proprietà della pistola?
    4. Come si confrontano le stime con l'ultima stima di un campione basato sulla probabilità? Cosa ne pensi spiega le discrepanze, se ce ne sono?
    5. Ripeti le domande (b) - (d) per gli atteggiamenti verso il controllo delle armi. Come differiscono le tue scoperte?
  3. [ molto difficile , raccolta dati , richiede la codifica ] Goel e colleghi (2016) somministrato 49 domande attitudinali a scelta multipla tratte dal sondaggio sociale generale (GSS) e hanno selezionato sondaggi dal Pew Research Center a un campione non probabilistico di intervistati tratto da Amazon Mechanical Turk. Si sono quindi adeguati alla non rappresentatività dei dati utilizzando la post-stratificazione basata su modelli e hanno confrontato le loro stime corrette con quelle delle indagini GSS e Pew basate sulla probabilità. Conduci lo stesso sondaggio su Amazon Mechanical Turk e prova a replicare la figura 2a e la figura 2b confrontando le stime corrette con le stime dei cicli più recenti delle indagini GSS e Pew. (Vedi l'appendice tabella A2 per l'elenco di 49 domande.)

    1. Confronta e confronta i tuoi risultati con quelli di Pew e GSS.
    2. Confronta e confronta i tuoi risultati con quelli del sondaggio Mechanical Turk a Goel, Obeng, and Rothschild (2016) .
  4. [ medio , raccolta dati , richiede la codifica ] Molti studi utilizzano misure auto-segnalate sull'uso del telefono cellulare. Questo è un ambiente interessante in cui i ricercatori possono confrontare il comportamento auto-segnalato con il comportamento registrato (vedi ad esempio, Boase and Ling (2013) ). Due comportamenti comuni su cui chiedere sono chiamate e messaggi di testo e due intervalli di tempo comuni sono "ieri" e "nell'ultima settimana".

    1. Prima di raccogliere dati, quale delle misure di autovalutazione pensi sia più accurato? Perché?
    2. Recluta cinque dei tuoi amici nella tua indagine. Per favore riassumi brevemente come sono stati campionati questi cinque amici. Potrebbe questa procedura di campionamento indurre pregiudizi specifici nelle stime?
    3. Chiedi loro le seguenti domande su microsurvey:
    • "Quante volte hai usato il tuo telefono cellulare per chiamare gli altri ieri?"
    • "Quanti messaggi di testo hai inviato ieri?"
    • "Quante volte hai usato il tuo telefono cellulare per chiamare gli altri negli ultimi sette giorni?"
    • "Quante volte hai usato il tuo telefono cellulare per inviare o ricevere messaggi di testo / SMS negli ultimi sette giorni?"
    1. Una volta completato questo microsurvey, chiedere di verificare i dati di utilizzo registrati dal proprio telefono o fornitore di servizi. In che modo l'utilizzo del report self-service viene confrontato con i dati del registro? Qual è il più preciso, che è meno preciso?
    2. Ora combina i dati che hai raccolto con i dati di altre persone della tua classe (se stai facendo questa attività per una classe). Con questo set di dati più grande, ripetere la parte (d).
  5. [ medio , raccolta dati ] Schuman e Presser (1996) sostengono che gli ordini di domande sarebbero importanti per due tipi di domande: domande parziali in cui due domande sono allo stesso livello di specificità (ad esempio, le valutazioni di due candidati alla presidenza); e domande parzialmente intere in cui una domanda generale segue una domanda più specifica (ad esempio, chiedendo "Quanto sei soddisfatto del tuo lavoro?" seguito da "Quanto sei soddisfatto della tua vita?").

    Descrivono ulteriormente due tipi di effetti dell'ordine delle domande: gli effetti di coerenza si verificano quando le risposte a una domanda successiva vengono avvicinate (rispetto a quelle che sarebbero altrimenti) a quelle date a una domanda precedente; gli effetti di contrasto si verificano quando ci sono maggiori differenze tra le risposte a due domande.

    1. Crea una coppia di domande di parti che ritieni abbiano un grande effetto dell'ordine di domande; un paio di domande parziali che pensate avranno un grande effetto dell'ordine; e un paio di domande il cui ordine pensi non abbia importanza. Esegui un esperimento di sondaggio su Amazon Mechanical Turk per testare le tue domande.
    2. Quanto è stato grande l'effetto di parte parziale che sei riuscito a creare? Era una coerenza o un effetto di contrasto?
    3. Quanto è stato in grado di creare un effetto complessivo parziale? Era una coerenza o un effetto di contrasto?
    4. C'è stato un effetto dell'ordine delle domande nella tua coppia in cui non pensavi che l'ordine sarebbe stato importante?
  6. [ medio , raccolta dati Basandosi sul lavoro di Schuman e Presser, Moore (2002) descrive una dimensione separata dell'effetto ordine delle domande: effetti additivi e sottrattivi. Mentre gli effetti di contrasto e coerenza sono prodotti come conseguenza delle valutazioni degli intervistati dei due elementi in relazione l'uno con l'altro, gli effetti additivi e sottrattivi vengono prodotti quando gli intervistati sono resi più sensibili al quadro più ampio all'interno del quale si pongono le domande. Leggi Moore (2002) , quindi progetta ed esegui un esperimento di indagine su MTurk per dimostrare effetti additivi o sottrattivi.

  7. [ difficile , raccolta dati ] Christopher Antoun e colleghi (2015) condotto uno studio confrontando i campioni di convenienza ottenuti da quattro diverse fonti di reclutamento online: MTurk, Craigslist, Google AdWords e Facebook. Progetta una semplice indagine e recluta i partecipanti attraverso almeno due diverse fonti di reclutamento online (queste fonti possono essere diverse dalle quattro fonti utilizzate in Antoun et al. (2015) ).

    1. Confronta il costo per recluta, in termini di denaro e tempo, tra diverse fonti.
    2. Confrontare la composizione dei campioni ottenuti da diverse fonti.
    3. Confronta la qualità dei dati tra i campioni. Per idee su come misurare la qualità dei dati dagli intervistati, vedi Schober et al. (2015) .
    4. Qual è la tua fonte preferita? Perché?
  8. [ medio ] Nel tentativo di prevedere i risultati del referendum UE 2016 (cioè Brexit), YouGov - una società di ricerche di mercato basata su Internet - ha condotto sondaggi online di un panel di circa 800.000 intervistati nel Regno Unito.

    Una descrizione dettagliata del modello statistico di YouGov è disponibile su https://yougov.co.uk/news/2016/06/21/yougov-referendum-model/. In parole povere, YouGov ha suddiviso gli elettori in tipi basati sulla scelta del voto delle elezioni generali del 2015, sull'età, sulle qualifiche, sul genere e sulla data dell'intervista, nonché sul collegio elettorale in cui vivevano. Innanzitutto, hanno utilizzato i dati raccolti dai relatori di YouGov per stimare, tra coloro che hanno votato, la proporzione di persone di ciascun tipo di elettore che intendevano votare. Hanno stimato l'affluenza di ciascun tipo di elettore utilizzando il British Election Study (BES) del 2015, un'indagine face-to-face post-elettorale, che ha convalidato l'affluenza alle liste elettorali. Infine, hanno stimato quante persone ci fossero di ogni tipo di elettore nell'elettorato, sulla base dell'ultimo censimento e indagine annuale sulla popolazione (con alcune informazioni aggiuntive da altre fonti di dati).

    Tre giorni prima del voto, YouGov ha mostrato un vantaggio di due punti per il Leave. Alla vigilia della votazione, il sondaggio indicava che il risultato era troppo vicino per chiamare (49/51 Remain). L'ultimo studio giornaliero prevedeva 48/52 in favore di Remain (https://yougov.co.uk/news/2016/06/23/yougov-day-poll/). In realtà, questa stima ha mancato il risultato finale (52/48 congedo) di quattro punti percentuali.

    1. Utilizzare il quadro di errore totale dell'indagine discusso in questo capitolo per valutare cosa potrebbe essere andato storto.
    2. La risposta di YouGov dopo l'elezione (https://yougov.co.uk/news/2016/06/24/brexit-follows-close-run-campaign/) ha spiegato: "Questo sembra in gran parte dovuto all'affluenza - qualcosa che abbiamo sempre detto che sarebbe stato fondamentale per l'esito di una gara così equilibrata. Il nostro modello di partecipazione si è basato, in parte, sul fatto che gli intervistati abbiano votato alle ultime elezioni generali e un livello di affluenza superiore a quello delle elezioni generali abbia sconvolto il modello, in particolare nel Nord. "Cambia la tua risposta alla parte (a)?
  9. [ medio , richiede la codifica ] Scrivere una simulazione per illustrare ciascuno degli errori di rappresentazione nella figura 3.2.

    1. Crea una situazione in cui questi errori si annullano effettivamente.
    2. Crea una situazione in cui gli errori si combinano a vicenda.
  10. [ molto difficile , richiede la codifica ] La ricerca di Blumenstock e colleghi (2015) comportato la costruzione di un modello di apprendimento automatico che potesse utilizzare i dati di traccia digitale per prevedere le risposte al sondaggio. Ora proverai la stessa cosa con un set di dati diverso. Kosinski, Stillwell, and Graepel (2013) scoperto che i Mi piace di Facebook possono predire tratti e attributi individuali. Sorprendentemente, queste previsioni possono essere anche più accurate di quelle di amici e colleghi (Youyou, Kosinski, and Stillwell 2015) .

    1. Leggi Kosinski, Stillwell, and Graepel (2013) e replica la figura 2. I loro dati sono disponibili su http://mypersonality.org/
    2. Ora, replica la figura 3.
    3. Infine, prova il loro modello sui tuoi dati di Facebook: http://applymagicsauce.com/. Quanto bene funziona per te?
  11. [ medio ] Toole et al. (2015) utilizzato i record di dettaglio delle chiamate (CDR) dai telefoni cellulari per prevedere le tendenze aggregate della disoccupazione.

    1. Confrontate e confrontate il design dello studio di Toole et al. (2015) con quello di Blumenstock, Cadamuro, and On (2015) .
    2. Pensi che i CDR dovrebbero sostituire i sondaggi tradizionali, integrarli o non essere usati affatto dai responsabili delle politiche governative per tenere traccia della disoccupazione? Perché?
    3. Quali prove potrebbero convincerti che i CDR possono sostituire completamente le misure tradizionali del tasso di disoccupazione?