6.3 digitale è diverso

La ricerca sociale nell'era digitale ha caratteristiche diverse e pone dunque diverse questioni etiche.

Nell'era analogica, la maggior parte della ricerca sociale aveva una scala relativamente limitata e operava all'interno di un insieme di regole ragionevolmente chiare. La ricerca sociale nell'era digitale è diversa. I ricercatori, spesso in collaborazione con aziende e governi, hanno più potere sui partecipanti rispetto al passato e le regole su come utilizzare tale potere non sono ancora chiare. Con il potere intendo semplicemente la capacità di fare cose alle persone senza il loro consenso o consapevolezza. Il tipo di cose che i ricercatori possono fare alle persone includono l'osservazione del loro comportamento e l'iscrizione a esperimenti. Poiché il potere dei ricercatori di osservare e turbare è in aumento, non c'è stato un aumento equivalente della chiarezza su come dovrebbe essere usata questa energia. In realtà, i ricercatori devono decidere come esercitare il loro potere sulla base di regole, leggi e norme incoerenti e sovrapposte. Questa combinazione di potenti capacità e linee guida vaghe crea situazioni difficili.

Una serie di poteri che i ricercatori hanno ora è la capacità di osservare il comportamento delle persone senza il loro consenso o consapevolezza. I ricercatori potrebbero, ovviamente, farlo in passato, ma nell'era digitale, la scala è completamente diversa, un fatto che è stato proclamato ripetutamente da molti fan delle grandi fonti di dati. In particolare, se ci spostiamo dalla scala di un singolo studente o professore e consideriamo invece la scala di una società o di istituzioni governative con cui i ricercatori collaborano sempre di più, le potenziali questioni etiche diventano complesse. Una metafora che penso aiuti le persone a visualizzare l'idea della sorveglianza di massa è il panopticon . Originariamente proposto da Jeremy Bentham come un'architettura per le prigioni, il panopticon è un edificio circolare con celle costruite intorno a una torre di avvistamento centrale (figura 6.3). Chiunque occupa questa torre di avvistamento può osservare il comportamento di tutte le persone nelle stanze senza essere visto. La persona nella torre di avvistamento è quindi una veggente invisibile (Foucault 1995) . Per alcuni difensori della privacy, l'era digitale ci ha trasformato in una prigione panottica in cui aziende e governi tecnologici stanno costantemente osservando e ricodificando il nostro comportamento.

Figura 6.3: Progetto per il carcere di Panopticon, proposto inizialmente da Jeremy Bentham. Al centro c'è un veggente invisibile che può osservare il comportamento di tutti ma non può essere osservato. Disegno di Willey Reveley, 1791 (Fonte: Wikimedia Commons).

Figura 6.3: Progetto per il carcere di Panopticon, proposto inizialmente da Jeremy Bentham. Al centro c'è un veggente invisibile che può osservare il comportamento di tutti ma non può essere osservato. Disegno di Willey Reveley, 1791 (Fonte: Wikimedia Commons ).

Per portare questa metafora un po 'oltre, quando molti ricercatori sociali pensano all'era digitale, si immaginano all'interno della torre di avvistamento, osservando il comportamento e creando un database principale che potrebbe essere utilizzato per fare ogni tipo di ricerca eccitante e importante. Ma ora, piuttosto che immaginarti nella torre di guardia, immagina te stesso in una delle celle. Quel master database inizia ad assomigliare a quello che Paul Ohm (2010) ha definito un database di rovine , che potrebbe essere usato in modi non etici.

Alcuni lettori di questo libro hanno la fortuna di vivere in paesi dove si fidano dei loro veggenti invisibili per usare i loro dati in modo responsabile e per proteggerli dagli avversari. Gli altri lettori non sono così fortunati e sono sicuro che le questioni sollevate dalla sorveglianza di massa sono molto chiare per loro. Ma credo che anche per i fortunati lettori ci sia ancora una preoccupazione importante sollevata dalla sorveglianza di massa: uso secondario non previsto . Cioè, un database creato per uno scopo, ad esempio il targeting degli annunci, potrebbe un giorno essere utilizzato per uno scopo molto diverso. Un orribile esempio di uso secondario imprevisto si è verificato durante la seconda guerra mondiale, quando i dati del censimento del governo sono stati utilizzati per facilitare il genocidio che si stava verificando contro ebrei, rom e altri (Seltzer and Anderson 2008) . Gli statistici che raccoglievano i dati durante i periodi di pace quasi certamente avevano buone intenzioni e molti cittadini si fidavano di loro per usare i dati in modo responsabile. Ma quando il mondo cambiò - quando i nazisti salirono al potere - questi dati permisero un uso secondario che non era mai stato previsto. Molto semplicemente, una volta che esiste un database master, è difficile prevedere chi potrebbe accedervi e come verrà utilizzato. In effetti, William Seltzer e Margo Anderson (2008) hanno documentato 18 casi in cui i sistemi di dati sulla popolazione sono stati coinvolti o potenzialmente coinvolti in violazioni dei diritti umani (tabella 6.1). Inoltre, come sottolineano Seltzer e Anderson, questa lista è quasi certamente una sottostima perché la maggior parte degli abusi avviene in segreto.

Tabella 6.1: Casi in cui i sistemi di dati demografici sono stati coinvolti o potenzialmente coinvolti in violazioni dei diritti umani. Vedi Seltzer and Anderson (2008) per ulteriori informazioni su ciascun caso e criteri di inclusione. Alcuni, ma non tutti, di questi casi hanno comportato un uso secondario non previsto.
Posto Tempo Individui o gruppi mirati Sistema di dati Violazione dei diritti umani o presunta intenzione dello stato
Australia XIX e inizio XX secolo Aborigeni Registrazione della popolazione Migrazione forzata, elementi di genocidio
Cina 1966-1976 Origine di classe cattiva durante la rivoluzione culturale Registrazione della popolazione Migrazione forzata, istigata violenza di massa
Francia 1940-1944 ebrei Registrazione della popolazione, censimenti speciali Migrazione forzata, genocidio
Germania 1933-1945 Ebrei, rom e altri Numerose Migrazione forzata, genocidio
Ungheria 1945-1946 Cittadini tedeschi e quelli che riportano la lingua madre tedesca 1941 censimento della popolazione Migrazione forzata
Olanda 1940-1944 Ebrei e rom Sistemi di registrazione della popolazione Migrazione forzata, genocidio
Norvegia 1845-1930 Samis e Kvens Censimenti della popolazione Pulizia etnica
Norvegia 1942-1944 ebrei Censimento speciale e registro della popolazione proposto Genocidio
Polonia 1939-1943 ebrei Principali censimenti speciali Genocidio
Romania 1941-1943 Ebrei e rom 1941 censimento della popolazione Migrazione forzata, genocidio
Ruanda 1994 Tutsi Registrazione della popolazione Genocidio
Sud Africa 1950-1993 Popolazioni africane e "colorate" 1951 censimento della popolazione e registrazione della popolazione Apartheid, privazione del voto degli elettori
stati Uniti 19esimo secolo Nativi americani Censimenti speciali, registri demografici Migrazione forzata
stati Uniti 1917 Presunti sospetti di violazione della legge Censimento del 1910 Indagini e azioni penali di coloro che evitano la registrazione
stati Uniti 1941-1945 Americani giapponesi Censimento del 1940 Migrazione forzata e internamento
stati Uniti 2001-08 Sospetti terroristi Indagini NCES e dati amministrativi Indagini e azioni penali contro terroristi domestici e internazionali
stati Uniti 2003 Arabo-americani Censimento del 2000 Sconosciuto
URSS 1919-1939 Popolazioni minoritarie Vari censimenti della popolazione Migrazione forzata, punizione di altri reati gravi

I ricercatori sociali ordinari sono molto, molto lontani da qualcosa come partecipare agli abusi dei diritti umani attraverso l'uso secondario. Ho scelto di discuterne, comunque, perché penso che ti aiuterà a capire come alcune persone potrebbero reagire al tuo lavoro. Torniamo al progetto Tastes, Ties e Time, ad esempio. Unendo insieme dati completi e granulari di Facebook con dati completi e granulari di Harvard, i ricercatori hanno creato una visione incredibilmente ricca della vita sociale e culturale degli studenti (Lewis et al. 2008) . Per molti ricercatori sociali, questo sembra il database principale, che potrebbe essere utilizzato per sempre. Ma per alcuni altri, sembra l'inizio del database di rovina, che potrebbe essere utilizzato in modo non etico. In effetti, probabilmente è un po 'di entrambi.

Oltre alla sorveglianza di massa, i ricercatori, sempre in collaborazione con aziende e governi, possono intervenire sempre più nella vita delle persone per creare esperimenti controllati randomizzati. Ad esempio, in Emotional Contagion, i ricercatori hanno arruolato 700.000 persone in un esperimento senza il loro consenso o consapevolezza. Come ho descritto nel capitolo 4, questo tipo di coscrizione segreta dei partecipanti agli esperimenti non è raro, e non richiede la collaborazione di grandi aziende. Infatti, nel capitolo 4, ti ho insegnato come farlo.

Di fronte a questo aumento di potere, i ricercatori sono soggetti a regole, leggi e norme incoerenti e sovrapposte . Una fonte di questa incoerenza è che le capacità dell'era digitale stanno cambiando più rapidamente rispetto a regole, leggi e norme. Ad esempio, la Regola comune (l'insieme di regolamenti che governano la maggior parte della ricerca finanziata dal governo negli Stati Uniti) non è cambiata molto dal 1981. Una seconda fonte di incoerenza è che le norme relative a concetti astratti come la privacy sono ancora attivamente dibattute dai ricercatori , responsabili politici e attivisti. Se gli specialisti in queste aree non riescono a raggiungere un consenso uniforme, non dovremmo aspettarci che ricercatori o partecipanti empirici lo facciano. Una terza e ultima fonte di incoerenza è che la ricerca sull'età digitale è sempre più confusa con altri contesti, il che porta a norme e regole potenzialmente sovrapposte. Ad esempio, Emotional Contagion era una collaborazione tra uno scienziato di dati su Facebook e un professore e uno studente laureato alla Cornell. A quel tempo, era normale su Facebook eseguire grandi esperimenti senza supervisione da parte di terzi, a patto che gli esperimenti rispettassero i termini di servizio di Facebook. A Cornell, le norme e le regole sono molto diverse; praticamente tutti gli esperimenti devono essere esaminati dall'IRB Cornell. Quindi, quale serie di regole dovrebbe governare il contagio emotivo: Facebook o Cornell? Quando vi sono regole, leggi e norme incoerenti e sovrapposte, anche i ricercatori ben intenzionati potrebbero avere difficoltà a fare la cosa giusta. Infatti, a causa dell'incongruenza, potrebbe non esserci nemmeno una cosa giusta.

Nel complesso, queste due caratteristiche - potere crescente e mancanza di accordo su come dovrebbe essere usata questa energia - significano che i ricercatori che lavorano nell'era digitale stanno affrontando sfide etiche per il prossimo futuro. Fortunatamente, quando si affrontano queste sfide, non è necessario partire da zero. Invece, i ricercatori possono trarre la saggezza da principi e schemi etici precedentemente sviluppati, gli argomenti delle prossime due sezioni.