6.3 Digital er annerledes

Samfunnsforskning i den digitale tidsalderen har forskjellige egenskaper og reiser derfor ulike etiske spørsmål.

I den analoge alderen hadde de fleste samfunnsforskning en relativt begrenset skala og operert innenfor et sett med rimelige regler. Sosial forskning i den digitale tidsalderen er forskjellig. Forskere - ofte i samarbeid med bedrifter og regjeringer - har mer makt over deltakerne enn tidligere, og reglene om hvordan denne kraften skal brukes, er fremdeles ikke klar. Ved makt mener jeg bare evnen til å gjøre ting til mennesker uten deres samtykke eller til og med bevissthet. Slike ting som forskere kan gjøre for folk inkluderer å observere deres oppførsel og registrere dem i eksperimenter. Siden forskernes evne til å observere og forstyrre øker, har det ikke vært en tilsvarende økning i klarhet om hvordan denne kraften skal brukes. Faktisk må forskerne bestemme hvordan de skal utøve sin makt basert på inkonsekvente og overlappende regler, lover og normer. Denne kombinasjonen av kraftige evner og vage retningslinjer skaper vanskelige situasjoner.

Et sett krefter som forskere nå har, er evnen til å observere folks adferd uten deres samtykke eller bevissthet. Forskere kan selvfølgelig gjøre dette i fortiden, men i digitalalderen er skalaen helt annerledes, et faktum som mange ganger har blitt utpekt av mange fans av store datakilder. Spesielt, hvis vi beveger oss fra skalaen til en individuell student eller professor, og i stedet vurderer omfanget av et selskap eller statlige institusjoner som forskere i økende grad samarbeider med, blir de potensielle etiske problemene komplekse. En metafor som jeg tror hjelper folk med å visualisere ideen om massovervåking er panoptikonet . Opprinnelig foreslått av Jeremy Bentham som en arkitektur for fengsler, er panopticon en sirkulær bygning med celler bygget rundt en sentral vakttårn (figur 6.3). Den som opptar denne vakttårnen, kan observere all folks oppførsel i rommene uten å bli sett på seg selv. Personen i vaktoren er dermed en usynlig seer (Foucault 1995) . For noen personvernforesatte har den digitale tidsalderen flyttet oss inn i et panoptisk fengsel hvor teknologibedrifter og regjeringer hele tiden ser på og omarmerer vår oppførsel.

Figur 6.3: Design for panopticon fengsel, først foreslått av Jeremy Bentham. I senteret er det en usynlig seer som kan observere allas adferd, men kan ikke observeres. Tegning av Willey Reveley, 1791 (Kilde: Wikimedia Commons).

Figur 6.3: Design for panopticon fengsel, først foreslått av Jeremy Bentham. I senteret er det en usynlig seer som kan observere allas adferd, men kan ikke observeres. Tegning av Willey Reveley, 1791 (Kilde: Wikimedia Commons ).

For å bære denne metaforen litt lenger, når mange sosiale forskere tenker på den digitale tidsalderen, forestiller de seg selv inne i vakttårnet, observerer atferd og lager en masterdatabase som kan brukes til å gjøre alle slags spennende og viktig forskning. Men nå, istedenfor å tenke deg selv i vakttårnet, forestill deg deg selv i en av cellene. Denne masterdatabasen begynner å se ut som Paul Ohm (2010) har kalt en database med ruin , som kunne brukes på uetiske måter.

Noen lesere av denne boken er heldige nok til å bo i land hvor de stoler på at de usynlige seerne bruker dataene sine ansvarlig og for å beskytte det mot motstandere. Andre lesere er ikke så heldige, og jeg er sikker på at problemer som oppstår ved massovervåking, er veldig klare for dem. Men jeg tror at selv for de heldige leserne er det fortsatt et viktig problem som oppstår ved massovervåkning: uventet sekundær bruk . Det vil si at en database som er opprettet for en formålet med å målrette annonser, kan en dag brukes til et helt annet formål. Et forferdelig eksempel på uventet sekundær bruk skjedde under andre verdenskrig, da regjeringens folketelling ble brukt til å lette folkemordet som fant sted mot jøder, roma og andre (Seltzer and Anderson 2008) . Statistikerne som samlet dataene i fredelige tider, hadde nesten helt sikkert gode hensikter, og mange borgere stolte på at de skulle bruke dataene ansvarlig. Men da verden forandret seg - da nazistene kom til makten - aktiverte disse data en sekundær bruk som aldri var forventet. Ganske enkelt, når en master database eksisterer, er det vanskelig å forutse hvem som får tilgang til det og hvordan det blir brukt. Faktisk har William Seltzer og Margo Anderson (2008) dokumentert 18 tilfeller der populasjonsdatasystemer har vært involvert eller potensielt involvert i menneskerettighetsbrudd (tabell 6.1). Videre, som Seltzer og Anderson påpeker, er denne listen nesten sikkert en undervurdering fordi de fleste misbruk skjer i hemmelighet.

Tabell 6.1: Saker hvor befolkningsdatasystemer har vært involvert eller potensielt involvert i menneskerettighetsbrudd. Se Seltzer og Anderson (2008) for mer informasjon om hvert tilfelle og inkluderingskriterier. Noen, men ikke alle, av disse tilfellene involverte uventet sekundær bruk.
Plass Tid Målrettede personer eller grupper Datasystem Menneskerettighetsbrudd eller formodet statsintensjon
Australia 19. og tidlig 20. århundre Aboriginerne Befolkningsregistrering Tvungen migrasjon, folkemords elementer
Kina 1966-1976 Dårlig klasse opprinnelse under kulturell revolusjon Befolkningsregistrering Tvungen migrasjon, oppstart av mob vold
Frankrike 1940-1944 jødene Befolkning registrering, spesielle censuses Tvungen migrasjon, folkedrab
Tyskland 1933-1945 Jøder, roma og andre En rekke Tvungen migrasjon, folkedrab
Ungarn 1945-1946 Tyske statsborgere og de som rapporterer tysk morsmål 1941 befolkningstelling Tvungen migrasjon
Nederland 1940-1944 Jøder og roma Befolkningsregistreringssystemer Tvungen migrasjon, folkedrab
Norge 1845-1930 Samis og Kvens Befolkning censuses Etnisk rensing
Norge 1942-1944 jødene Spesiell folketelling og foreslått befolkningsregister Folkemord
Polen 1939-1943 jødene Primært spesielle sensur Folkemord
Romania 1941-1943 Jøder og roma 1941 befolkningstelling Tvungen migrasjon, folkedrab
Rwanda 1994 tutsi Befolkningsregistrering Folkemord
Sør-Afrika 1950-1993 Afrikanske og "fargede" populasjoner 1951 folketelling og befolkningsregistrering Apartheid, voter disenfranchisement
forente stater 1800-tallet Indianere Spesielle sensur, befolkningsregister Tvungen migrasjon
forente stater 1917 Mistenkte utkast lov lovbrytere 1910 folketelling Undersøkelse og rettsforfølgelse av de som unngår registrering
forente stater 1941-1945 Japanske amerikanere 1940 folketelling Tvungen migrasjon og internering
forente stater 2001-08 Mistenkte terrorister NCE undersøkelser og administrative data Undersøkelse og rettsforfølgelse av innenlandske og internasjonale terrorister
forente stater 2003 Arabisk-amerikanere 2000 folketelling Ukjent
USSR 1919-1939 Minoritetspopulasjoner Ulike befolkningsscenuser Tvungen migrasjon, straff av andre alvorlige forbrytelser

Vanlige sosiale forskere er veldig, langt fra alt som å delta i menneskerettighetsbrudd ved sekundær bruk. Jeg har valgt å diskutere det, men fordi jeg tror det vil hjelpe deg å forstå hvordan noen mennesker kan reagere på arbeidet ditt. La oss gå tilbake til Smak, Slips og Tid-prosjektet, som et eksempel. Ved å slå sammen komplette og granulære data fra Facebook med komplette og granulære data fra Harvard, skapte forskerne en utrolig rik visning av studentens sosiale og kulturelle liv (Lewis et al. 2008) . For mange sosiale forskere virker dette som masterdatabasen, som kan brukes til godt. Men for noen andre ser det ut som begynnelsen på databasen med ruin, som kunne brukes uetisk. Faktisk er det sannsynligvis litt av begge.

I tillegg til massovervåkning kan forskere - igjen i samarbeid med bedrifter og regjeringer - i større grad gripe inn i folks liv for å skape randomiserte, kontrollerte eksperimenter. For eksempel, i Emosjonell Forstyrrelse, skrev forskere 700.000 mennesker i et eksperiment uten deres samtykke eller bevissthet. Som jeg beskrev i kapittel 4, er denne typen hemmelig bruk av deltakere til eksperimenter ikke uvanlig, og det krever ikke samarbeid mellom store selskaper. Faktisk i kapittel 4 lærte jeg deg hvordan du gjør det.

I lys av denne økte kraften er forskere gjenstand for inkonsekvente og overlappende regler, lover og normer . En kilde til denne inkonsekvensen er at evnen til den digitale tidsalderen endres raskere enn regler, lover og normer. For eksempel er den vanlige regelen (settet av forskrifter som styrer mest offentlig finansiert forskning i USA) ikke endret mye siden 1981. En annen inkonsekvenskilde er at normer rundt abstrakte begreper som personvern fortsatt diskuteres av forskere , beslutningstakere og aktivister. Hvis spesialister i disse områdene ikke kan nå en enhetlig konsensus, bør vi ikke forvente at empiriske forskere eller deltakere skal gjøre det. En tredje og endelige kilde til inkonsekvens er at digital aldersforskning i stadig større grad blandes inn i andre sammenhenger, noe som fører til potensielt overlappende normer og regler. Emotional Contagion var for eksempel et samarbeid mellom en datavitenskapsmann på Facebook og en professor og utdannet student ved Cornell. På den tiden var det vanlig på Facebook å kjøre store eksperimenter uten tilsyn fra tredjepart, så lenge eksperimentene fulgte med Facebooks vilkår for bruk. På Cornell er normer og regler helt forskjellige; nesten alle eksperimenter må vurderes av Cornell IRB. Så, hvilket sett av regler bør regulere Emosjonell Forstyrrelse-Facebook eller Cornell? Når det er inkonsekvente og overlappende regler, kan lover og normer selv velmenende forskere ha problemer med å gjøre det rette. Faktisk, på grunn av inkonsekvensen, er det kanskje ikke engang en eneste riktig ting.

Samlet sett vil disse to funksjonene, økende kraft og manglende avtale om hvordan denne kraften skal brukes, bety at forskere som arbeider i den digitale tidsalder, skal møte etiske utfordringer i overskuelig fremtid. Heldigvis, når det gjelder disse utfordringene, er det ikke nødvendig å starte fra bunnen av. I stedet kan forskere trekke visdom fra tidligere utviklede etiske prinsipper og rammer, temaene i de neste to seksjonene.