ytterligere kommentarer

Denne delen er utformet for å bli brukt som en referanse, i stedet for å bli lest som en fortelling.

  • Innledning (§ 6.1)

Forskningsetikk har tradisjonelt også inkludert temaer som forskningsjuks og tildeling av kreditt. Disse temaene er nærmere omtalt i Engineering (2009) .

Dette kapittelet er sterkt preget av situasjonen i USA. For mer om de etiske kontrollhandlinger i andre land, se kapittel 6, 7, 8, og 9 av Desposato (2016b) . For et argument at de biomedisinske etiske prinsipper som har påvirket dette kapittelet er overdrevet amerikansk, se Holm (1995) . For mer historisk gjennomgang av Institutional Review Boards i USA, se Stark (2012) .

The Belmont Rapporter og påfølgende forskrifter i USA har gjort et skille mellom forskning og praksis. Dette skillet har blitt kritisert i ettertid (Beauchamp and Saghai 2012; boyd 2016; Metcalf and Crawford 2016; Meyer 2015) . Jeg gjør ikke dette skillet i dette kapittelet fordi jeg tror de etiske prinsipper og rammer gjelder for begge innstillingene. For mer om forskning tilsyn på Facebook, se Jackman and Kanerva (2016) . For et forslag til forskning tilsyn på bedrifter og frivillige organisasjoner, se Polonetsky, Tene, and Jerome (2015) og Tene and Polonetsky (2016) .

For mer om saken av Ebola-utbruddet i 2014, se McDonald (2016) , og for mer informasjon om personvern risikoen for mobiltelefon data, se Mayer, Mutchler, and Mitchell (2016) . For et eksempel på kriserelatert forskning ved hjelp av mobiltelefonen data, se Bengtsson et al. (2011) og Lu, Bengtsson, and Holme (2012) .

  • Tre eksempler (punkt 6.2)

Mange har skrevet om emosjonell smitte. Tidsskriftet forskningsetiske viet hele saken i januar 2016 diskuterer forsøket; se Hunter and Evans (2016) for en oversikt. Proceedings of National Akademik av Science publisert to stykker om forsøket: Kahn, Vayena, and Mastroianni (2014) og Fiske and Hauser (2014) . Andre stykker om forsøket er: Puschmann and Bozdag (2014) ; Meyer (2014) ; Grimmelmann (2015) ; Meyer (2015) ; Selinger and Hartzog (2015) ; Kleinsman and Buckley (2015) ; Shaw (2015) ; Flick (2015) .

For mer om Encore, se Jones and Feamster (2015) .

  • Digital er annerledes (punkt 6.3)

Når det gjelder masseovervåking, er brede oversikter gitt i Mayer-Schönberger (2009) og Marx (2016) . For et konkret eksempel på de skiftende kostnadene ved overvåking, Bankston and Soltani (2013) anslår at sporing en kriminell mistenkt bruke mobiltelefoner er omtrent 50 ganger billigere enn å bruke fysisk overvåking. Bell and Gemmell (2009) gir et mer optimistisk syn på selv overvåkning. I tillegg til å være i stand til å spore observerbar atferd som er offentlig eller delvis offentlig (for eksempel smak, Slips, og Time), kan forskerne stadig antyde ting som mange deltakere anser for å være privat. For eksempel, Michal Kosinski og kolleger viste at de kunne antyde sensitiv informasjon om personer, for eksempel seksuell orientering og bruk av vanedannende stoffer fra tilsynelatende vanlige digitale spordata (Facebook Likes) (Kosinski, Stillwell, and Graepel 2013) . Dette kan høres magisk, men tilnærmingen Kosinski og kolleger brukte-som kombinerer digitale spor, undersøkelser, og overvåket lærings er faktisk noe som jeg allerede har fortalt deg om. Husk at i kapittel 3 (Stille spørsmål) Jeg fortalte deg hvor Josh Blumenstok og kolleger (2015) kombinerte undersøkelsen data med mobiltelefondata for å beregne fattigdom i Rwanda. Dette nøyaktig samme tilnærming, som kan brukes til å effektivt måle fattigdom i et utviklingsland, kan også brukes for potensielt personvern brudd slutninger.

Inkonsekvent lover og normer kan føre til forskning som ikke respekterer ønskene til deltakerne, og det kan føre til "regulatoriske shopping" av forskere (Grimmelmann 2015; Nickerson and Hyde 2016) . Spesielt noen forskere som ønsker å unngå IRB forglemmelse har partnere som ikke er dekket av IRBs (f.eks folk på selskaper eller frivillige organisasjoner) samle inn og de-identifisere data. Deretter kan forskerne analysere denne avidentifiserte data uten IRB tilsyn, i hvert fall ifølge noen tolkninger av gjeldende regler. Denne typen IRB unndragelse ser ut til å være uforenlig med en prinsipper basert tilnærming.

For mer om inkonsekvent og heterogene ideer som folk har om helseopplysninger, se Fiore-Gartland and Neff (2015) . For mer om problemet som heterogenitet skaper for forskningsetiske avgjørelser se Meyer (2013) .

En forskjell mellom analog alder og digitale tidsalder forskning er at i digitale tidsalderen forskning interaksjon med deltakerne er mer fjernt. Disse interaksjonene oppstår ofte gjennom en mellommann for eksempel et selskap, og det er vanligvis en stor fysisk-og sosial avstand mellom forskere og deltakere. Dette fjernt interaksjon gjør noen ting som er enkle i analog alder forskning vanskelig i digitalalderen forskning, som siler ut deltakere som trenger ekstra beskyttelse, oppdager uønskede hendelser, og utbedre skade hvis det skjer. For eksempel, la oss kontrast Emosjonell Contagion med en hypotetisk lab eksperiment på samme tema. I laboratoriet eksperiment, kunne forskerne sile ut alle som ankommer laboratoriet viser tydelige tegn på emosjonelle nød. Videre, hvis lab eksperiment som ble opprettet en bivirkning, ville forskerne se det, yte tjenester til avhjelpe skade, og deretter foreta justeringer til forsøksprotokollen for å forebygge fremtidige skader. Den fjerne natur samhandling i selve Emosjonell Contagion eksperiment gjør hver av disse enkle og fornuftige trinn ekstremt vanskelig. Også, jeg mistenker at avstanden mellom forskere og deltakere gjør forskerne mindre sensitive til bekymringene til sine deltakere.

Andre kilder til inkonsistente normer og lover. Noe av denne inkonsekvensen kommer fra det faktum at denne forskningen skjer over hele verden. For eksempel involvert Encore folk fra hele verden, og derfor kan det være gjenstand for databeskyttelse og personvern lover i mange forskjellige land. Hva om de normer som gjelder tredjeparts web forespørsler (hva Encore gjorde) er forskjellige i Tyskland, USA, Kenya, og Kina? Hva om de normer er ikke engang konsekvent innenfor et enkelt land? En annen kilde til inkonsekvens kommer fra samarbeid mellom forskere ved universiteter og selskaper; for eksempel, Emotional Contagion var et samarbeid mellom en dataforsker på Facebook og en professor og graduate student ved Cornell. På Facebook kjøre store eksperimenter er rutine, og på den tiden, ikke krever noen tredjepart etisk vurdering. På Cornell de normer og regler er ganske annerledes; nesten alle eksperimenter må gjennomgås ved Cornell IRB. Så, som sett med regler som skal styre Emotional Contagion-Facebooks eller Cornell?

For mer om arbeidet med å revidere den vanlige regelen, se Evans (2013) , Council (2014) , Metcalf (2016) , og Hudson and Collins (2015) .

  • Fire prinsipper (§ 6.4)

Den klassiske prinsipper basert tilnærming til biomedisinsk etikk er Beauchamp and Childress (2012) . De foreslår at fire hovedprinsipper skal veilede biomedisinsk etikk: Respekt for autonomi, ikke volde skade, velgjørenhet, og Justice. Prinsippet om ikke volde skade oppfordrer en til å avstå fra å skade andre mennesker. Dette konseptet er dypt forbundet med hippokratiske ideen om "Do no harm". I forskningsetikk, dette prinsippet er ofte kombinert med prinsippet om velgjørenhet, men se Beauchamp and Childress (2012) (kapittel 5) for mer om skillet mellom de to . For en kritikk at disse prinsippene er altfor amerikansk, se Holm (1995) . For mer om balansering når prinsippene konflikten, se Gillon (2015) .

De fire prinsippene i dette kapitlet er også foreslått å lede etisk forglemmelse for forskning skjer i bedrifter og frivillige organisasjoner (Polonetsky, Tene, and Jerome 2015) gjennom organer som kalles "Consumer emne anmeldelse Boards" (CSRBs) (Calo 2013) .

  • Respekt for mennesker (avsnitt 6.4.1)

I tillegg til å respektere autonomi, Belmont Rapporter erkjenner også at ikke hvert menneske er i stand til å true selvbestemmelse. For eksempel, barn, folk som lider av sykdom, eller folk som bor i situasjoner med sterkt begrenset frihet kan ikke være i stand til å fungere som fullautonome individer, og disse menneskene er derfor gjenstand for ekstra beskyttelse.

Anvendelse av prinsippet om respekt for mennesker i den digitale tidsalderen kan være utfordrende. For eksempel, i digitalalderen forskning, kan det være vanskelig å gi ekstra beskyttelse for mennesker med nedsatt evne til selvbestemmelse fordi forskere ofte vet svært lite om sine deltakere. Videre er informert samtykke i digitale tidsalder samfunnsforskning en stor utfordring. I noen tilfeller kan virkelig informert samtykke lider av åpenhet paradoks (Nissenbaum 2011) , der informasjon og forståelse er i konflikt. Grovt, hvis forskerne gi full informasjon om innholdet i datainnsamling, dataanalyse og data sikkerhetsrutiner, vil det være vanskelig for mange deltakere å forstå. Men hvis forskerne gi forståelig informasjon, kan det mangle viktig teknisk informasjon. I medisinsk forskning i den analoge alders den dominerende innstillingen behandles av Belmont Rapporter-en kunne forestille seg en lege snakke individuelt med hver enkelt deltaker for å bidra til å løse gjennomsiktig paradoks. I online studier som involverer tusenvis eller millioner av mennesker, er et slikt ansikt-til-ansikt tilnærming umulig. Et annet problem med samtykke i den digitale tidsalderen er at i noen studier, for eksempel analyse av store dataregistre, ville det være upraktisk å innhente informert samtykke fra alle deltakere. Jeg diskuterer disse og andre spørsmål om informert samtykke i mer detalj i avsnitt 6.6.1. Til tross for disse vanskelighetene, men bør vi huske at informert samtykke er verken nødvendig eller tilstrekkelig for Respekt for mennesker.

For mer om medisinsk forskning før informert samtykke, se Miller (2014) . For en bok-lengde behandling av informert samtykke, se Manson and O'Neill (2007) . Se også de foreslåtte opplesninger om informert samtykke nedenfor.

  • Velgjørenhet (avsnitt 6.4.2)

Harms til sammenheng er den skade som forskningen kan føre til ikke å bestemte personer, men til sosiale settinger. Dette konseptet er litt abstrakt, men jeg vil illustrere det med to eksempler: en analog og en digital.

Et klassisk eksempel på skadene til kontekst kommer fra Wichita Jury Study [ Vaughan (1967) ; Katz, Capron, and Glass (1972) ; Ch 2] -. Også noen ganger kalt Chicago Jury-prosjektet (Cornwell 2010) . I denne studien forskere fra University of Chicago, som en del av en større undersøkelse om sosiale aspekter ved det juridiske systemet, i hemmelighet spilt inn seks jury overveielser i Wichita, Kansas. Dommerne og advokatene i sakene hadde godkjent opptakene, og det var streng kontroll med prosessen. Men juryen var uvitende om at opptakene ble forekommende. Når studien ble oppdaget, var det offentlig voldshandling. Justisdepartementet startet en etterforskning av studien, og forskerne ble kalt til å vitne foran Kongressen. Til syvende og sist, Kongressen vedtok en ny lov som gjør det ulovlig å hemmelighet registrere jury overveielse.

Den bekymringen av kritikere av Wichita Jury Study ble ikke skade for deltakerne; heller, det var skader på rammen av juryen diskusjoner. Det vil si at folk trodde at hvis jurymedlemmer ikke trodde at de skulle ha diskusjoner i et trygt og beskyttet plass, vil det være vanskeligere for jury overveielser å fortsette i fremtiden. I tillegg til juryen diskusjoner, det er andre spesifikke sosiale kontekster som samfunnet gir ekstra beskyttelse som advokat-klientforhold og psykologisk behandling (MacCarthy 2015) .

Risikoen for skader til kontekst og avbrudd av sosiale systemer kommer også opp i enkelte feltforsøk i statsvitenskap (Desposato 2016b) . For et eksempel på en mer kontekstavhengig kost-nytte beregning for et felteksperiment i statsvitenskap, se Zimmerman (2016) .

  • Justice (avsnitt 6.4.3)

Kompensasjon for deltakere har vært diskutert i en rekke innstillinger relatert til digital alder forskning. Lanier (2014) foreslått å betale deltakere for digitale spor de genererer. Bederson and Quinn (2011) drøfter betalinger i nettarbeidsmarkedene. Endelig Desposato (2016a) foreslår å betale deltakere i feltforsøk. Han påpeker at selv om deltakerne ikke kan utbetales direkte, kan en donasjon bli gjort til en gruppe som arbeider på deres vegne. For eksempel, i Encore forskerne kunne ha gjort en donasjon til en gruppe som arbeider for å støtte tilgang til Internett.

  • Respekt for lov og Public Interest (avsnitt 6.4.4)

Vilkår-of-service avtaler bør ha mindre vekt enn kontrakter forhandlet mellom likeverdige parter og lover skapt av legitime regjeringer. Situasjoner der forskerne har brutt vilkårene of service avtaler i det siste vanligvis innebære å bruke automatiserte søk til å granske oppførselen til selskaper (mye som feltforsøk for å måle diskriminering). For ytterligere diskusjon se Vaccaro et al. (2015) , Bruckman (2016a) , Bruckman (2016b) . For et eksempel på empirisk forskning som omhandler vilkårene for tjenesten, se Soeller et al. (2016) . For mer om mulige juridiske problemene forskerne står overfor dersom de bryter vilkårene for tjenesten ser Sandvig and Karahalios (2016) .

  • To etiske rammer (punkt 6.5)

Tydeligvis har enorme mengder blitt skrevet om konsekvens og deontologi. For et eksempel på hvordan disse etiske rammer, og andre, kan brukes til å resonnere om digital alder forskning, se Zevenbergen et al. (2015) . For et eksempel på hvordan disse etiske rammer kan anvendes for å utvikle feltforsøk i økonomi, se Baele (2013) .

  • Informert samtykke (§ 6.6.1)

For mer om revisjons studier av diskriminering, se Pager (2007) og Riach and Rich (2004) . Ikke bare gjør disse studiene ikke har informert samtykke, de også involverer bedrag uten debriefing.

Både Desposato (2016a) og Humphreys (2015) gir råd om feltforsøk uten samtykke.

Sommers and Miller (2013) vurderinger mange argumenter i favør av ikke debriefing deltakere etter bedrag, og argumenterer for at forskerne skal gi avkall på "debriefing under en svært smal sett av omstendigheter, nemlig, i feltarbeid der debriefing utgjør betydelige praktiske barrierer, men forskere ville ha ingen betenkeligheter med debriefing hvis de kunne. Forskere skal ikke få lov til å gi avkall på debriefing for å bevare en naiv deltaker basseng, skjerme seg fra deltaker sinne, eller beskytte deltakere fra skade. "Andre hevder at hvis debriefing forårsaker mer skade enn godt det bør unngås. Debriefing er et tilfelle hvor noen forskere prioritere Respekt for personer over velgjørenhet, og noen forskere gjør det motsatte. En mulig løsning ville være å finne måter å gjøre debriefing en lærerik opplevelse for deltakerne. Det vil si, snarere enn å tenke på debriefing som noe som kan forårsake skade, kanskje debriefing kan også være noe som kommer deltakere. For et eksempel på denne typen utdanning debriefing, se Jagatic et al. (2007) på debriefing studentene etter et sosialt phishing eksperiment. Psykologer har utviklet teknikker for debriefing (DS Holmes 1976a; DS Holmes 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) , og noen av disse kan med fordel brukes til digital tidsalder forskning. Humphreys (2015) byr på interessante tanker om utsatt samtykke, som er nært knyttet til debriefing strategi som jeg beskrev.

Ideen om å spørre et utvalg av deltakere for deres samtykke er relatert til hva Humphreys (2015) kaller inferred samtykke.

En ytterligere idé som har blitt foreslått knyttet til informert samtykke er å bygge et panel av folk som aksepterer å være i online eksperimenter (Crawford 2014) . Noen har hevdet at dette panelet ville være et ikke-tilfeldig utvalg av mennesker. Men, kapittel 3 (Stille spørsmål) viser at disse problemene er potensielt adresser bruker post-stratifisering og prøve matching. Også samtykke til å være på panelet kan omfatte en rekke eksperimenter. Med andre ord, kan deltakerne ikke trenger å samtykke i hvert forsøk individuelt, kalles et konsept bredt samtykke (Sheehan 2011) .

  • Forståelse og administrerende informasjons risiko (§ 6.6.2)

Langt fra unik, Netflix Prize illustrerer et viktig teknisk egenskap av datasett som inneholder detaljert informasjon om personer, og gir dermed viktige lærdommer om muligheten for "anonymisering" av moderne sosiale datasett. Filer med mange biter av informasjon om hver person er sannsynlig å være sparsom, i den forstand definert formelt i Narayanan and Shmatikov (2008) . Det vil si at for hver post er det ingen poster som er det samme, og faktisk er det ingen poster som er svært like: hver person er langt borte fra sin nærmeste nabo til datasettet. Man kan tenke seg at Netflix data kan være sparsom fordi med rundt 20.000 filmer på et 5-stjerners skala, er det om \ (6 ^ {20000} \) mulige verdier at hver person kan ha (6 fordi i tillegg til en til fem stjerner , noen har kanskje ikke vurdert filmen i det hele tatt). Dette tallet er så stor, er det vanskelig å selv forstå.

Sparsity har to hoved implikasjoner. Først, betyr det at forsøk på å "anonym" datasettet basert på tilfeldig forstyrrelse vil sannsynligvis mislykkes. Det er, selv om Netflix skulle tilfeldig justere noen av karakterer (som de gjorde), ville dette ikke være tilstrekkelig fordi opprørt posten er fortsatt nærmest mulig posten til den informasjonen som angriperen har. For det andre betyr det sparsity at de-anonymisering er mulig selv om angriperen har mangelfull eller upartisk kunnskap. For eksempel i Netflix data, la oss tenke oss at angriperen kjenner dine karakterer i to filmer og datoene du har gjort disse vurderingene +/- 3 dager; bare at informasjon alene er tilstrekkelig til å identifisere 68% av folk i Netflix data. Hvis angriperne vet 8 filmer som du har vurdert +/- 14 dager, så selv om to av disse kjente karakterer er helt feil, 99% av poster kan være entydig identifisert i datasettet. Med andre ord, er sparsity et grunnleggende problem for arbeidet med å "anonymisere" data, noe som er uheldig fordi de fleste moderne sosial datasettet er sparsommelig.

Telefon metadata også kan synes å være "anonym" og ikke følsom, men det er ikke tilfelle. Telefon metadata er identifiserbar og sensitiv (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .

I figur 6.6, jeg skisserte en avveining mellom risiko for deltakere og fordeler til forskning fra data utgivelse. For en sammenligning mellom begrenset adgang tilnærminger (f.eks en inngjerdet hage) og begrenset data tilnærminger (f.eks noen form for anonymiserings) se Reiter and Kinney (2011) . For en foreslått kategoriseringssystem av risikonivåer data, se Sweeney, Crosas, and Bar-Sinai (2015) . Til slutt, for en mer generell diskusjon om deling av data, se Yakowitz (2011) .

For mer detaljert analyse av denne avveiingen mellom risiko og nytte av data, se Brickell and Shmatikov (2008) , Ohm (2010) , Wu (2013) , Reiter (2012) , og Goroff (2015) . For å se denne avveiingen brukes på reelle data fra svær åpne nettbaserte kurs (MOOCs), se Daries et al. (2014) og Angiuli, Blitzstein, and Waldo (2015) .

Differensial personvern tilbyr også en alternativ tilnærming som kan kombinere både høy samfunnsnytte og lav risiko for deltakerne, se Dwork and Roth (2014) og Narayanan, Huey, and Felten (2016) .

For mer om begrepet personlig identifiserbar informasjon (PII), som er sentralt i mange av reglene om forskningsetikk, se Narayanan and Shmatikov (2010) og Schwartz and Solove (2011) . For mer om alle data være potensielt sensitive, se Ohm (2015) .

I denne delen har jeg portrettert kobling av ulike datasettene som noe som kan føre til informasjons risiko. Men det kan også skape nye muligheter for forskning, som hevdet i Currie (2013) .

For mer om de fem safer, se Desai, Ritchie, and Welpton (2016) . For et eksempel på hvordan utganger kan identifisere, se Brownstein, Cassa, and Mandl (2006) , som viser hvordan kart sykdom prevalens kan identifisere. Dwork et al. (2017) mener også angrep mot aggregerte data, for eksempel statistikk om hvor mange individer har en bestemt sykdom.

  • Privacy (§ 6.6.3)

Warren and Brandeis (1890) er et landemerke juridisk artikkel om personvern, og artikkelen er mest forbundet med ideen om at personvern er en rett til å være alene. Mer nylig boken lengde behandlinger av personvernet at jeg vil anbefale inkludere Solove (2010) og Nissenbaum (2010) .

For en gjennomgang av empirisk forskning på hvordan folk tenker om personvern, se Acquisti, Brandimarte, and Loewenstein (2015) . Tidsskriftet Science publiserte en spesialutgave med tittelen "The End of Privacy", som tar for seg spørsmål om personvern og informasjonsrisiko fra en rekke ulike perspektiver; for en oppsummering se Enserink and Chin (2015) . Calo (2011) gir et rammeverk for å tenke på de skadene som kommer fra brudd på personvernet. Et tidlig eksempel på bekymringer om personvern i selve begynnelsen av den digitale tidsalder er Packard (1964) .

  • Ta beslutninger under usikkerhet (avsnitt 6.6.4)

En utfordring når du prøver å bruke minimal risiko standarden er at det ikke er klart hvis hverdagen skal brukes for benchmarking (Council 2014) . For eksempel, hjemløse mennesker har høyere nivåer av ubehag i sitt daglige liv. Men, det betyr ikke at det er etisk tillatt å utsette hjemløse til høyere risiko forskning. Av denne grunn, synes det å være en voksende enighet om at minimal risiko skal måles mot en generell befolkning standard, ikke en bestemt populasjon standard. Mens jeg generelt enig med ideen om en generell befolkning standard, tror jeg at for store elektroniske plattformer som Facebook, er en bestemt populasjon standard rimelig. Det vil si, når de vurderer Emotional Contagion, tror jeg at det er rimelig å benchmark mot daglig risiko på Facebook. En bestemt populasjon standard i dette tilfellet er mye lettere å evaluere og vil neppe komme i konflikt med prinsippet om rettferdighet, som søker å hindre at byrdene av forskning sviktende urettferdig på vanskeligstilte grupper (f.eks, fanger og foreldreløse).

  • Praktiske tips (punkt 6.7)

Andre forskere har også kalt for flere papirer for å inkludere etiske vedlegg (Schultze and Mason 2012; Kosinski et al. 2015) . King and Sands (2015) har også praktiske tips.