verdere commentaar

Deze sectie is ontworpen om te worden gebruikt als referentie, in plaats van te worden gelezen als een verhaal.

  • Inleiding (paragraaf 6.1)

Onderzoek ethiek is van oudsher ook onderwerpen als wetenschappelijke fraude en de toewijzing van het krediet. Deze onderwerpen worden besproken in meer detail in Engineering (2009) .

In dit hoofdstuk wordt sterk bepaald door de situatie in de Verenigde Staten. Voor meer informatie over de ethische toetsing procedures in andere landen, zie de hoofdstukken 6, 7, 8 en 9 van Desposato (2016b) . Voor een argument dat de biomedische ethische principes die dit hoofdstuk hebben beïnvloed zijn overdreven Amerikaans, zie Holm (1995) . Voor meer historisch overzicht van Institutional Review Boards in de VS, zie Stark (2012) .

The Belmont rapport en latere verordeningen in de VS hebben een onderscheid gemaakt tussen onderzoek en praktijk gemaakt. Dit onderscheid is vervolgens bekritiseerd (Beauchamp and Saghai 2012; boyd 2016; Metcalf and Crawford 2016; Meyer 2015) . Ik denk niet dit onderscheid te maken in dit hoofdstuk, omdat ik denk dat de ethische principes en kaders gelden voor beide instellingen. Voor meer informatie over het onderzoek toezicht op Facebook, zie Jackman and Kanerva (2016) . Voor een voorstel voor onderzoek toezicht op bedrijven en NGO's, zie Polonetsky, Tene, and Jerome (2015) en het Tene and Polonetsky (2016) .

Voor meer informatie over de zaak van het Ebola-uitbraak in 2014, zie McDonald (2016) , en voor meer informatie over de privacyrisico's van de mobiele telefoon data, zie Mayer, Mutchler, and Mitchell (2016) . Voor een voorbeeld van crisisgerelateerde onderzoek met behulp van de mobiele telefoon data, zie Bengtsson et al. (2011) en Lu, Bengtsson, and Holme (2012) .

  • Drie voorbeelden (paragraaf 6.2)

Veel mensen hebben over Emotional Contagion geschreven. Het tijdschrift Research Ethics gewijd hun hele kwestie in januari 2016 de bespreking van het experiment; zie Hunter and Evans (2016) voor een overzicht. De Proceedings van de National Academics of Science publiceerde twee stukken over het experiment: Kahn, Vayena, and Mastroianni (2014) en Fiske and Hauser (2014) . Andere stukken over het experiment zijn: Puschmann and Bozdag (2014) ; Meyer (2014) ; Grimmelmann (2015) ; Meyer (2015) ; Selinger and Hartzog (2015) ; Kleinsman and Buckley (2015) ; Shaw (2015) ; Flick (2015) .

Voor meer informatie over Encore, zie Jones and Feamster (2015) .

  • Digital is anders (paragraaf 6.3)

In termen van massa surveillance, zijn brede overzichten verstrekt in Mayer-Schönberger (2009) en Marx (2016) . Om een concreet voorbeeld van de veranderende kosten van de bewaking, Bankston and Soltani (2013) schat dat het volgen van een criminele verdachte met behulp van mobiele telefoons is ongeveer 50 keer goedkoper dan het gebruik van fysieke bewaking. Bell and Gemmell (2009) biedt een meer optimistische kijk op zichzelf toezicht. In aanvulling op de mogelijkheid om waarneembaar gedrag dat publieke of gedeeltelijk publiek (bv, Taste, Ties, en tijd) te volgen, kunnen de onderzoekers in toenemende mate afleiden dingen die veel deelnemers beschouwen privé te zijn. Bijvoorbeeld, Michal Kosinski en collega's bleek dat ze gevoelige informatie over mensen, zoals seksuele geaardheid en het gebruik van verslavende stoffen uit ogenschijnlijk gewone digitale trace data (Facebook Likes) kon afleiden (Kosinski, Stillwell, and Graepel 2013) . Dit klinkt misschien magisch, maar de aanpak Kosinski en collega's gebruikt die-digitale sporen, enquêtes combineert, en begeleid leren-is eigenlijk iets dat ik je al over heb verteld. Bedenk dat in hoofdstuk 3 (Het stellen van vragen) Ik heb u verteld hoe Josh Blumenstock en collega's (2015) gecombineerd enquêtegegevens met mobiele telefoon data om de armoede te schatten in Rwanda. Deze exact dezelfde benadering, die kan worden gebruikt om armoede efficiënt meten in ontwikkelingslanden, kan ook worden gebruikt voor potentieel privacy schenden gevolgtrekkingen.

Inconsistent wetten en normen kan leiden tot onderzoek dat de wensen van de deelnemers niet respecteert, en het kan leiden tot de "shopping" door onderzoekers (Grimmelmann 2015; Nickerson and Hyde 2016) . In het bijzonder, sommige onderzoekers die willen IRB toezicht vermijden partners die niet gedekt zijn door IRBs (bijvoorbeeld mensen bij bedrijven of NGO's) te verzamelen en te de-identificeren van data. Vervolgens kan de onderzoekers deze-de geïdentificeerde gegevens te analyseren zonder IRB toezicht, althans volgens sommige interpretaties van de huidige regels. Dit soort IRB ontduiking lijkt in strijd te zijn met een op beginselen gebaseerde aanpak.

Voor meer informatie over de inconsequente en heterogene ideeën die mensen hebben over de gezondheid van gegevens, zie Fiore-Gartland and Neff (2015) . Voor meer informatie over het probleem dat heterogeniteit creëert voor onderzoek ethiek zien beslissingen Meyer (2013) .

Een verschil tussen analoog leeftijd en digitale tijdperk onderzoek is dat in het digitale tijdperk onderzoek interactie met de deelnemers is verder weg. Deze interacties komen vaak via een tussenpersoon, zoals een bedrijf, en er is meestal een grote fysieke en sociale afstand tussen onderzoekers en deelnemers. Dit verre interactie maakt een aantal dingen die gemakkelijk in analoge tijdperk onderzoek moeilijk in de digitale tijdperk onderzoek zijn, zoals het uitselecteren van deelnemers die extra bescherming nodig hebben, het opsporen van bijwerkingen, en sanering van kwaad als het zich voordoet. Bijvoorbeeld, laten we contrasteren Emotionele besmetting met een hypothetische lab experiment over hetzelfde onderwerp. In het lab experiment, konden de onderzoekers het scherm uit iedereen die komt bij het lab tonen duidelijke tekenen van emotionele nood. Verder, als het laboratorium experiment een adverse event aangemaakt, onderzoekers zou het te zien, diensten aan de schade herstellen, en dan aanpassingen aan de experimentele protocol om toekomstige schade te voorkomen. De verre aard van interactie in de werkelijke Emotional Contagion experiment maakt elk van deze eenvoudige en verstandige stappen uiterst moeilijk. Ook, ik vermoed dat de afstand tussen de onderzoekers en de deelnemers maakt onderzoekers minder gevoelig voor de zorgen van hun deelnemers.

Andere bronnen van inconsistente normen en wetten. Sommige van deze inconsistentie komt van het feit dat dit onderzoek gebeurt wereldwijd. Bijvoorbeeld, Encore betrokken mensen van over de hele wereld, en daarom zou kunnen zijn onderworpen aan de bescherming van gegevens en privacy wetten van veel verschillende landen. Wat gebeurt er als de normen met betrekking tot websites van derden verzoeken (wat Encore deed) zijn verschillend in Duitsland, de Verenigde Staten, Kenia en China? Wat als de normen niet eens consequent binnen een land? Een tweede bron van inconsistentie komt voort uit samenwerking tussen onderzoekers van universiteiten en bedrijven; bijvoorbeeld, Emotional Contagion was een samenwerking tussen een data-wetenschapper op Facebook en een professor en graduate student aan de Cornell. Op Facebook loopt grote experimenten is routine en, op dat moment, was het niet nodig van derden ethische toetsingscommissie. Op Cornell de normen en regels zijn heel verschillend; vrijwel alle experimenten moeten worden beoordeeld door de Cornell IRB. Dus, welke set van regels moeten gelden Emotional Contagion-Facebook of Cornell's?

Voor meer informatie over de inspanningen om de gemeenschappelijke regel te herzien, zie Evans (2013) , Council (2014) , Metcalf (2016) , en Hudson and Collins (2015) .

  • Vier principes (paragraaf 6.4)

De klassieke principes gebaseerde aanpak van biomedische ethiek is Beauchamp and Childress (2012) . Zij stellen voor dat de vier principes biomedische ethiek als leidraad moeten dienen: respect voor autonomie, Nonmaleficence, Weldadigheid en Justitie. Het principe van nonmaleficence dringt er bij één van het veroorzaken van schade aan andere mensen om zich te onthouden. Dit concept is diep verbonden met Hippocrates idee van "Doe geen kwaad." In het onderzoek ethiek, dit principe wordt vaak gecombineerd met het principe van Weldadigheid, maar zie Beauchamp and Childress (2012) (hoofdstuk 5) voor meer informatie over het onderscheid tussen de twee . Voor een kritiek dat deze beginselen al te Amerikaans, zie Holm (1995) . Voor meer informatie over balanceren wanneer de principes conflict, zie Gillon (2015) .

De vier principes in dit hoofdstuk zijn ook voorgesteld om ethisch toezicht voor onderzoek gebeurt op bedrijven en NGO's te begeleiden (Polonetsky, Tene, and Jerome 2015) door middel van lichamen genaamd "Consumer onderwerp Review Boards" (CSRBs) (Calo 2013) .

  • Respect voor Personen (paragraaf 6.4.1)

Naast respect voor autonomie, de Belmont rapport erkent ook dat niet elke mens is in staat om echte zelfbeschikking. Bijvoorbeeld, kinderen, mensen die lijden aan de ziekte, of mensen die in situaties van ernstig beperkt vrijheid mag niet in staat zijn om zo volledig autonome individuen handelen, en deze mensen zijn daarom onderworpen aan extra bescherming.

Het toepassen van het principe van respect voor personen in het digitale tijdperk kan een uitdaging zijn. Bijvoorbeeld, in digitale tijdperk onderzoek, kan het moeilijk zijn om extra bescherming te bieden voor mensen met een verminderde capaciteit van zelfbeschikking, omdat de onderzoekers weten vaak heel weinig over hun deelnemers. Verder, informed consent in digitale tijdperk sociaal onderzoek is een enorme uitdaging. In sommige gevallen kan echt geïnformeerde toestemming te lijden onder de transparantie paradox (Nissenbaum 2011) , waarin informatie en begrip zijn in conflict. Ruwweg, als onderzoekers volledige informatie over de aard van de dataverzameling, data-analyse, en de beveiliging van gegevens praktijken, zal het moeilijk zijn voor veel deelnemers te begrijpen. Maar als onderzoekers begrijpelijke informatie, kan het belangrijk technische informatie ontbreekt. In het medisch onderzoek in het analoge tijdperk-the domineren instelling door de Belmont Report-one beschouwd kon voorstellen dat een arts individueel te praten met elke deelnemer te helpen oplossen van de transparantie paradox. In online studies met duizenden of miljoenen mensen, zoals een face-to-face aanpak is onmogelijk. Een tweede probleem met toestemming in het digitale tijdperk is dat in sommige studies, zoals analyse van de massale data repositories, zou het onpraktisch zijn om geïnformeerde toestemming te krijgen van alle deelnemers. Ik bespreek deze en andere vragen over informed consent in meer detail in paragraaf 6.6.1. Ondanks deze moeilijkheden, maar we moeten niet vergeten dat informed consent is noch noodzakelijk noch voldoende om respect voor personen.

Voor meer informatie over het medisch onderzoek voor informed consent, zie Miller (2014) . Voor een boek-length behandeling van informed consent, zie Manson and O'Neill (2007) . Zie ook de voorgestelde lezingen over informed consent hieronder.

  • Weldadigheid (paragraaf 6.4.2)

Harms aan context is de schade die het onderzoek kunnen leiden tot niet aan bepaalde personen, maar om maatschappelijke instellingen. Dit concept is een beetje abstract, maar ik zal het illustreren met twee voorbeelden: een analoge en een digitale.

Een klassiek voorbeeld van de schade aan de context komt uit de Wichita Jury Study [ Vaughan (1967) ; Katz, Capron, and Glass (1972) ; Ch 2] -. Ook wel de Chicago Jury Project (Cornwell 2010) . In deze studie hebben onderzoekers van de Universiteit van Chicago, als onderdeel van een grotere studie over sociale aspecten van het juridische systeem, in het geheim opgenomen zes jury beraadslagingen in Wichita, Kansas. De rechters en advocaten in de gevallen had de opnames goedgekeurd, en er was streng toezicht op het proces. Echter, de juryleden waren niet op de hoogte dat de opnamen werden voorkomen. Zodra het onderzoek werd ontdekt, was er publieke verontwaardiging. Het ministerie van Justitie begon een onderzoek van de studie, en de onderzoekers werden opgeroepen om te getuigen in de voorkant van het Congres. Uiteindelijk ging het Congres een nieuwe wet dat maakt het illegaal om in het geheim op te nemen jury overleg.

De zorg van critici van de Wichita Jury studie was niet schadelijk voor de deelnemers; liever gezegd, het was schade aan de context van de jury overleg. Dat wil zeggen, mensen geloofden dat als juryleden niet geloven dat ze hadden gesprekken in een veilige en beschermde ruimte, zou het moeilijker zijn voor de jury beraadslagingen om verder te gaan in de toekomst. Naast de jury overleg, zijn er andere specifieke sociale contexten die de samenleving voorziet van extra bescherming, zoals advocaat-cliënt relaties en psychologische zorg (MacCarthy 2015) .

Het risico van schade aan de context en de verstoring van de sociale stelsels komt ook in een aantal veldexperimenten in de Politieke Wetenschappen (Desposato 2016b) . Voor een voorbeeld van een meer contextgevoelige kosten-baten berekening voor een veldexperiment in de Politieke Wetenschappen, zie Zimmerman (2016) .

  • Justitie (paragraaf 6.4.3)

Compensatie voor de deelnemers is in een aantal instellingen met betrekking tot digitale tijdperk onderzoek besproken. Lanier (2014) voorgestelde betalende deelnemers voor digitale sporen die ze genereren. Bederson and Quinn (2011) bespreekt betalingen in online arbeidsmarkt. Tenslotte Desposato (2016a) stelt voor betalende deelnemers in veldexperimenten. Hij wijst erop dat zelfs als de deelnemers niet direct kan worden betaald, kan een donatie worden gedaan om een ​​groep te werken voor hun rekening. Bijvoorbeeld in Encore konden de onderzoekers hebben een donatie aan een groep die de toegang tot het internet ondersteunen.

  • Respect voor Recht en Public Interest (paragraaf 6.4.4)

Termen-of-service-overeenkomsten moet minder gewicht dan de contracten onderhandeld tussen gelijkwaardige partijen en wetten die door legitieme regeringen te hebben. Situaties waarin onderzoekers termen-of-service-overeenkomsten in het verleden hebben overtreden in het algemeen te betrekken met behulp van geautomatiseerde queries om het gedrag van bedrijven te controleren (net als veldexperimenten om discriminatie te meten). Voor aanvullende bespreking zie Vaccaro et al. (2015) , Bruckman (2016a) , Bruckman (2016b) . Voor een voorbeeld van empirisch onderzoek dat de voorwaarden van de dienst bespreekt, zie Soeller et al. (2016) . Voor meer informatie over de mogelijke juridische problemen onderzoekers worden geconfronteerd als zij in strijd termen van service te zien Sandvig and Karahalios (2016) .

  • Twee ethische kaders (paragraaf 6.5)

Uiteraard hebben enorm veel geschreven over consequentialisme en deontologie. Voor een voorbeeld van hoe deze ethische kaders, en anderen, kan worden gebruikt om te redeneren over digitale tijdperk onderzoek, zie Zevenbergen et al. (2015) . Voor een voorbeeld van hoe deze ethische kaders kunnen worden toegepast veldproeven ontwikkelen economie, zie Baele (2013) .

  • Informed consent (paragraaf 6.6.1)

Voor meer informatie over audit studies van discriminatie, zie Pager (2007) en Riach and Rich (2004) . Niet alleen hebben deze studies geen informed consent, ze bedrog te betrekken ook zonder debriefing.

Beide Desposato (2016a) en Humphreys (2015) advies verstrekken over veldproeven zonder toestemming.

Sommers and Miller (2013) Beoordelingen veel argumenten ten gunste van niet debriefing deelnemers na bedrog, en stelt dat onderzoekers moeten afzien "debriefing onder een zeer smalle reeks omstandigheden, namelijk in veldonderzoek waarin debriefing stelt aanzienlijke praktische belemmeringen maar de onderzoekers zou hebben geen moeite mee debriefing als ze konden. Onderzoekers moeten niet worden toegestaan ​​om af te zien debriefing met het oog op het behoud van een naïeve deelnemer zwembad, zich beschermen tegen deelnemer woede, of deelnemers te beschermen tegen schade. "Anderen beweren dat als debriefing veroorzaakt meer kwaad dan goed zou moeten worden vermeden. Debriefing is een geval waarin sommige onderzoekers prioriteren Respect voor personen ouder dan Weldadigheid, en sommige onderzoekers doen het tegenovergestelde. Een mogelijke oplossing zou zijn om manieren om debriefing een leerervaring voor de deelnemers te vinden. Dat wil zeggen, in plaats van te denken van debriefing als iets dat schade kan veroorzaken, misschien debriefing kan ook iets dat de deelnemers ten goede zijn. Voor een voorbeeld van dit soort onderwijs debriefing, zie Jagatic et al. (2007) op de debriefing leerlingen na een sociale phishing-experiment. Psychologen hebben ontwikkelde technieken voor debriefing (DS Holmes 1976a; DS Holmes 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) en een aantal van deze kunnen worden nuttig toegepast op digitale tijdperk onderzoek. Humphreys (2015) biedt interessante gedachten over uitgestelde toestemming, die nauw verwant aan de debriefing strategie I beschreven.

Het idee van het stellen van een steekproef van de deelnemers voor hun toestemming is gerelateerd aan wat Humphreys (2015) noemt impliciet toestemming.

Een ander idee dat is gerelateerd aan geïnformeerde toestemming heeft voorgesteld is aan een panel van mensen die het eens te worden in online experimenten te bouwen (Crawford 2014) . Sommigen hebben betoogd dat dit panel een niet-aselecte steekproef van mensen zou zijn. Maar, hoofdstuk 3 (Het stellen van vragen) laat zien dat deze problemen zijn potentieel adresseerbare met behulp van post-stratificatie en sample matching. Ook toestemming om op het paneel kan verschillende experimenten dekken. Met andere woorden, kunnen de deelnemers niet afzonderlijk moeten stemmen met elk experiment een concept genaamd brede toestemming (Sheehan 2011) .

  • Het begrijpen en beheren van informatieve risico (paragraaf 6.6.2)

Verre van uniek, de Netflix Prize illustreert een belangrijke technische eigenschap van datasets die gedetailleerde informatie over mensen te bevatten, en dus biedt belangrijke lessen over de mogelijkheid van "anonimiseren" van de moderne sociale datasets. Bestanden met vele stukjes informatie over elke persoon waarschijnlijk dun zijn, in de zin formeel gedefinieerd in Narayanan and Shmatikov (2008) . Dat wil zeggen, voor ieder record zijn er geen records die hetzelfde zijn, en in feite zijn er geen records die erg op elkaar lijken: ieder mens is ver weg van hun naaste buur in de dataset. Men kan zich voorstellen dat de Netflix gegevens schaars zou kunnen zijn omdat met ongeveer 20.000 films op een 5 sterren schaal, zijn er ongeveer \ (6 ^ {20.000} \) mogelijke waarden die ieder mens zou kunnen hebben (6 want naast een tot 5 sterren , iemand die misschien niet gewaardeerd de film helemaal niet). Dit aantal is zo groot, is het moeilijk om zelfs begrijpen.

Sparsity heeft twee belangrijke implicaties. Ten eerste betekent dat poging tot "anoniem" de dataset aselecte storing zal waarschijnlijk mislukken. Dat is, zelfs als Netflix waren om willekeurig een aantal van de ratings (wat ze deden) aan te passen, zou dit niet voldoende zijn, omdat de verstoorde plaat is nog steeds zo dicht mogelijk record aan de informatie die de aanvaller. Ten tweede, de sparsity betekent dat de-anonimiseren is mogelijk, zelfs als de aanvaller heeft onvolmaakte of onpartijdig kennis. Bijvoorbeeld, in de Netflix gegevens, laten we voorstellen dat de aanvaller kent uw score voor twee films en de data die u deze ratings +/- 3 dagen gemaakt; alleen die informatie alleen al voldoende is om uniek te identificeren 68% van de mensen in de Netflix gegevens. Als de aanvallers weet 8 films die u hebt beoordeeld +/- 14 dagen, dan is zelfs als er twee van deze bekende ratings zijn helemaal verkeerd, 99% van de records kunnen worden uniek geïdentificeerd in de dataset. Met andere woorden, sparsity is een fundamenteel probleem voor de inspanningen om "anonimiseren" data, dat is jammer, want de meeste moderne sociale dataset zijn schaars.

Telefoon metadata ook kunnen worden weergegeven "anonieme" en niet gevoelig te zijn, maar dat is niet het geval. Telefoon metadata is herkenbaar en gevoelig (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .

In figuur 6.6, ik schetste een trade-off tussen risico voor de deelnemers en de voordelen uit onderzoek van de gegevens release. Voor een vergelijking tussen de beperkte toegang benaderingen (bv, een ommuurde tuin) en beperkte data benaderingen (bijvoorbeeld een bepaalde vorm van anoniem) te zien Reiter and Kinney (2011) . Voor een voorgestelde categorisatie systeem van risicoverevening niveaus van gegevens, zie Sweeney, Crosas, and Bar-Sinai (2015) . Tot slot, voor een meer een algemene discussie over het delen van gegevens, zie Yakowitz (2011) .

Voor meer gedetailleerde analyse van deze trade-off tussen het risico en het nut van de gegevens, zie Brickell and Shmatikov (2008) , Ohm (2010) , Wu (2013) , Reiter (2012) , en Goroff (2015) . Om deze trade-off toegepast op echte data van massaal geopende online cursussen (MOOCs) te zien, zie Daries et al. (2014) en Angiuli, Blitzstein, and Waldo (2015) .

Differential privacy biedt ook een alternatieve benadering die zowel een hoge uitkering kan combineren om de samenleving en een laag risico voor de deelnemers, zie Dwork and Roth (2014) en Narayanan, Huey, and Felten (2016) .

Voor meer informatie over het concept van persoonlijk identificeerbare informatie (PII), dat centraal staat in veel van de regels over het onderzoek ethiek, zie Narayanan and Shmatikov (2010) en Schwartz and Solove (2011) . Voor meer informatie over alle gegevens die potentieel gevoelige, zie Ohm (2015) .

In dit deel, heb ik de koppeling van verschillende datasets als iets dat kan leiden tot een informatieve risico geportretteerd. Het kan echter ook nieuwe mogelijkheden te creëren voor onderzoek, zoals betoogd in Currie (2013) .

Voor meer informatie over de vijf kluizen, zie Desai, Ritchie, and Welpton (2016) . Voor een voorbeeld van hoe de uitgangen kunnen identificeren, zie Brownstein, Cassa, and Mandl (2006) , waaruit blijkt hoe de kaarten van de prevalentie van de ziekte kan worden identificeren. Dwork et al. (2017) is ook van mening aanvallen op geaggregeerde gegevens, zoals statistieken over hoeveel mensen hebben een bepaalde ziekte.

  • Privacy (paragraaf 6.6.3)

Warren and Brandeis (1890) is een mijlpaal juridisch artikel over privacy, en het artikel wordt het meest geassocieerd met het idee dat de privacy is het recht om met rust gelaten worden. Meer recent boek lengte behandelingen van de persoonlijke levenssfeer die ik zou aanraden zijn onder Solove (2010) en Nissenbaum (2010) .

Voor een overzicht van empirisch onderzoek naar hoe mensen denken over privacy, zie Acquisti, Brandimarte, and Loewenstein (2015) . Het tijdschrift Science publiceerde een speciale editie met de titel "The End of Privacy", die de problematiek van de privacy en de risico-informatie uit een verscheidenheid van verschillende invalshoeken aan bod komt; voor een overzicht zie Enserink and Chin (2015) . Calo (2011) biedt een kader voor het denken over de schade die afkomstig zijn van de privacy schendingen. Een vroeg voorbeeld van de bezorgdheid over privacy in het begin van het digitale tijdperk is Packard (1964) .

  • Het nemen van beslissingen onder onzekerheid (paragraaf 6.6.4)

Een uitdaging wanneer het proberen om de minimale risico norm van toepassing is, dat het niet duidelijk is wie het dagelijkse leven moet worden gebruikt voor het benchmarken van (Council 2014) . Bijvoorbeeld, daklozen hebben een hoger niveau van ongemak in hun dagelijks leven. Maar dat betekent niet dat het ethisch toelaatbaar om dakloze mensen bloot te stellen aan een hogere risico-onderzoek. Om deze reden, lijkt er een groeiende consensus dat minimaal risico moet worden vergeleken met een algemene norm bevolking, niet een specifieke populatie standaard. Terwijl ik over het algemeen eens met het idee van een algemene norm bevolking, ik denk dat het voor grote online platforms zoals Facebook, een specifieke populatie standaard is redelijk. Dat wil zeggen, bij het overwegen van Emotional Contagion, ik denk dat het redelijk is om te benchmarken tegen dagelijkse risico's op Facebook. Een specifieke populatie standaard in dit geval is veel gemakkelijker te evalueren en is het onwaarschijnlijk dat in strijd is met het beginsel van Justitie, dat bedoeld is om de lasten van het onderzoek niet ten onrechte op de kansarme groepen (bijvoorbeeld, gevangenen en wezen) te voorkomen.

  • Praktische tips (paragraaf 6.7)

Andere wetenschappers hebben ook gepleit voor meer papieren om ethische bijlagen bevatten (Schultze and Mason 2012; Kosinski et al. 2015) . King and Sands (2015) biedt ook praktische tips.