Weitere Erläuterungen

Dieser Abschnitt soll als Referenz verwendet werden, anstatt als eine Erzählung gelesen werden.

  • Einführung (Abschnitt 6.1)

Forschungsethik traditionell auch Themen wie wissenschaftlichen Betrug und die Zuweisung von Kredit enthalten. Diese Themen werden im Detail diskutiert in Engineering (2009) .

In diesem Kapitel wird durch die Situation in den Vereinigten Staaten stark geprägt. Weitere Informationen über die ethischen Überprüfungsverfahren in anderen Ländern finden Sie in Kapitel 6, 7, 8 und 9 von Desposato (2016b) . Für ein Argument , dass die biomedizinische ethischen Prinzipien , die dieses Kapitel beeinflusst haben übermäßig Amerikaner sind, sehen Holm (1995) . Weitere historische Überprüfung der Institutional Review Boards in den USA, sehen Stark (2012) .

Der Belmont-Bericht und späteren Verordnungen in den USA haben eine Unterscheidung zwischen Forschung und Praxis. Diese Unterscheidung wurde anschließend kritisiert (Beauchamp and Saghai 2012; boyd 2016; Metcalf and Crawford 2016; Meyer 2015) . Ich weiß nicht, diese Unterscheidung in diesem Kapitel machen, weil ich die ethischen Grundsätze und Rahmen für beide Einstellungen gelten denken. Mehr zu Forschung Aufsicht auf Facebook, sehen Jackman and Kanerva (2016) . Für einen Vorschlag für die Forschung Aufsicht bei Unternehmen und NGOs, siehe Polonetsky, Tene, and Jerome (2015) und Tene and Polonetsky (2016) .

Weitere Informationen über den Fall des Ebola - Ausbruch im Jahr 2014, siehe McDonald (2016) , und mehr über die Risiken für die Privatsphäre der Handy-Daten, siehe Mayer, Mutchler, and Mitchell (2016) . Ein Beispiel für die krisenbezogenen Forschung Handy - Daten finden Sie unter Bengtsson et al. (2011) und Lu, Bengtsson, and Holme (2012) .

  • Drei Beispiele (Abschnitt 6.2)

Viele Menschen haben über emotionale Ansteckung geschrieben. Die Zeitschrift Forschungsethik widmeten ihre gesamte Ausgabe im Januar 2016 , das Experiment zu diskutieren; siehe Hunter and Evans (2016) für einen Überblick. Die Proceedings der National Academics of Science veröffentlicht zwei Stücke über das Experiment: Kahn, Vayena, and Mastroianni (2014) und Fiske and Hauser (2014) . Andere Stücke über das Experiment sind: Puschmann and Bozdag (2014) ; Meyer (2014) ; Grimmelmann (2015) ; Meyer (2015) ; Selinger and Hartzog (2015) ; Kleinsman and Buckley (2015) ; Shaw (2015) ; Flick (2015) .

Weitere Informationen über Encore finden Jones and Feamster (2015) .

  • Digital ist unterschiedlich (Abschnitt 6.3)

In Bezug auf die Massenüberwachung, breite Übersichten sind enthalten in Mayer-Schönberger (2009) und Marx (2016) . Für ein konkretes Beispiel für die sich verändernden Kosten der Überwachung, Bankston and Soltani (2013) schätzt , dass eine kriminelle Verdächtige mit Handys Tracking ist etwa 50 - mal billiger als die physische Überwachung verwenden. Bell and Gemmell (2009) eine optimistischere Sicht auf sich selbst stellt Überwachung. Neben beobachtbares Verhalten zu verfolgen zu können, die öffentlich oder teilweise öffentlich ist (zB Geschmack, Krawatten und Zeit), können die Forscher zunehmend Dinge schließen, dass viele Teilnehmer betrachten privat. Zum Beispiel Michal Kosinski und Kollegen zeigten , dass sie sensible Informationen über die Menschen, wie sexuelle Orientierung und die Verwendung von Suchtstoffen aus scheinbar gewöhnlichen Digital Trace - Daten ableiten könnte (Facebook Likes) (Kosinski, Stillwell, and Graepel 2013) . Dies könnte magische klingen, aber der Ansatz Kosinski und Kollegen verwendet-die digitalen Spuren kombiniert, Umfragen und überwacht etwas tatsächlich lern ist, die ich Ihnen schon erzählt habe. Daran erinnern , dass in Kapitel 3 (Fragen zu stellen) Ich habe dir gesagt , wie Josh Blumenstock und Kollegen (2015) kombiniert Umfrage Daten mit Handy-Daten Armut in Ruanda zu schätzen. Diese exakt gleichen Ansatz, der verwendet werden kann, effizient Armut in Entwicklungsländern zu messen, kann auch für die potenziell die Privatsphäre zu verletzen Schlüssen verwendet werden.

Uneinheitliche Gesetze und Normen können für die Forschung führen , die nicht den Wünschen der Teilnehmer nicht respektiert, und es kann von den Forschern zu "regulatorischen Shopping" führen (Grimmelmann 2015; Nickerson and Hyde 2016) . Insbesondere die einige Forscher wollen IRB Aufsicht Partner zu vermeiden, haben die von IRBs nicht abgedeckt sind (zB Personen in Unternehmen oder NGOs) sammeln und de-Identifizierung Daten. Dann können die Forscher diese de-identifizierte Daten ohne IRB Aufsicht analysieren, zumindest nach einigen Interpretationen der aktuellen Regeln. Diese Art der IRB Umgehung erscheint mit einer prinzipienbasierten Ansatz unvereinbar zu sein.

Weitere Informationen über die inkonsistenten und heterogenen Ideen , die Menschen über Gesundheitsdaten haben, finden Sie Fiore-Gartland and Neff (2015) . Weitere Informationen über das Problem , dass Heterogenität für die Forschung Ethik schafft Entscheidungen siehe Meyer (2013) .

Ein Unterschied zwischen analogen und digitalen Zeitalter Alter Forschung ist , dass in digitalen Zeitalter Forschung Interaktion mit den Teilnehmern weiter entfernt ist. Diese Wechselwirkungen treten häufig über einen Vermittler, wie ein Unternehmen, und es ist in der Regel eine große physische-und sozial Abstand zwischen Forschern und Teilnehmern. Diese entfernte Interaktion macht einige Dinge, die in der analogen Zeitalter Forschung schwer in Forschung digitalen Zeitalter leicht sind, wie Teilnehmer Aussieben, die zusätzlichen Schutz benötigen, unerwünschte Ereignisse zu erfassen, und Sanieren schaden, wenn sie auftritt. Nehmen wir zum Beispiel die emotionale Ansteckung mit einem hypothetischen Laborexperiment zum gleichen Thema gegenüber. Im Laborexperiment konnten die Forscher herausfiltern alle, die im Labor zeigt offensichtliche Anzeichen von emotionalem Stress kommt. wenn das Laborexperiment ein unerwünschtes Ereignis Ferner erstellt, würde Forscher sehen es Dienstleistungen erbringen, den Schaden zu sanieren, und dann Anpassungen vornehmen, um die experimentelle Protokoll für zukünftige Schäden zu verhindern. Die ferne Natur der Interaktion in der eigentlichen emotionale Ansteckung Experiment macht jede dieser einfachen und sinnvollen Schritte, extrem schwierig. Außerdem vermute ich, dass der Abstand zwischen den Forschern und Teilnehmern macht Forscher weniger empfindlich auf die Anliegen ihrer Teilnehmer.

Andere Quellen von inkonsistenten Normen und Gesetze. Einige dieser Inkonsistenz kommt von der Tatsache, dass diese Forschung auf der ganzen Welt geschieht. Zum Beispiel beteiligt Encore Menschen aus der ganzen Welt, und deshalb könnte es an den Datenschutzgesetzen von vielen verschiedenen Ländern unterliegen. Was ist, wenn die Normen von Drittanbietern Web-Anfragen regeln (was Encore tat) unterscheiden sich in Deutschland, den Vereinigten Staaten, Kenia und China? Was ist, wenn die Normen innerhalb eines einzigen Landes nicht einmal konsistent sind? Eine zweite Quelle der Inkonsistenz kommt aus der Zusammenarbeit zwischen Forschern an Universitäten und Unternehmen; Emotionale Ansteckung zum Beispiel war eine Zusammenarbeit zwischen einem Daten Wissenschaftler bei Facebook und einem Professor und Doktorand an der Cornell. Bei Facebook ist groß Experimente laufen Routine und zu diesem Zeitpunkt, erforderte keine Fremd ethische Bewertung. An der Cornell sind die Normen und Regeln ganz anders; praktisch alle Versuche müssen von der Cornell IRB überprüft werden. Also, welche Menge von Regeln sollten emotionale Ansteckung-Facebook oder Cornell regieren?

Weitere Informationen über die Bemühungen , die gemeinsame Regel zu überarbeiten, siehe Evans (2013) , Council (2014) , Metcalf (2016) und Hudson and Collins (2015) .

  • Vier Prinzipien (Abschnitt 6.4)

Die klassische prinzipienbasierten Ansatz der biomedizinischen Ethik ist Beauchamp and Childress (2012) . Sie schlagen vor, dass vier wichtigsten Grundsätze der biomedizinischen Ethik führen sollte: Respekt für die Autonomie, Schadensvermeidung, Beneficence und Gerechtigkeit. Das Prinzip der Schadensvermeidung fordert man von einen Schaden verursacht, zu anderen Menschen zu verzichten. Dieses Konzept ist mit tief hippokratischen Idee "nicht schaden." In der Forschung Ethik wird dieses Prinzip oft mit dem Grundsatz der Beneficence kombiniert, sondern sehen Beauchamp and Childress (2012) (Kapitel 5) , um mehr über den Unterschied zwischen den beiden . Für eine Kritik , dass diese Grundsätze über amerikanische sind, sehen Holm (1995) . Für mehr auf Ausgleich , wenn die Prinzipien Konflikt, siehe Gillon (2015) .

Die vier Grundsätze in diesem Kapitel auch für die Forschung ethische Aufsicht zu führen, die im Unternehmen und NGOs vorgeschlagen worden (Polonetsky, Tene, and Jerome 2015) durch die Körper namens "Consumer Thema Review Boards" (CSRBs) (Calo 2013) .

  • Die Achtung der Personen (Abschnitt 6.4.1)

Neben der Autonomie zu respektieren, erkennt der Belmont-Bericht auch, dass nicht jeder Mensch der wahre Selbstbestimmung fähig ist. Zum Beispiel, Kinder, leiden die Menschen von der Krankheit, oder Menschen, die in Situationen von stark eingeschränkt Freiheit darf nicht als vollständig autonome Individuen handeln können, und diese Menschen sind daher unterliegen zusätzlichen Schutz.

Die Anwendung des Prinzips der Achtung der Personen im digitalen Zeitalter kann eine Herausforderung sein. Zum Beispiel in digitalen Zeitalter Forschung, kann es schwierig sein, zusätzliche Schutzmaßnahmen für Menschen mit verminderter Fähigkeit zur Selbstbestimmung zu schaffen, weil die Forscher wissen oft sehr wenig über ihre Teilnehmer. informierte Zustimmung im digitalen Zeitalter Sozialforschung Des weiteren ist eine große Herausforderung. In einigen Fällen kann wirklich informierte Zustimmung der Transparenz Paradoxon leiden (Nissenbaum 2011) , wo Informationen und Verständnis im Konflikt stehen. Grob gesagt, wenn die Forscher vollständige Informationen über die Art der Datensammlung, Datenanalyse und Datensicherheitspraktiken bieten, wird es schwierig sein, für viele Teilnehmer zu verstehen. Aber wenn Forscher verständliche Informationen zur Verfügung stellen, kann es wichtige technische Informationen fehlen. In der medizinischen Forschung in der analogen alters die dominate Einstellung durch einen Bericht-Belmont betrachtet könnte ein Arzt vorstellen, individuell mit jedem Teilnehmer sprechen die Transparenz Paradoxon zu helfen, zu lösen. In Online-Studien mit Tausenden oder Millionen von Menschen, wie ein Face-to-face-Beteiligung Ansatz ist unmöglich. Ein zweites Problem mit Zustimmung im digitalen Zeitalter ist, dass, wie die Analyse der massiven Daten-Repositories in einigen Studien, es unpraktisch wäre informierte Zustimmung aller Beteiligten zu erhalten. Ich diskutiere diese und andere Fragen zu Einwilligungs genauer in Abschnitt 6.6.1. Trotz dieser Schwierigkeiten jedoch sollten wir uns daran erinnern, dass informierte Einwilligung ist weder notwendig noch hinreichend für Respekt vor Personen.

Weitere Informationen über die medizinische Forschung vor informierte Zustimmung finden Miller (2014) . Für eine Buchlänge Behandlung von informierte Zustimmung finden Manson and O'Neill (2007) . Siehe auch die vorgeschlagenen Lesungen über informierte Zustimmung unten.

  • Beneficence (Abschnitt 6.4.2)

aber zu sozialen Einstellungen Harms Kontext ist der Schaden, dass die Forschung nicht auf bestimmte Menschen verursachen können. Dieses Konzept ist ein bisschen abstrakt, aber ich werde es mit zwei Beispielen verdeutlichen: ein analoges und ein digitales.

Ein klassisches Beispiel für Harms zu Kontext kommt von der Wichita Jury - Studie [ Vaughan (1967) , Katz, Capron, and Glass (1972) ; Ch 2] -. Auch manchmal als die Chicago Jury - Projekt (Cornwell 2010) . In dieser Studie wurden die Forscher von der University of Chicago, als Teil einer größeren Studie über die sozialen Aspekte des Rechtssystems, heimlich sechs Jury-Sitzung in Wichita, Kansas aufgezeichnet. Die Richter und Anwälte in den Fällen hatte die Aufnahmen genehmigt, und es gab strenge Aufsicht über den Prozess. Allerdings waren die Juroren nicht bewusst, dass Aufnahmen wurden auftreten. Sobald die Studie entdeckt wurde, gab es die öffentliche Empörung. Das Justizministerium leitete eine Untersuchung der Studie, die Forscher wurden vor Kongress auszusagen genannt. Schließlich verabschiedete der Kongress ein neues Gesetz, das es illegal, heimlich aufzeichnen Jury Überlegung macht.

Die Sorge der Kritiker der Studie Wichita Jury wurde nicht an die Teilnehmer schaden; Vielmehr war es Harms auf den Kontext der Jury Beratung. Das heißt, die Menschen glaubten, dass, wenn Jurymitglieder glaubten nicht, dass sie Gespräche in einem sicheren und geschützten Raum hatten, wäre es schwieriger für Jury-Sitzung in die Zukunft zu gehen. Neben Jury Beratung gibt es auch andere spezifische soziale Kontexte , die Gesellschaft mit zusätzlichen Schutz bietet wie Anwalt-Mandanten - Beziehungen und psychologische Betreuung (MacCarthy 2015) .

Das Risiko von Schäden an Rahmen und die Unterbrechung der Sozialsysteme kommt auch in einigen Feldversuchen in Politikwissenschaft bis (Desposato 2016b) . Ein Beispiel für eine kontextsensitive Kosten-Nutzen - Rechnung für einen Feldversuch in Politikwissenschaft, siehe Zimmerman (2016) .

  • Justice (Abschnitt 6.4.3)

Entschädigung für die Teilnehmer in einer Reihe von Einstellungen im Zusammenhang mit digitalen Zeitalter Forschung. Diskutiert Lanier (2014) vorgeschlagen zahlende Teilnehmer für digitale Spuren , die sie erzeugen. Bederson and Quinn (2011) diskutiert Zahlungen in Online - Arbeitsmärkte. Schließlich Desposato (2016a) schlägt Teilnehmer in Feldversuchen zu zahlen. Er weist darauf hin, dass selbst wenn die Teilnehmer nicht direkt bezahlt werden, könnte eine Spende an eine Gruppe in ihrem Auftrag tätig gemacht werden. Zum Beispiel in Encore haben die Forscher konnten eine Spende an eine Gruppe gemacht Arbeits Zugang zum Internet zu unterstützen.

  • Die Achtung vor Recht und Public Interest (Abschnitt 6.4.4)

Terms-of-Service sollten Vereinbarungen haben weniger Gewicht als Verträge zwischen gleichen Parteien und Gesetze geschaffen durch legitime Regierungen ausgehandelt. Situationen, in denen Forscher Terms-of-Service-Vereinbarungen in der Vergangenheit im Allgemeinen verletzt beinhalten automatisierte Abfragen über das Verhalten von Unternehmen zu prüfen (ähnlich wie Feldversuche Diskriminierung zu messen). Siehe weitere Diskussion Vaccaro et al. (2015) , Bruckman (2016a) , Bruckman (2016b) . Ein Beispiel für die empirische Forschung , die Bezug auf Service diskutiert, siehe Soeller et al. (2016) . Weitere Informationen über die möglichen rechtlichen Probleme Forscher gegenüber, wenn sie verletzen Nutzungsbedingungen sehen Sandvig and Karahalios (2016) .

  • Zwei ethischen Rahmenbedingungen (Abschnitt 6.5)

Offensichtlich enorme Mengen wurden über Konsequentialismus und deontology geschrieben. Ein Beispiel dafür , wie diese ethischen Rahmenbedingungen und andere, können verwendet werden , um digitale Zeitalter Forschung zur Vernunft finden Zevenbergen et al. (2015) . Ein Beispiel dafür , wie diese ethischen Rahmenbedingungen können auf Feldversuchen angewandt werden in der Wirtschaft zu entwickeln, siehe Baele (2013) .

  • Die Einwilligungserklärung (Abschnitt 6.6.1)

Weitere Informationen über die Prüfung Studien von Diskriminierung, siehe Pager (2007) und Riach and Rich (2004) . Nicht nur diese Studien nicht informierte Einwilligung haben, sie auch Täuschung ohne Nachbesprechung einzubeziehen.

Sowohl Desposato (2016a) und Humphreys (2015) bieten Beratung über Feldversuche ohne Zustimmung.

Sommers and Miller (2013) Bewertungen viele Argumente , die für die Teilnehmer nicht nach Täuschung Debriefing, und argumentiert , dass Forscher "verzichten unter einem sehr engen Satz Nachbesprechung von Umständen, nämlich in der Feldforschung , in der Nachbesprechung erhebliche praktische Hindernisse , aber Forscher stellt müssten keine Skrupel Debriefing, wenn sie könnten. Die Forscher sollten nicht erlaubt sein Debriefing, um zu verzichten einen naiven Teilnehmer-Pool zu erhalten, schützen sich vor Teilnehmer Wut oder schützen Teilnehmer vor Schaden. "Andere argumentieren, dass, wenn Nachbesprechung mehr schaden als nützen verursacht es sollte vermieden werden. Debriefing ist ein Fall, in dem einige Forscher Respekt für Personen über Beneficence priorisieren, und einige Forscher das Gegenteil tun. Eine mögliche Lösung wäre es, Wege zu finden, eine Lernerfahrung für die Teilnehmer zu machen Nachbesprechung. Das heißt, anstatt von Debriefing als etwas zu denken, die Schaden anrichten können, vielleicht können Nachbesprechung auch etwas sein, dass die Teilnehmer zugute kommt. Ein Beispiel für diese Art von Bildung Nachbesprechung finden Jagatic et al. (2007) auf die Schüler nach einem sozialen Phishing - Versuch Nachbesprechung. Psychologen haben Techniken entwickelt , für Debriefing (DS Holmes 1976a; DS Holmes 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) und einige davon nutzbringend auf digitale Zeitalter Forschung angewendet werden kann. Humphreys (2015) bietet interessante Gedanken über latente Zustimmung, die eng im Zusammenhang mit der Nachbesprechung Strategie, die ich beschrieben.

Die Idee, eine Stichprobe von Teilnehmern für ihre Zustimmung bitten , ist im Zusammenhang mit was Humphreys (2015) nennt abgeleitete Zustimmung.

Eine weitere Idee, die informierte Zustimmung verwandten vorgeschlagen wurde , ist eine Gruppe von Menschen zu bauen , die in Online - Experimente zu vereinbaren (Crawford 2014) . Manche haben argumentiert, dass diese Platte eine nicht-zufällige Stichprobe von Menschen sein würde. Aber, Kapitel 3 (Fragen zu stellen) zeigt, dass diese Probleme möglicherweise adressierbar sind mit post-Schichtung und Musteranpassung. Auch Zustimmung auf der Platte sein könnte eine Vielzahl von Experimenten decken. Mit anderen Worten, zu jedem Experiment Teilnehmer müssen zustimmen könnten nicht einzeln, ein Konzept namens breite Zustimmung (Sheehan 2011) .

  • Das Verständnis und die Verwaltung Informationsrisiko (Abschnitt 6.6.2)

Weit davon entfernt, einzigartig, zeigt der Netflix-Preis eine wichtige technische Eigenschaft von Datensätzen, die detaillierte Informationen über Personen enthalten, und bietet somit wichtige Erkenntnisse über die Möglichkeit der "Anonymisierung" der modernen sozialen Datensätze. Dateien mit vielen Stücken von Informationen über jede Person sind wahrscheinlich spärlich zu sein, in dem Sinne , formal definiert in Narayanan and Shmatikov (2008) . Das heißt, für jeden Datensatz gibt es keine Aufzeichnungen, die gleich sind, und in der Tat gibt es keine Aufzeichnungen, die sehr ähnlich sind: jeder Mensch ist weit weg von ihren nächsten Nachbarn in dem Datensatz. Man kann sich vorstellen , dass die Netflix Daten spärlich sein könnte , weil mit etwa 20.000 Filme auf einem 5 - Sterne - Skala gibt es etwa \ (6 ^ {20000} \) mögliche Werte , die jede Person (6 , weil zusätzlich zu einem 5 Sterne haben könnte könnte jemand den Film nicht überhaupt bewertet haben). Diese Anzahl ist so groß, es ist schwer, auch verstehen.

Sparsity hat zwei wesentliche Auswirkungen. Zunächst bedeutet es, dass die Datenmenge, basierend auf zufällige Störung ausfallen wird wahrscheinlich auf "anonymisieren" versuchen. Das heißt, selbst wenn Netflix einige der Bewertungen nach dem Zufallsprinzip anzupassen waren (was sie auch taten), ist dies nicht ausreichend sein würde, weil die gestörte Rekord noch in der Nähe möglich Datensatz an die Information ist, dass der Angreifer hat. Zweitens bedeutet die sparsity, dass de-Anonymisierung möglich ist, auch wenn der Angreifer unvollkommen oder unparteiisch Wissen hat. Zum Beispiel in den Netflix Daten, stellen wir uns vor der Angreifer Ihre Bewertung für zwei Filme kennt und die Termine für Sie diese Ratings gemacht +/- 3 Tage; nur allein, dass die Informationen ausreichen, um eindeutig 68% der Menschen in den Netflix-Daten zu identifizieren. Wenn der Angreifer kennt 8 Filme, die Sie +/- 14 Tage bewertet haben, dann, selbst wenn zwei dieser bekannten Ratings völlig falsch sind, 99% der Datensätze eindeutig im Datensatz identifiziert werden. Mit anderen Worten, ist sparsity ein grundsätzliches Problem für die Bemühungen Daten zu "Anonymisierung", das ist schade, weil die meisten modernen Sozial-Datensatz spärlich sind.

Telefon Metadaten auch erscheinen mag "anonymous" und nicht empfindlich zu sein, aber das ist nicht der Fall. Telefon - Metadaten ist identifizierbar und sensible (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .

In Abbildung 6.6 skizzierte ich einen Trade-off zwischen Risiko für die Teilnehmer und den Nutzen für die Forschung von der Datenfreigabe. Für einen Vergleich zwischen eingeschränkten Zugang Ansätze (zB ein ummauerter Garten) und eingeschränkte Daten Ansätze (zB irgendeine Form von Anonymisierungs) siehe Reiter and Kinney (2011) . Für eine vorgeschlagene Kategorisierung System des Risikoniveaus von Daten siehe Sweeney, Crosas, and Bar-Sinai (2015) . Schließlich ist für eine allgemeine Diskussion über Datenaustausch, siehe Yakowitz (2011) .

Für detailliertere Analyse dieser Trade-off zwischen Risiko und Nutzen von Daten finden Sie Brickell and Shmatikov (2008) , Ohm (2010) , Wu (2013) , Reiter (2012) , und Goroff (2015) . Um diesen Kompromiss auf reale Daten aus massiv offenen Online - Kursen (MOOCs) angewendet sehen, siehe Daries et al. (2014) und Angiuli, Blitzstein, and Waldo (2015) .

Differential Privatsphäre bietet auch einen alternativen Ansatz, der sowohl hohe Nutzen für die Gesellschaft und geringes Risiko für die Teilnehmer verbinden können, finden Sie Dwork and Roth (2014) und Narayanan, Huey, and Felten (2016) .

Um mehr über das Konzept der personenbezogenen Daten (PII), die viele der Regeln über Forschungsethik ist von zentraler Bedeutung, siehe Narayanan and Shmatikov (2010) und Schwartz and Solove (2011) . Weitere Informationen zu allen Daten potentiell empfindlich finden Ohm (2015) .

In diesem Abschnitt habe ich die Verknüpfung verschiedener Datensätze als etwas dargestellt, das Informationsrisiko führen kann. Es kann aber auch neue Möglichkeiten für die Forschung schaffen, wie in argumentiert Currie (2013) .

Weitere Informationen zu den fünf Safes, siehe Desai, Ritchie, and Welpton (2016) . Ein Beispiel dafür , wie Ausgänge können identifiziert werden, siehe Brownstein, Cassa, and Mandl (2006) , das zeigt , wie Karten von der Prävalenz der Krankheit identifiziert werden kann. Dwork et al. (2017) hält auch Angriffe auf aggregierten Daten, wie Statistiken darüber , wie viele Personen eine bestimmte Krankheit haben.

  • Privacy (Abschnitt 6.6.3)

Warren and Brandeis (1890) ist ein Meilenstein Rechts Artikel über die Privatsphäre und der Artikel ist am meisten mit der Idee verbunden , dass die Privatsphäre ein Recht ist , allein gelassen zu werden. In jüngerer Zeit , dass Buch Länge Behandlungen der Privatsphäre würde ich schließen empfehlen Solove (2010) und Nissenbaum (2010) .

Für einen Überblick über die empirische Forschung darüber , wie über Privatsphäre Leute denken, sehen Acquisti, Brandimarte, and Loewenstein (2015) . Die Zeitschrift Science veröffentlicht eine Sonderausgabe dem Titel "Das Ende der Privatsphäre", die die Fragen der Privatsphäre und das Informationsrisiko aus einer Vielzahl von verschiedenen Perspektiven befasst; für eine Zusammenfassung siehe Enserink and Chin (2015) . Calo (2011) einen Rahmen für das Nachdenken über die Schäden bietet , die von Verletzungen der Privatsphäre kommen. Ein frühes Beispiel für Bedenken bezüglich der Privatsphäre in den Anfängen des digitalen Zeitalters ist Packard (1964) .

  • Treffen von Entscheidungen unter Unsicherheit (Abschnitt 6.6.4)

Eine Herausforderung bei dem Versuch , die ein minimales Risiko Standard anzuwenden ist , dass es nicht klar ist , deren tägliche Leben ist für das Benchmarking verwendet werden soll (Council 2014) . Zum Beispiel haben Obdachlose höhere Beschwerden in ihrem täglichen Leben. Aber bedeutet das nicht, dass es ethisch zulässig ist Obdachlose zu höheren Risikoforschung zu belichten. Aus diesem Grund scheint es einen wachsenden Konsens zu sein , dass ein minimales Risiko sollte gegen einen allgemeinen Bevölkerung Standard verglichen werden, nicht eine spezifische Population Standard. Während ich in der Regel mit der Idee einer allgemeinen Bevölkerung Standard zustimmen, denke ich, dass für große Online-Plattformen wie Facebook, eine bestimmte Bevölkerungs Standard zumutbar ist. Das heißt, wenn man bedenkt emotionale Ansteckung, ich denke, dass es zum Benchmark gegen die alltäglichen Risiken auf Facebook zumutbar ist. Eine spezifische Population Standard in diesem Fall ist viel einfacher zu bewerten und ist unwahrscheinlich, dass mit dem Grundsatz der Gerechtigkeit zuwiderlaufen, die die Lasten der Forschung zu verhindern sucht zu Unrecht auf benachteiligte Gruppen Versagen (zB Gefangenen und Waisen).

  • Praktische Tipps (Abschnitt 6.7)

Andere Wissenschaftler haben auch für mehr Papiere genannt ethische Anlagen zu schließen (Schultze and Mason 2012; Kosinski et al. 2015) . King and Sands (2015) bietet auch praktische Tipps.