6.3 Digital ist anders

Sozialforschung im digitalen Zeitalter hat andere Eigenschaften und wirft daher unterschiedliche ethische Fragen auf .

Im analogen Zeitalter hatten die meisten Sozialforschung eine relativ begrenzte Skala und operierten innerhalb einer Reihe von ziemlich klaren Regeln. Sozialforschung im digitalen Zeitalter ist anders. Forscher haben - oft in Zusammenarbeit mit Unternehmen und Regierungen - mehr Macht über die Teilnehmer als in der Vergangenheit, und die Regeln, wie diese Macht genutzt werden sollte, sind noch nicht klar. Mit Macht meine ich einfach die Fähigkeit, Menschen ohne ihre Zustimmung oder gar Bewusstheit Dinge zu tun. Zu den Dingen, die Forscher den Menschen antun können, gehört das Beobachten ihres Verhaltens und das Einschreiben in Experimente. Da die Fähigkeit der Forscher, zu beobachten und zu stören, zunimmt, gab es keine gleichwertige Zunahme an Klarheit darüber, wie diese Energie genutzt werden sollte. In der Tat müssen Forscher entscheiden, wie sie ihre Macht basierend auf inkonsistenten und sich überschneidenden Regeln, Gesetzen und Normen ausüben. Diese Kombination aus leistungsstarken Funktionen und vagen Richtlinien schafft schwierige Situationen.

Eine Reihe von Befugnissen, die Forscher jetzt haben, ist die Fähigkeit, das Verhalten von Menschen ohne ihre Zustimmung oder ihr Bewusstsein zu beobachten. Forscher könnten dies natürlich in der Vergangenheit tun, aber im digitalen Zeitalter ist die Skala völlig anders, eine Tatsache, die von vielen Fans großer Datenquellen wiederholt proklamiert wurde. Insbesondere, wenn wir von der Größenordnung eines einzelnen Studenten oder Professors abweichen und stattdessen den Umfang eines Unternehmens oder einer Regierung betrachten - Institutionen, mit denen Forscher zunehmend zusammenarbeiten - werden die möglichen ethischen Probleme komplex. Eine Metapher, von der ich glaube, dass sie den Menschen hilft, die Idee der Massenüberwachung zu visualisieren, ist das Panoptikum . Ursprünglich von Jeremy Bentham als Architektur für Gefängnisse vorgeschlagen, ist das Panopticon ein kreisförmiges Gebäude mit Zellen um einen zentralen Wachturm (Abbildung 6.3). Wer diesen Wachturm besetzt, kann das Verhalten aller Menschen in den Räumen beobachten, ohne selbst gesehen zu werden. Die Person im Wachturm ist somit ein unsichtbarer Seher (Foucault 1995) . Für einige Befürworter der Privatsphäre hat uns das digitale Zeitalter in ein panoptisches Gefängnis geführt, in dem Technologieunternehmen und Regierungen unser Verhalten ständig beobachten und neu aufzeichnen.

Abbildung 6.3: Entwurf für das von Jeremy Bentham vorgeschlagene Panoptikum-Gefängnis. In der Mitte gibt es einen unsichtbaren Seher, der das Verhalten aller beobachten kann, aber nicht beobachtet werden kann. Zeichnung von Willey Reveley, 1791 (Quelle: Wikimedia Commons).

Abbildung 6.3: Entwurf für das Panopticon-Gefängnis, das erstmals von Jeremy Bentham vorgeschlagen wurde. In der Mitte gibt es einen unsichtbaren Seher, der das Verhalten aller beobachten kann, aber nicht beobachtet werden kann. Zeichnung von Willey Reveley, 1791 (Quelle: Wikimedia Commons ).

Um diese Metapher ein wenig weiter zu tragen, wenn viele Sozialforscher über das digitale Zeitalter nachdenken, stellen sie sich im Wachtturm vor, beobachten das Verhalten und erstellen eine Master-Datenbank, die für alle möglichen spannenden und wichtigen Forschungen genutzt werden kann. Aber stell dir vor, du stellst dich im Wachtturm ein und stellst dich in einer der Zellen vor. Diese Master-Datenbank sieht aus wie das, was Paul Ohm (2010) eine Datenbank des Ruins genannt hat , die auf unethische Weise verwendet werden könnte.

Einige Leser dieses Buches haben das Glück, in Ländern zu leben, in denen sie ihren unsichtbaren Sehern vertrauen, ihre Daten verantwortungsvoll zu nutzen und sie vor Gegnern zu schützen. Andere Leser haben nicht so viel Glück und ich bin mir sicher, dass Fragen, die durch Massenüberwachung aufgeworfen werden, für sie sehr klar sind. Aber ich glaube, dass selbst für die glücklichen Leser noch immer ein wichtiges Anliegen der Massenüberwachung besteht: unvorhergesehener Sekundärgebrauch . Das heißt, eine Datenbank, die für einen bestimmten Zweck erstellt wurde, etwa für die Ausrichtung von Anzeigen, könnte eines Tages für einen ganz anderen Zweck genutzt werden. Ein schreckliches Beispiel für eine unvorhergesehene sekundäre Nutzung war während des Zweiten Weltkriegs, als Regierungsdaten für die Volkszählung verwendet wurden, um den Genozid gegen Juden, Roma und andere zu erleichtern (Seltzer and Anderson 2008) . Die Statistiker, die die Daten in friedlichen Zeiten sammelten, hatten fast sicher gute Absichten, und viele Bürger vertrauten ihnen, die Daten verantwortungsvoll zu nutzen. Aber als sich die Welt veränderte - als die Nazis an die Macht kamen - ermöglichten diese Daten einen sekundären Nutzen, der nie vorhergesehen wurde. Sobald eine Master-Datenbank existiert, ist es schwer vorwegzunehmen, wer Zugang zu ihr haben wird und wie sie verwendet wird. In der Tat haben William Seltzer und Margo Anderson (2008) 18 Fälle dokumentiert, in denen Populationsdatensysteme in Menschenrechtsverletzungen involviert oder potentiell involviert waren (Tabelle 6.1). Außerdem, wie Seltzer und Anderson betonen, ist diese Liste mit ziemlicher Sicherheit unterschätzt, da die meisten Missbräuche im Verborgenen passieren.

Tabelle 6.1: Fälle, in denen Populationsdatensysteme an Menschenrechtsverletzungen beteiligt waren oder daran beteiligt waren. Siehe Seltzer und Anderson (2008) für weitere Informationen über jeden Fall und Einschlusskriterien. Einige, aber nicht alle dieser Fälle betrafen einen unerwarteten sekundären Gebrauch.
Ort Zeit Gezielte Einzelpersonen oder Gruppen Datensystem Menschenrechtsverletzung oder vermutete Staatsabsicht
Australien 19. und Anfang des 20. Jahrhunderts Ureinwohner Einwohnerregistrierung Zwangsmigration, Elemente des Genozids
China 1966-76 Schlechter Klassenursprung während der Kulturrevolution Einwohnerregistrierung Zwangsmigration, angebliche Mafia-Gewalt
Frankreich 1940-44 Juden Bevölkerungsregistrierung, spezielle Volkszählungen Zwangsmigration, Genozid
Deutschland 1933-45 Juden, Roma und andere Zahlreiche Zwangsmigration, Genozid
Ungarn 1945-46 Deutsche und deutsche Muttersprachler Volkszählung 1941 Erzwungene Migration
Niederlande 1940-44 Juden und Roma Systeme zur Registrierung von Populationen Zwangsmigration, Genozid
Norwegen 1845-1930 Samis und Kvens Volkszählungen Ethnische Säuberung
Norwegen 1942-44 Juden Spezielle Volkszählung und vorgeschlagenes Bevölkerungsregister Völkermord
Polen 1939-43 Juden Hauptsächlich spezielle Volkszählungen Völkermord
Rumänien 1941-43 Juden und Roma Volkszählung 1941 Zwangsmigration, Genozid
Ruanda 1994 Tutsi Einwohnerregistrierung Völkermord
Südafrika 1950-93 Afrikanische und "farbige" Populationen 1951 Volkszählung und Einwohnerregistrierung Apartheid, Wahlentschließung
Vereinigte Staaten 19. Jahrhundert Amerikanische Ureinwohner Spezielle Volkszählungen, Bevölkerungsregister Erzwungene Migration
Vereinigte Staaten 1917 Verdacht auf Gesetzesverstöße Volkszählung von 1910 Untersuchung und Verfolgung von Personen, die eine Registrierung vermeiden
Vereinigte Staaten 1941-45 Japanische Amerikaner Volkszählung von 1940 Zwangswanderung und Internierung
Vereinigte Staaten 2001-08 Vermutete Terroristen NCES-Umfragen und Verwaltungsdaten Untersuchung und Verfolgung von inländischen und internationalen Terroristen
Vereinigte Staaten 2003 Arabisch-Amerikaner Volkszählung 2000 unbekannte
UdSSR 1919-39 Minderheitenpopulationen Verschiedene Volkszählungen Zwangsmigration, Bestrafung anderer schwerer Verbrechen

Normale Sozialforscher sind sehr, sehr weit davon entfernt, sich an Menschenrechtsverletzungen durch sekundäre Nutzung zu beteiligen. Ich habe mich jedoch entschieden, darüber zu diskutieren, weil ich denke, dass es Ihnen helfen wird, zu verstehen, wie einige Leute auf Ihre Arbeit reagieren könnten. Kommen wir als Beispiel auf das Projekt Tastes, Ties and Time zurück. Durch die Zusammenführung vollständiger und granularer Daten von Facebook mit vollständigen und detaillierten Daten aus Harvard schufen die Forscher eine erstaunlich reichhaltige Sicht auf das soziale und kulturelle Leben der Studenten (Lewis et al. 2008) . Für viele Sozialforscher scheint dies die Master-Datenbank zu sein, die man gut nutzen könnte. Aber für einige andere sieht es wie der Anfang der Datenbank des Ruins aus, die unethisch verwendet werden könnte. In der Tat ist es wahrscheinlich ein bisschen von beidem.

Zusätzlich zur Massenüberwachung können Forscher - wiederum in Zusammenarbeit mit Unternehmen und Regierungen - zunehmend in das Leben von Menschen eingreifen, um randomisierte kontrollierte Experimente zu erstellen. Zum Beispiel haben in "Emotional Contagion" 700.000 Menschen in einem Experiment ohne ihre Zustimmung oder Bewusstheit an einem Experiment teilgenommen. Wie ich in Kapitel 4 beschrieben habe, ist eine solche geheime Einberufung von Teilnehmern zu Experimenten keine Seltenheit und erfordert nicht die Kooperation großer Unternehmen. In Kapitel 4 habe ich Ihnen beigebracht, wie es geht.

Angesichts dieser erhöhten Macht unterliegen Forscher widersprüchlichen und sich überschneidenden Regeln, Gesetzen und Normen . Eine Quelle dieser Inkonsistenz ist, dass sich die Fähigkeiten des digitalen Zeitalters schneller verändern als Regeln, Gesetze und Normen. Zum Beispiel hat sich die Gemeinsame Regel (das Regelwerk, das die meisten staatlich finanzierten Forschungsprojekte in den Vereinigten Staaten regelt) seit 1981 nicht wesentlich verändert. Eine zweite Quelle der Inkonsistenz ist, dass Normen zu abstrakten Konzepten wie Privatsphäre immer noch aktiv von den Forschern diskutiert werden , politische Entscheidungsträger und Aktivisten. Wenn Spezialisten in diesen Bereichen keinen einheitlichen Konsens erreichen, sollten wir nicht von empirischen Forschern oder Teilnehmern erwarten. Eine dritte und letzte Quelle der Inkonsistenz ist, dass die Forschung im digitalen Zeitalter zunehmend in andere Kontexte gemischt wird, was zu potenziell überlappenden Normen und Regeln führt. Zum Beispiel war Emotional Contagion eine Zusammenarbeit zwischen einem Datenwissenschaftler bei Facebook und einem Professor und Doktorand in Cornell. Zu dieser Zeit war es bei Facebook üblich, große Experimente ohne fremde Aufsicht durchzuführen, solange die Experimente den Nutzungsbedingungen von Facebook entsprachen. In Cornell sind die Normen und Regeln ziemlich unterschiedlich; Praktisch alle Experimente müssen vom Cornell IRB überprüft werden. Also, welches Regelwerk sollte die emotionale Ansteckung regeln - Facebook oder Cornell? Wenn es widersprüchliche und sich überschneidende Regeln, Gesetze und Normen gibt, könnten sogar wohlmeinende Forscher Schwierigkeiten haben, das Richtige zu tun. Tatsächlich gibt es aufgrund der Inkonsistenz vielleicht nicht einmal eine einzige richtige Sache.

Im Großen und Ganzen bedeutet dies, dass Forscher, die im digitalen Zeitalter arbeiten, auf absehbare Zeit mit ethischen Herausforderungen konfrontiert sein werden, indem sie die Macht erhöhen und sich nicht darüber verständigen, wie diese Macht genutzt werden soll. Glücklicherweise muss man bei diesen Herausforderungen nicht von vorne beginnen. Stattdessen können Forscher Weisheit aus zuvor entwickelten ethischen Prinzipien und Frameworks ziehen, die Themen der nächsten beiden Abschnitte.