6.3 Digital é diferente

Investigación social na era dixital ten características diferentes e, polo tanto, levanta varias cuestións éticas.

Na idade análoga, a maioría das investigacións sociais tiñan unha escala relativamente limitada e operaban dentro dun conxunto de regras claramente claras. A investigación social na era dixital é diferente. Os investigadores, moitas veces en colaboración con empresas e gobernos, teñen máis poder sobre os participantes que no pasado e as regras sobre o uso deste poder aínda non están claras. Polo poder, quero dicir simplemente a capacidade de facer cousas ás persoas sen o seu consentimento nin sequera a conciencia. O tipo de cousas que os investigadores poden facer ás persoas inclúen observar o seu comportamento e inscribirlas en experimentos. Como aumenta o poder dos investigadores para observar e perturbar, non houbo un aumento equivalente de claridade sobre o xeito no que se debe empregar ese poder. De feito, os investigadores deben decidir como exercer o seu poder baseándose en regras, leis e normas incompatibles e superpostas. Esta combinación de poderosas capacidades e pautas vagas crea situacións difíciles.

Un conxunto de competencias que teñen agora os investigadores é a capacidade de observar o comportamento das persoas sen o seu consentimento ou conciencia. Os investigadores poden, por suposto, facer isto no pasado, pero na era digital, a escala é completamente diferente, un feito que foi proclamado repetidamente por moitos fanáticos das grandes fontes de datos. En particular, se avanzamos da escala dun estudante ou profesor individual e consideramos a escala dunha empresa ou institucións gobernamentais coas que os investigadores colaboran cada vez máis, os posibles problemas éticos fanse complexos. Unha metáfora que creo que axuda ás persoas a visualizar a idea de vixilancia masiva é o panopticon . Orixinalmente proposto por Jeremy Bentham como unha arquitectura para as prisións, o panóptico é un edificio circular con células construídas ao redor dunha torre de vixilancia central (figura 6.3). Quen ocupe esta atalaya pode observar o comportamento de todas as persoas nas salas sen verse. A persoa na torre de vixía é así un vidente invisible (Foucault 1995) . Para algúns defensores da privacidade, a era dixital nos mudou a unha prisión panóptica onde as empresas e os gobernos tecnolóxicos están constantemente vendo e recodando o noso comportamento.

Figura 6.3: Deseño para a prisión de Panopticon, primeiro proposto por Jeremy Bentham. No centro, hai un vidente invisible que pode observar o comportamento de todos pero que non se pode observar. Debuxo de Willey Reveley, 1791 (Fonte: Wikimedia Commons).

Figura 6.3: Deseño para a prisión de Panopticon, primeiro proposto por Jeremy Bentham. No centro, hai un vidente invisible que pode observar o comportamento de todos pero que non se pode observar. Debuxo de Willey Reveley, 1791 (Fonte: Wikimedia Commons ).

Para levar esta metáfora un pouco máis lonxe, cando moitos investigadores sociais pensan na era dixital, se imaxinan dentro da atalaya, observan o comportamento e crean unha base de datos mestra que se podería empregar para facer todo tipo de investigación excitante e importante. Pero agora, en vez de imaxinarse na torre de vixilia, imagínese nunha das células. Esa base de datos mestre comeza a parecerse a que Paul Ohm (2010) chamou unha base de datos de ruína , que podería usarse de forma non ética.

Algúns lectores deste libro teñen a sorte de vivir en países onde confían que os seus videntes non vistos usen os seus datos de forma responsable e protexéndoos dos adversarios. Outros lectores non teñen moita sorte, e estou seguro de que as cuestións que suscita a vixilancia masiva son moi claras para eles. Pero eu creo que mesmo para os lectores de sorte aínda hai unha preocupación importante levada a cabo pola vixilancia masiva: uso secundario imprevisto . É dicir, unha base de datos creada para un propósito, por exemplo, anuncios de orientación, podería usarse algún día para un propósito moi diferente. Un horrible exemplo de uso secundario imprevisto ocorreu durante a Segunda Guerra Mundial, cando os datos do censo do goberno foron utilizados para facilitar o xenocidio que se producía contra xudeus, xitanos e outros (Seltzer and Anderson 2008) . Os estadísticos que recolleron os datos durante tempos pacíficos seguramente tiveron boas intencións e moitos cidadáns confiaron en que usasen os datos de forma responsable. Pero, cando o mundo cambiou, cando os nazis chegaron ao poder, estes datos permitiron un uso secundario que nunca se esperaba. Simplemente, unha vez que existe unha base de datos mestre, é difícil anticipar quen pode acceder a el e como se vai usar. De feito, William Seltzer e Margo Anderson (2008) documentaron 18 casos nos que os sistemas de datos da poboación estiveron implicados ou potencialmente implicados en abusos dos dereitos humanos (táboa 6.1). Ademais, como sinalan Seltzer e Anderson, esta lista é case certamente unha subestimación porque a maioría dos abusos ocorren en segredo.

Táboa 6.1: casos nos que os sistemas de datos de poboación foron implicados ou potencialmente implicados nos abusos dos dereitos humanos. Consulte Seltzer e Anderson (2008) para obter máis información sobre cada caso e criterios de inclusión. Algúns, pero non todos, destes casos implicaron un uso secundario inesperado.
Lugar Tempo Individuos ou grupos dirixidos Sistema de datos Violación dos dereitos humanos ou presunta intención estatal
Australia Século XIX e principios do XX Aborixes Rexistro de poboación Migración forzada, elementos de xenocidio
China 1966-76 Orixe da clase malvada durante a revolución cultural Rexistro de poboación Migración forzada, violencia instigada pola mafia
Francia 1940-44 Xudeus Rexistro de poboación, censos especiais Migración forzada, xenocidio
Alemaña 1933-45 Xudeus, xitanos e outros Numerosos Migración forzada, xenocidio
Hungría 1945-46 Os cidadáns alemáns e os que informan a lingua materna alemá Censo de poboación de 1941 Migración forzada
Países Baixos 1940-44 Xudeus e xitanos Sistemas de rexistro de poboación Migración forzada, xenocidio
Noruega 1845-1930 Samis e Kvens Censos de poboación Limpeza étnica
Noruega 1942-44 Xudeus Censo especial e rexistro de poboación proposto Genocidio
Polonia 1939-43 Xudeus Primariamente censos especiais Genocidio
Rumania 1941-43 Xudeus e xitanos Censo de poboación de 1941 Migración forzada, xenocidio
Rwanda 1994 Tutsi Rexistro de poboación Genocidio
África do Sur 1950-93 Poboacións africanas e "coloreadas" Censo de poboación de 1951 e rexistro de poboación Apartheid, disenfranchisement do votante
Estados Unidos Século XIX Nativos americanos Censos especiais, rexistros de poboación Migración forzada
Estados Unidos 1917 Protesta de infractores de lei Censo de 1910 Investigación e acusación dos que evitan o rexistro
Estados Unidos 1941-45 Xaponeses estadounidenses Censo de 1940 Migración forzada e internamento
Estados Unidos 2001-08 Terroristas sospeitosos Incluindo enquisas e datos administrativos Investigación e procesamento de terroristas domésticos e internacionais
Estados Unidos 2003 Árabes-americanos Censo de 2000 Descoñecido
URSS 1919-39 Poboacións minoritarias Varios censos de poboación Migración forzada, castigo doutros delitos graves

Os investigadores sociais comúns están moi, moi lonxe de calquera cousa como participar en abusos dos dereitos humanos a través do uso secundario. Non obstante, decidín discutir isto porque creo que o axudará a comprender como algunhas persoas poden reaccionar ao seu traballo. Volvamos ao proxecto Tastes, Ties e Time como exemplo. Ao fusionar datos completos e granulares de Facebook con información completa e granular de Harvard, os investigadores crearon unha visión incriblemente rica da vida social e cultural dos estudantes (Lewis et al. 2008) . Para moitos investigadores sociais, isto parece ser a base de datos maxistral, que podería usarse para sempre. Pero para outros, semella o inicio da base de datos de ruína, que podería usarse de xeito non ético. De feito, probablemente sexa un pouco de ambos.

Ademais da vixilancia masiva, os investigadores, unha vez máis en colaboración con empresas e gobernos, poden intervir cada vez máis na vida das persoas para crear experimentos controlados aleatorizados. Por exemplo, no Contagio Emocional, os investigadores matricularon a 700.000 persoas nun experimento sen o seu consentimento ou conciencia. Como describín no capítulo 4, este tipo de conscripción secreta de participantes en experimentos non é raro e non require a cooperación de grandes empresas. De feito, no capítulo 4 teño ensinado como facelo.

Fronte a este poder crecente, os investigadores están suxeitos a regras, leis e normas non uniformes e superponibles . Unha fonte desta inconsistencia é que as capacidades da era dixital están cambiando máis rápido que as regras, as leis e as normas. Por exemplo, a Norma Común (o conxunto de regulamentos que rexen a maioría das investigacións financiadas polo goberno nos Estados Unidos) non cambiou moito dende 1981. Unha segunda fonte de inconsistencia é que as investigacións investigan sobre as normas sobre conceptos abstractos como a privacidade políticos e activistas. Se os especialistas destas áreas non poden alcanzar un consenso uniforme, non debemos esperar que os investigadores ou os participantes empíricos fagan isto. Unha terceira e última fonte de inconsistencia é que a investigación en idade dixital cada vez mestúrase noutros contextos, o que conduce a normas e regras potencialmente superpuestas. Por exemplo, Emotional Contagion foi unha colaboración entre un científico de datos en Facebook e un profesor e estudante de posgrao en Cornell. Naquel momento, era habitual que Facebook executase grandes experimentos sen supervisión de terceiros, sempre que os experimentos cumprisen os termos de servizo de Facebook. En Cornell, as normas e regras son bastante diferentes; prácticamente todos os experimentos deben ser revisados ​​polo IRN de Cornell. Entón, cal conxunto de regras deben rexer Emotional Contagion-Facebook ou Cornell's? Cando hai normas incompatibles e superpuestas, leis e normas, mesmo os investigadores ben intencionados poden ter problemas para facer o correcto. En realidade, debido á inconsistencia, pode que nin sequera teña unha cousa correcta.

En xeral, estas dúas características: o poder crecente e a falta de acordo sobre como se debe empregar ese poder, significan que os investigadores que traballen na era dixital enfrontaranse a desafíos éticos para o futuro previsible. Afortunadamente, ao afrontar estes retos, non é necesario partir de cero. No seu canto, os investigadores poden sacar sabedoría dos principios e marcos éticos previamente desenvolvidos, os temas das dúas seccións seguintes.