6.3 Digital é diferente

Pesquisa social na era digital tem características diferentes e, portanto, levanta diversas questões éticas.

Na era analógica, a maioria das pesquisas sociais tinha uma escala relativamente limitada e operava dentro de um conjunto de regras razoavelmente claras. A pesquisa social na era digital é diferente. Pesquisadores - muitas vezes em colaboração com empresas e governos - têm mais poder sobre os participantes do que no passado, e as regras sobre como esse poder deve ser usado ainda não estão claras. Pelo poder, quero dizer simplesmente a capacidade de fazer coisas para as pessoas sem o seu consentimento ou mesmo consciência. Os tipos de coisas que os pesquisadores podem fazer para as pessoas incluem observar seu comportamento e registrá-los em experimentos. Como o poder dos pesquisadores para observar e perturbar está aumentando, não houve um aumento equivalente na clareza sobre como esse poder deveria ser usado. De fato, os pesquisadores devem decidir como exercitar seu poder com base em regras, leis e normas inconsistentes e sobrepostas. Essa combinação de recursos poderosos e diretrizes vagas cria situações difíceis.

Um conjunto de poderes que os pesquisadores têm agora é a capacidade de observar o comportamento das pessoas sem o seu consentimento ou consciência. Os pesquisadores poderiam, é claro, fazer isso no passado, mas na era digital, a escala é completamente diferente, fato que tem sido repetidamente proclamado por muitos fãs de fontes de big data. Em particular, se nos movermos da escala de um estudante ou professor individual e, em vez disso, considerarmos a escala de uma empresa ou governo - instituições com as quais os pesquisadores colaboram cada vez mais - as questões éticas potenciais tornam-se complexas. Uma metáfora que eu acho que ajuda as pessoas a visualizarem a ideia da vigilância em massa é o panóptico . Originalmente proposto por Jeremy Bentham como uma arquitetura para as prisões, o panóptico é um edifício circular com células construídas em torno de uma torre de vigia central (figura 6.3). Quem ocupa esta torre de vigia pode observar o comportamento de todas as pessoas nos quartos sem ser visto ela mesma. A pessoa na torre de vigia é, portanto, uma vidente invisível (Foucault 1995) . Para alguns defensores da privacidade, a era digital nos levou a uma prisão panóptica em que empresas de tecnologia e governos estão constantemente observando e recodificando nosso comportamento.

Figura 6.3: Projeto para a prisão panopticon, proposto pela primeira vez por Jeremy Bentham. No centro, há um vidente invisível que pode observar o comportamento de todos, mas não pode ser observado. Desenho de Willey Reveley, 1791 (Fonte: Wikimedia Commons).

Figura 6.3: Design para a prisão panopticon, proposta inicialmente por Jeremy Bentham. No centro, há um vidente invisível que pode observar o comportamento de todos, mas não pode ser observado. Desenho de Willey Reveley, 1791 (Fonte: Wikimedia Commons ).

Para levar essa metáfora um pouco mais adiante, quando muitos pesquisadores sociais pensam sobre a era digital, eles se imaginam dentro da torre de vigia, observando o comportamento e criando um banco de dados mestre que poderia ser usado para fazer todo tipo de pesquisa interessante e importante. Mas agora, em vez de se imaginar na torre de vigia, imagine-se em uma das celas. Esse banco de dados mestre começa a se parecer com o que Paul Ohm (2010) chamou de banco de dados de ruína , que poderia ser usado de maneira antiética.

Alguns leitores deste livro têm a sorte de viver em países onde confiam em seus videntes invisíveis para usar seus dados com responsabilidade e protegê-los dos adversários. Outros leitores não têm tanta sorte, e tenho certeza de que as questões levantadas pela vigilância em massa são muito claras para eles. Mas acredito que, mesmo para os leitores sortudos, ainda existe uma preocupação importante levantada pela vigilância em massa: o uso secundário imprevisto . Ou seja, um banco de dados criado para uma finalidade, digamos, a segmentação de anúncios, pode um dia ser usado para uma finalidade muito diferente. Um exemplo horripilante de uso secundário imprevisto aconteceu durante a Segunda Guerra Mundial, quando dados do censo governamental foram usados ​​para facilitar o genocídio que estava ocorrendo contra judeus, ciganos e outros (Seltzer and Anderson 2008) . Os estatísticos que coletaram os dados durante os períodos de paz quase certamente tinham boas intenções, e muitos cidadãos confiavam neles para usar os dados de forma responsável. Mas, quando o mundo mudou - quando os nazistas chegaram ao poder - esses dados permitiram um uso secundário que nunca foi antecipado. Muito simplesmente, uma vez que existe um banco de dados mestre, é difícil antecipar quem pode obter acesso a ele e como ele será usado. De fato, William Seltzer e Margo Anderson (2008) documentaram 18 casos em que sistemas de dados populacionais estiveram envolvidos ou potencialmente envolvidos em abusos dos direitos humanos (tabela 6.1). Além disso, como Seltzer e Anderson apontam, essa lista é quase certamente subestimada porque a maioria dos abusos acontece em segredo.

Tabela 6.1: Casos em que os sistemas de dados populacionais estiveram envolvidos ou potencialmente envolvidos em abusos dos direitos humanos. Veja Seltzer e Anderson (2008) para mais informações sobre cada caso e critérios de inclusão. Alguns, mas não todos, desses casos envolveram uso secundário imprevisto.
Lugar, colocar Tempo Indivíduos ou grupos segmentados Sistema de dados Violação dos direitos humanos ou intenção do estado presumido
Austrália 19 e início do século 20 Aborígines Registro de População Migração forçada, elementos de genocídio
China 1966-76 Origem de má classe durante a revolução cultural Registro de População Migração forçada, instigou a violência da multidão
França 1940-44 judeus Inscrição de população, recenseamentos especiais Migração forçada, genocídio
Alemanha 1933-45 Judeus, Roma e outros Numerosos Migração forçada, genocídio
Hungria 1945-46 Cidadãos alemães e os que relatam a língua materna alemã 1941 censo da população Migração Forçada
Países Baixos 1940-44 Judeus e ciganos Sistemas de registro de população Migração forçada, genocídio
Noruega 1845-1930 Samis e Kvens Recenseamentos populacionais Limpeza étnica
Noruega 1942-44 judeus Censo especial e proposta de registro populacional Genocídio
Polônia 1939-43 judeus Recenseamentos primordiais especiais Genocídio
Romania 1941-43 Judeus e ciganos 1941 censo da população Migração forçada, genocídio
Ruanda 1994 Tutsi Registro de População Genocídio
África do Sul 1950-93 Populações africanas e coloridas Recenseamento da população de 1951 e registo da população Apartheid, privação de direitos dos eleitores
Estados Unidos século 19 Nativos americanos Censos especiais, registros populacionais Migração Forçada
Estados Unidos 1917 Suspeito de violadores de lei Censo de 1910 Investigação e repressão de quem evita o registro
Estados Unidos 1941-45 Nipo-americanos Censo de 1940 Migração forçada e internamento
Estados Unidos 2001-08 Terroristas suspeitos Pesquisas NCES e dados administrativos Investigação e repressão de terroristas nacionais e internacionais
Estados Unidos 2003 Árabes-americanos Censo de 2000 Desconhecido
URSS 1919-39 Populações minoritárias Vários censos populacionais Migração forçada, punição de outros crimes graves

Pesquisadores sociais comuns estão muito, muito longe de qualquer coisa como participar de abusos dos direitos humanos através do uso secundário. Escolhi discutir isso, no entanto, porque acho que isso ajudará você a entender como algumas pessoas podem reagir ao seu trabalho. Vamos voltar ao projeto Tastes, Ties e Time, como exemplo. Ao juntar dados completos e granulares do Facebook com dados completos e granulares de Harvard, os pesquisadores criaram uma visão surpreendentemente rica da vida social e cultural dos estudantes (Lewis et al. 2008) . Para muitos pesquisadores sociais, isso parece ser o banco de dados mestre, que poderia ser usado para o bem. Mas para alguns outros, parece que o início do banco de dados de ruína, que poderia ser usado de forma antiética. Na verdade, é provavelmente um pouco dos dois.

Além da vigilância em massa, os pesquisadores - novamente em colaboração com empresas e governos - podem intervir cada vez mais na vida das pessoas para criar experimentos controlados e aleatórios. Por exemplo, no Contágio Emocional, os pesquisadores inscreveram 700.000 pessoas em um experimento sem o seu consentimento ou conscientização. Como descrevi no capítulo 4, esse tipo de recrutamento secreto de participantes em experimentos não é incomum, e não requer a cooperação de grandes empresas. De fato, no capítulo 4, ensinei a você como fazer isso.

Diante desse aumento de poder, os pesquisadores estão sujeitos a regras, leis e normas inconsistentes e sobrepostas . Uma fonte dessa inconsistência é que as capacidades da era digital estão mudando mais rapidamente do que regras, leis e normas. Por exemplo, a Regra Comum (o conjunto de regulamentações que regem a maioria das pesquisas financiadas pelo governo nos Estados Unidos) não mudou muito desde 1981. Uma segunda fonte de inconsistência é que normas sobre conceitos abstratos como a privacidade ainda estão sendo ativamente debatidas por pesquisadores. , decisores políticos e ativistas. Se especialistas nessas áreas não puderem chegar a um consenso uniforme, não devemos esperar que pesquisadores empíricos ou participantes o façam. Uma terceira e última fonte de inconsistência é que a pesquisa sobre a era digital está cada vez mais misturada em outros contextos, o que leva a regras e regras potencialmente sobrepostas. Por exemplo, o Emotional Contagion foi uma colaboração entre um cientista de dados do Facebook e um professor e aluno de pós-graduação da Cornell. Naquela época, era comum no Facebook realizar grandes experimentos sem supervisão de terceiros, desde que os experimentos cumprissem os termos de serviço do Facebook. Na Cornell, as normas e regras são bem diferentes; praticamente todos os experimentos devem ser revisados ​​pelo Cornell IRB. Então, qual conjunto de regras deve reger o Contágio Emocional - o do Facebook ou o da Cornell? Quando há regras, leis e normas inconsistentes e sobrepostas, até mesmo pesquisadores bem-intencionados podem ter dificuldade em fazer a coisa certa. De fato, por causa da inconsistência, pode até não haver uma única coisa certa.

Em geral, essas duas características - aumentar o poder e a falta de concordância sobre como esse poder deve ser usado - significam que os pesquisadores que trabalham na era digital enfrentarão desafios éticos no futuro previsível. Felizmente, ao lidar com esses desafios, não é necessário começar do zero. Em vez disso, os pesquisadores podem extrair sabedoria de princípios e estruturas éticas desenvolvidas anteriormente, os tópicos das próximas duas seções.