comentarios

Esta sección está dirixida a ser usado como unha referencia, no canto de ser lido como un relato.

  • Introdución (Sección 6.1)

ética na investigación tradicionalmente tamén incluíu temas como fraude científica e distribución de crédito. Estes temas son discutidos en maior detalle en Engineering (2009) .

Este capítulo está fortemente moldeada pola situación nos Estados Unidos. Para máis información sobre os procedementos de exame ético doutros países, consulte os capítulos 6, 7, 8 e 9 de Desposato (2016b) . Para un argumento que os principios éticos biomédicas que influíron neste capítulo son excesivamente americano, ver Holm (1995) . Para máis revisión histórica de Consellos de Revisión Institucional en EEUU, consulte Stark (2012) .

O Informe Belmont e regulación posterior en EEUU fixeron unha distinción entre investigación e práctica. Esta distinción foi criticado posteriormente (Beauchamp and Saghai 2012; boyd 2016; Metcalf and Crawford 2016; Meyer 2015) . Non facer esta distinción neste capítulo porque eu creo que os principios éticos e os cadros aplícanse a ambas as opcións. Para saber máis sobre a supervisión de investigación en Facebook, mira Jackman and Kanerva (2016) . Para unha proposta de supervisión de investigación en empresas e ONG, consulte Polonetsky, Tene, and Jerome (2015) e Tene and Polonetsky (2016) .

Para saber máis sobre o caso do brote de Ébola en 2014, ver McDonald (2016) , e para máis información sobre os riscos de privacidade de datos móbiles, consulte Mayer, Mutchler, and Mitchell (2016) . Para un exemplo de investigación relacionada coa crise usando datos de telefonía móbil, consulte Bengtsson et al. (2011) e Lu, Bengtsson, and Holme (2012) .

  • Tres exemplos (Sección 6.2)

Moitas persoas teñen escrito sobre Contagion emocional. A revista de Ética en Investigación dedicou toda a súa emisión en xaneiro 2016 discutindo a experiencia; ver Hunter and Evans (2016) para unha visión xeral. Os traballos do Academics Nacionais de Ciencia publicou dúas pezas sobre o experimento: Kahn, Vayena, and Mastroianni (2014) e Fiske and Hauser (2014) . Outras pezas sobre o experimento inclúen: Puschmann and Bozdag (2014) ; Meyer (2014) ; Grimmelmann (2015) ; Meyer (2015) ; Selinger and Hartzog (2015) ; Kleinsman and Buckley (2015) ; Shaw (2015) ; Flick (2015) .

Para máis información sobre Encore, ver Jones and Feamster (2015) .

  • Dixital é diferente (Sección 6.3)

En termos de vixilancia masiva, visións xerais xerais son fornecidos en Mayer-Schönberger (2009) e Marx (2016) . Para un exemplo concreto dos custos de cambio da vixilancia, Bankston and Soltani (2013) estima que o seguimento dun sospeitoso de crime usando teléfonos celulares é preto de 50 veces máis barato que usar vixilancia física. Bell and Gemmell (2009) ofrece unha perspectiva máis optimista sobre a auto- vixilancia. Ademais de ser capaz de rastrexar o comportamento observable que é público ou parcialmente pública (por exemplo, Taste, Ties, and Time), os investigadores poden inferir cada vez máis cousas que moitos participantes consideran ser privado. Por exemplo, Michal Kosinski e os seus colegas mostraron que poderían inferir información sensibles sobre as persoas, como orientación sexual e uso de substancias que causan dependencia de datos de seguimento dixital aparentemente comúns (Facebook likes) (Kosinski, Stillwell, and Graepel 2013) . Isto pode parecer máxica, pero o enfoque Kosinski e os seus colegas usáronse que combina trazos dixitais, investigacións, e supervisado de ensino-é realmente algo que eu xa lle dixen. Lembre que no capítulo 3 (Facer preguntas) Eu dixen-lle como Josh Blumenstock e os seus colegas (2015) datos de busca combinados con datos de teléfonos móbiles para estimar a pobreza no Ruanda. Esta mesma visión exacta, que se pode usar para medir a eficiencia da pobreza nun país en desenvolvemento, tamén se pode usar para inferencias potencialmente privacidade violar.

Leis e normas inconsistentes pode levar a investigación que non respectar os desexos dos participantes, e iso pode levar a "centro regulamentario" por investigadores (Grimmelmann 2015; Nickerson and Hyde 2016) . En particular, algúns investigadores que desexen evitar a supervisión IRB ter socios que non son cubertos polo IRB (por exemplo, as persoas en empresas ou organizacións non gobernamentais) recoller e-identificar datos. A continuación, os investigadores poden analizar estes datos identificouse de sen supervisión IRB, polo menos, segundo algunhas interpretacións de normas vixentes. Este tipo de evasión IRB semella incompatible cun enfoque baseado en principios.

Para saber máis sobre as ideas inconsistentes e heteroxéneas que as persoas teñen sobre datos de saúde, consulte Fiore-Gartland and Neff (2015) . Para máis información sobre o problema que a heteroxeneidade recrea Ética en Investigación decisións ver Meyer (2013) .

Unha diferenza entre a idade analóxico e investigación era dixital é que, na era dixital interacción de investigación cos participantes é máis distante. Estas interaccións ocorren frecuentemente a través dun intermediario, como unha empresa, e non hai normalmente un gran físico e socio-distancia entre investigadores e participantes. Esa interacción distante fai algunhas cousas que son fáciles na investigación era analóxica difícil na investigación era dixital, como selección de participantes que necesitan de protección extra, detección de eventos adversos e curar danos caso de que ocorra. Por exemplo, imos contrastar contaxio emocional cun experimento de laboratorio hipotético sobre o mesmo tema. No experimento de laboratorio, os investigadores poderían filtrar calquera que chega ao laboratorio mostrando signos evidentes de aflición emocional. Ademais, se o experimento de laboratorio creado un evento adverso, os investigadores ía velo, prestar servizos para remediar o dano e, a continuación, facer axustes ao protocolo experimental para evitar danos futuros. A natureza distante de interacción no experimento Contagion emocional real fai que cada un destes pasos simples e cordas moi difícil. Ademais, eu sospeito que a distancia entre os investigadores e participantes fai investigadores menos sensible ás preocupacións dos seus participantes.

Outras fontes de normas e leis inconsistentes. Parte desa inconsistencia vén do feito de que esta investigación está a suceder en todo o mundo. Por exemplo, Encore implica persoas de todo o mundo, e, polo tanto, pode ser suxeito á protección de datos e leis de privacidade de moitos países diferentes. E se as normas que rexen as solicitudes web de terceiros (o Encore estaba facendo) son diferentes en Alemaña, Estados Unidos, Kenia e China? E se as normas non son aínda consistentes dentro dun único país? Unha segunda fonte de inconsistencia vén de colaboracións entre investigadores de universidades e empresas; por exemplo, Emotional Contagion foi unha colaboración entre un científico de datos en Facebook e un estudante profesor e posgrao na Cornell. En Facebook correndo grandes experimentos é de rutina e, na época, non require ningún de terceiros revisión ética. En Cornell as normas e regras son moi diferentes; practicamente todos os experimentos deben ser revisados ​​pola Cornell IRB. Entón, cal conxunto de regras que gobernar Emotional Contagion-de Facebook ou Cornell?

Para saber máis sobre esforzos para revisar a regra común, ver Evans (2013) , Council (2014) , Metcalf (2016) , e Hudson and Collins (2015) .

  • Catro principios (Sección 6.4)

O enfoque baseado en principios clásicos de ética biomédica é Beauchamp and Childress (2012) . Propoñen que catro principios deben orientar ética biomédica: respecto á autonomía, non maleficência, beneficencia e xustiza. O principio de non-maleficência impele a absterse de danar a outros. Este concepto está profundamente ligado á idea de Hipócrates de "non prexudicar". En ética na investigación, este principio é moitas veces combinados con o principio de beneficencia, pero ver Beauchamp and Childress (2012) (Capítulo 5) para máis información sobre a distinción entre os dous . Para unha crítica que estes principios son excesivamente americano, ver Holm (1995) . Para máis información sobre balance cando o conflito principios, consulte Gillon (2015) .

Os catro principios deste capítulo tamén foron propostos para orientar a supervisión ética para a investigación a suceder en empresas e ONG (Polonetsky, Tene, and Jerome 2015) a través de organismos chamados "Consumer Asunto do comentario Foros" (CSRBs) (Calo 2013) .

  • Respecto polas persoas (Sección 6.4.1)

Ademais de respectar a autonomía, o Informe Belmont, tamén recoñece que non todo o humano é capaz de certa autodeterminación. Por exemplo, nenos, persoas que sofren de enfermidade, ou as persoas que viven en situación de liberdade severamente restrinxido pode non ser capaz de actuar como individuos totalmente autónomas, e esas persoas están, polo tanto, suxeitas a unha protección extra.

Aplicando o principio do respecto polas persoas na era dixital pode ser un desafío. Por exemplo, na procura era dixital, pode ser difícil para ofrecer protección adicional para a xente con capacidade reducida de autodeterminación porque os investigadores adoitan saben moi pouco sobre os seus participantes. Ademais, o consentimento informado na investigación social era dixital é un reto enorme. Nalgúns casos, o consentimento verdadeiramente informado pode sufrir o paradoxo transparencia (Nissenbaum 2011) , onde a información e comprensión están en conflito. Grosso modo, os investigadores proporcionar información completa sobre a natureza da recollida de datos, análise de datos e prácticas de seguridade de datos, será difícil para moitos participantes de comprender. Pero, se os investigadores proporcionar información comprensibles, que pode faltar información técnica importante. Na investigación médica en éraa a definición dominar analóxico considerado polo Informe Belmont-se podería imaxinar un médico fala individualmente con cada participante para axudar a resolver o paradoxo transparencia. En estudos en liña que implica miles ou millóns de persoas, unha tal visión cara a cara é imposible. Un segundo problema co consentimento na era dixital é que, nalgúns estudos, como a análise de repositorios de datos en masa, sería impracticable para obter o consentimento informado de todos os participantes. I discutir estas e outras preguntas sobre o consentimento informado con máis detalle na sección 6.6.1. A pesar destas dificultades, con todo, hai que lembrar que o consentimento informado non é necesaria nin suficiente para Respecto polas persoas.

Para saber máis sobre a investigación médica antes de consentimento informado, ver Miller (2014) . Para un tratamento de libro de lonxitude de consentimento informado, consulte Manson and O'Neill (2007) . Vexa tamén as lecturas suxeridas no consentimento informado continuación.

  • Beneficencia (Sección 6.4.2)

Harms ao contexto é o dano que a investigación pode causar non a persoas específicas, pero para ambientes sociais. Este concepto é un pouco abstracto, mais vou ilustrar con dous exemplos: un analóxico e un dixital.

Un exemplo clásico de danos ao contexto vén do estudo Wichita Xurado [ Vaughan (1967) ; Katz, Capron, and Glass (1972) ; Ch 2] -. Ás veces tamén chamado de Proxecto Xurado Chicago (Cornwell 2010) . Neste estudo investigadores da Universidade de Chicago, como parte dun estudo máis sobre os aspectos sociais do sistema legal, secretaría gravadas seis deliberacións do xurado en Wichita, Kansas. Os xuíces e avogados nos casos aprobara as gravacións, e non había estrita supervisión do proceso. Con todo, os xurados non estaban conscientes de que as gravacións estaban ocorrendo. Xa que o estudo foi descuberto, houbo indignación pública. O Departamento de Xustiza iniciou unha investigación do estudo, e os investigadores foron chamados a declarar diante do Congreso. En definitiva, o Congreso aprobou unha nova lei que fai ilegal para gravar secretaría xurado deliberación.

A preocupación dos críticos do Estudo Wichita Xurado non foi prexudicar aos participantes; en vez diso, foi danos ao contexto deliberación do xurado. É dicir, as persoas crían que, se os membros do xurado non creu que estaban tendo discusións nun espazo seguro e protexido, sería máis difícil para deliberacións do xurado para continuar no futuro. Ademais de deliberación do xurado, existen outros contextos sociais específicos que a sociedade ofrece con protección extra, como relacións avogado-cliente e atención psicolóxica (MacCarthy 2015) .

O risco de danos ao contexto e á ruptura dos sistemas sociais tamén xorde nalgúns experimentos de campo en Ciencia Política (Desposato 2016b) . Para un exemplo dun cálculo de custo-beneficio máis sensible ao contexto para un experimento de campo en Ciencia Política, consulte Zimmerman (2016) .

  • Xustiza (Sala 6.4.3)

Compensación para os participantes foi discutido nunha serie de axustes relacionados coa investigación era dixital. Lanier (2014) propuxo pagar participantes de vestixios dixitais que xeran. Bederson and Quinn (2011) discute os pagamentos nos mercados de traballo en liña. Finalmente, Desposato (2016a) propón pagar participantes en experimentos de campo. El resalta que, aínda que os participantes non poderán ser pagados directamente, unha doazón se pode facer a un grupo de traballo no seu nome. Por exemplo, no Encore os investigadores podería facer unha doazón a un grupo de traballo para apoiar o acceso a Internet.

  • O respecto pola lei e Interese Público (Sección 6.4.4)

Condicións de servizo acordos debe ter menos peso que os contratos negociados entre as partes e as leis creadas por gobernos lexítimos iguais. Situacións en que os investigadores teñan violado acordos de termos de servizo no pasado, xeralmente implica o uso de consultas automáticas para auditar o comportamento das empresas (e experimentos de campo para medir a discriminación). Para discusión adicional ver Vaccaro et al. (2015) , Bruckman (2016a) , Bruckman (2016b) . Para un exemplo de investigación empírica que discute as condicións de servizo, consulte Soeller et al. (2016) . Para máis información sobre os posibles problemas legais investigadores enfróntanse si violar as condicións de servizo ver Sandvig and Karahalios (2016) .

  • Dous cadros éticos (Sección 6.5)

Obviamente, enormes cantidades foron escritos sobre o consequencialismo e deontoloxía. Para un exemplo de como estes cadros éticos e outros, pode ser usado para razoar sobre a investigación era dixital, consulte Zevenbergen et al. (2015) . Para un exemplo de como estes cadros éticos poden ser aplicados a experimentos de campo en desenvolver a economía, ver Baele (2013) .

  • O consentimento informado (Sección 6.6.1)

Para máis información sobre estudos de auditoría de discriminación, consulte Pager (2007) e Riach and Rich (2004) . Non só estes estudos non teñen o consentimento informado, tamén implica o engano sen aclaración.

Ambos Desposato (2016a) e Humphreys (2015) ofrecer consellos sobre os experimentos de campo sen consentimento.

Sommers and Miller (2013) Comentarios moitos argumentos a favor de non debriefing participantes tras o erro, e argumenta que os investigadores deben renunciar "debriefing baixo un conxunto moi restrinxido de circunstancias, é dicir, na investigación de campo no que debriefing pon obstáculos prácticos considerables, pero investigadores terían escrúpulos en debriefing se puidesen. Os investigadores non deben ser autorizados a renunciar debriefing a fin de preservar unha piscina participante inxenua, -se protexer de rabia participante, ou protexer os participantes do dano. "Outros argumentan que, se debriefing causa máis mal que ben debe ser evitado. Debriefing é un caso en que algúns investigadores priorizar Respecto polas Persoas máis de Beneficencia, e algúns investigadores fan o contrario. Unha solución posible sería atopar formas de facer o debriefing unha experiencia de aprendizaxe para os participantes. É dicir, en vez de pensar de debriefing como algo que pode danar, quizais debriefing tamén pode ser algo que beneficia os participantes. Para un exemplo deste tipo de debriefing educación, ver Jagatic et al. (2007) no debriefing alumnos tras un experimento de phishing social. Os psicólogos desenvolveron técnicas para esclarecemento (DS Holmes 1976a; DS Holmes 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007) e algunhas delas poden ser utilmente aplicada á investigación era dixital. Humphreys (2015) ofrece pensamentos interesantes sobre o consentimento diferido, que está intimamente relacionado coa estratexia de debriefing que eu describe.

A idea de pedir unha mostra de participantes para o seu consentimento está relacionado ao que Humphreys (2015) chama de consentimento inferido.

Outra idea que foi proposta relacionada co consentimento informado é construír un panel de persoas que coinciden ser en experiencias en liña (Crawford 2014) . Algúns argumentaron que este panel sería unha mostra non aleatoria de persoas. Pero, capítulo 3 (Facer preguntas) mostra que estes problemas son potencialmente enderezabades usando post-estratificación e correspondencia mostra. Ademais, o consentimento para estar no panel pode cubrir unha variedade de experiencias. Noutras palabras, os participantes poden non precisa aceptar cada experiencia individual, un concepto chamado consentimento amplo (Sheehan 2011) .

  • Comprensión e xestión de risco informacional (Sección 6.6.2)

Lonxe de ser único, o Premio Netflix ilustra unha propiedade técnica importante de conxuntos de datos que conteñen información detallada sobre as persoas, e, polo tanto, ofrece importantes leccións sobre a posibilidade de "anonimização" dos conxuntos de datos sociais modernas. Os ficheiros con moitas pezas de información sobre cada persoa son susceptibles de ser escaso, no sentido definido formalmente en Narayanan and Shmatikov (2008) . É dicir, para cada rexistro non hai rexistros que son os mesmos, e en realidade non hai rexistros que son moi similares: cada persoa é lonxe do seu veciño máis próximo no conxunto de datos. Pódese imaxinar que os datos de Netflix pode ser escasa, xa con preto de 20.000 películas nunha escala de 5 estrelas, hai preto de \ (6 ^ {20000} \) posibles valores que cada persoa pode ter (6 porque, ademais de un a 5 estrelas , alguén pode non ter clasificado a película en todo). Este número é tan grande, é difícil incluso entender.

Sparsity ten dúas implicacións principais. En primeiro lugar, isto significa que o intento de "anonymize" o conxunto de datos en base á perturbación aleatoria probablemente ha falla. É dicir, aínda que Netflix foron para axustar aleatoriamente algúns dos ratings (que fixo), iso non sería suficiente porque o rexistro perturbada aínda é o rexistro máis próximo posible da información que o dianteiro ten. En segundo lugar, a dispersión significa que de-anonimização posíbel aínda que o dianteiro ten coñecemento imperfecto ou imparcial. Por exemplo, nos datos de Netflix, imos imaxinar o dianteiro sabe que as súas cualificacións por dous filmes e as datas que fixo estas clasificacións de +/- 3 días; só que a información por si só é suficiente para identificar 68% das persoas nos datos de Netflix. Os atacantes sabe 8 filmes que ten avaliado +/- 14 días, entón, aínda que dúas destas clasificacións coñecidos son completamente mal, o 99% dos rexistros pode ser identificada exclusivamente dentro do conxunto de datos. Noutras palabras, dispersión é un problema fundamental para os esforzos de "facer anónimos" os datos, o que é unha pena, porque máis moderno conxunto de datos sociais son escasos.

metadatos de teléfono tamén pode parecer ser "anonymous" e non sensibles, pero que non é o caso. Metadatos teléfono identificable e sensible (Mayer, Mutchler, and Mitchell 2016; Landau 2016) .

Na Figura 6.6, esbocei un trade-off entre o risco para os participantes e beneficios a procura da liberación de datos. Para unha comparación entre os enfoques de acceso restrinxido (por exemplo, un xardín murado) e os enfoques de datos restrinxido (por exemplo, algún tipo de anonimização) ver Reiter and Kinney (2011) . Para un sistema de categorización proposta dos niveis de risco de datos, consulte Sweeney, Crosas, and Bar-Sinai (2015) . Finalmente, a unha discusión xeral sobre a repartición de datos, consulte Yakowitz (2011) .

Para unha análise máis detallada deste trade-off entre o risco ea utilidade dos datos, consulte Brickell and Shmatikov (2008) , Ohm (2010) , Wu (2013) , Reiter (2012) , e Goroff (2015) . Para ver este trade-off aplicado a datos reais de cursos en liña masivamente abertos (MOOCs), consulte Daries et al. (2014) e Angiuli, Blitzstein, and Waldo (2015) .

Privacidade diferencial tamén ofrece unha visión alternativa que pode combinar tanto de alta beneficio para a sociedade e de baixo risco para os participantes, consulte Dwork and Roth (2014) e Narayanan, Huey, and Felten (2016) .

Para saber máis sobre o concepto de información de identificación persoal (PII), que é central para moitos das normas sobre ética na investigación, ver Narayanan and Shmatikov (2010) e Schwartz and Solove (2011) . Para saber máis sobre todos os datos a ser potencialmente sensibles, consulte Ohm (2015) .

Nesta sección, Eu retratei a articulación de diferentes conxuntos de datos como algo que pode levar ao risco informacional. Con todo, tamén pode crear novas oportunidades para a investigación, como argumentou en Currie (2013) .

Para saber máis sobre os cinco arcas, consulte Desai, Ritchie, and Welpton (2016) . Para un exemplo de como saídas poden ser identificación, consulte Brownstein, Cassa, and Mandl (2006) , que mostra como mapas de prevalencia da enfermidade pode ser de identificación. Dwork et al. (2017) tamén considera os ataques contra datos agregados, como estatísticas sobre cantas persoas teñen unha determinada enfermidade.

  • Privacidade (Sección 6.6.3)

Warren and Brandeis (1890) é un artigo legal marco sobre a privacidade, e que o artigo é máis asociada coa idea de que a privacidade é un dereito de deixar só. Máis recentemente, tratamentos de lonxitude libro de privacidade que eu recomendado inclúen Solove (2010) e Nissenbaum (2010) .

Para unha revisión de investigacións empíricas sobre como a xente pensa sobre privacidade, consulte Acquisti, Brandimarte, and Loewenstein (2015) . A revista Science publicou unha edición especial titulada "O fin da privacidade", que aborda as cuestións de privacidade e riscos da información a partir dunha variedade de diferentes perspectivas; para un resumo ver Enserink and Chin (2015) . Calo (2011) ofrece unha estrutura para pensar sobre os danos que veñen de violacións de privacidade. Un dos primeiros exemplos de problemas sobre privacidade nos inicios da era dixital é Packard (1964) .

  • A toma de decisións en condicións de incerteza (Sección 6.6.4)

Un reto ao tentar aplicar o estándar mínimo de risco é que non está clara cuxa vida diaria é para ser usado, por exemplo (Council 2014) . Por exemplo, persoas sen teito teñen niveis máis elevados de incomodidade nas súas vidas diarias. Pero, iso non implica que se eticamente admisible a expoñer as persoas sen teito para maior investigación sobre os riscos. Por esta razón, parece haber un consenso crecente de que o mínimo de risco deben ter por referencia un estándar poboación en xeral, non é un estándar da poboación específica. Mentres eu normalmente coinciden coa idea dun estándar poboación en xeral, creo que para grandes plataformas en liña como Facebook, un patrón de poboación específica é razoable. Isto é, cando se considera contaxio emocional, creo que é razoable referencia de riscos todos os días en Facebook. Un nivel de poboación específica, neste caso, é moito máis doado de avaliar e é pouco probable que entren en conflito co principio de xustiza, que ten como obxectivo evitar a carga da investigación non inxustamente nos grupos desfavorecidos (por exemplo, prisioneiros e orfos).

  • Consellos prácticas (Sección 6.7)

Outros estudiosos tamén pediron máis documentos para incluír anexos éticos (Schultze and Mason 2012; Kosinski et al. 2015) . King and Sands (2015) tamén ofrece consellos prácticas.