さらに解説

このセクションでは、物語のように読まれるべきではなく、参照として使用されるように設計されています。

  • はじめに(6.1節)

研究倫理は伝統的に、このような科学的な詐欺やクレジットの割り当てなどのトピックが含まれています。これらのトピックはで詳しく説明されているEngineering (2009)

この章では強く、米国の状況によって形作られています。他の国における倫理審査手続きの詳細については、章6、7、8を参照してください、との9 Desposato (2016b)この章に影響を与えた生物医学倫理原則が過度にアメリカであるという主張は、以下を参照してくださいHolm (1995)米国での治験審査会のより多くの歴史的な総説については、 Stark (2012)

ベルモント報告書および米国内の後続の規制は、研究と実践の間の区別をしました。この区別は、その後批判されている(Beauchamp and Saghai 2012; boyd 2016; Metcalf and Crawford 2016; Meyer 2015)私は倫理原則やフレームワークは、両方の設定に適用されると思うので、私は、この章では、この区別をしないでください。 Facebookのの研究監督の詳細については、 Jackman and Kanerva (2016)企業とNGOの研究の監督のための提案については、 Polonetsky, Tene, and Jerome (2015)Tene and Polonetsky (2016)

2014年にエボラ発生の場合の詳細については、 McDonald (2016)および携帯電話のデータのプライバシーのリスクについての情報を参照してくださいMayer, Mutchler, and Mitchell (2016)携帯電話のデータを使用して、危機関連の研究の例については、を参照してくださいBengtsson et al. (2011)Lu, Bengtsson, and Holme (2012)

  • 三つの例(6.2節)

多くの人々は感情的な伝染病について書かれています。ジャーナル研究倫理は、2016年1月の実験を議論する中で彼らの全体の問題を捧げました。参照Hunter and Evans (2016)概要について。 : 国立科学学者の議事進行は、実験約2枚公開Kahn, Vayena, and Mastroianni (2014)Fiske and Hauser (2014)実験についての他の部分が含まれます: Puschmann and Bozdag (2014) ; Meyer (2014) ; Grimmelmann (2015) ; Meyer (2015) ; Selinger and Hartzog (2015) ; Kleinsman and Buckley (2015) ; Shaw (2015)Flick (2015)

アンコールの詳細については、 Jones and Feamster (2015)

  • デジタルが異なっている(6.3節)

監視社会の面では、広範な概要はで提供されMayer-Schönberger (2009)Marx (2016)サーベイランスの変更コストの具体例については、 Bankston and Soltani (2013) 、携帯電話を使用して犯罪容疑者を追跡することは物理的な監視を使用するよりも約50倍安価であると推定しています。 Bell and Gemmell (2009) 、自己についてより楽観的な視点を提供します監視。パブリックまたは(例えば、味、ネクタイ、およびTime)部分的に公開されて観察可能な行動を追跡することが可能であることに加えて、研究者はますます多くの参加者がプライベートであると考えて物事を推測することができます。例えば、ミハルコジンスキーや同僚は、彼らがそのような性的指向と一見普通のデジタルトレースデータから、中毒性物質の使用(Facebookが好き)のような人、に関する機密情報を推測することができることを示した(Kosinski, Stillwell, and Graepel 2013)これは魔法に聞こえるかもしれないが、アプローチコジンスキーらはデジタル・トレース、調査を組み合わせた、使用され、実際に私はすでにあなたに話してきた何か学ぶことが-ある監督しました。第3章(質問を)私はジョシュBlumenstockや同僚どのように言ったことを思い出してください(2015)携帯電話のデータと組み合わせた調査データは、ルワンダの貧困を推定します。効率的に、発展途上国の貧困を測定するために使用することができ、このまったく同じアプローチは、また、潜在的にプライバシー侵害推論するために使用することができます。

一貫性のない法律や規範は、参加者の希望を尊重しない研究につながることができ、それが研究者による「調節ショッピング」につながることができます(Grimmelmann 2015; Nickerson and Hyde 2016)具体的には、IRB監督を避けたいいくつかの研究者はのIRBによってカバーされていないパートナーを持っている(例えば、企業やNGOなどでの人)が収集したデータをデ識別する。その後、研究者は、少なくとも現在のルールのいくつかの解釈によれば、IRB監督することなく、この非識別データを分析することができます。 IRB脱税のこの種は、原則ベースのアプローチと矛盾するように見えます。

人々が健康データについて持っている矛盾や不均質なアイデアの詳細については、 Fiore-Gartland and Neff (2015)研究倫理の決定が見るために異質で作成される問題の詳細についてはMeyer (2013)

アナログ時代とデジタル時代の研究の違いの1つは、デジタル時代の参加者との研究の相互作用が離れているということです。これらの相互作用は、多くの場合、会社としての仲介を介して起こる、と研究者と参加者との間に大きな物理的および社会的距離は、一般的にあります。この遠くの相互作用は、このような、特別な保護を必要とする参加者を遮蔽有害事象を検出し、それが発生した場合に害を修復するように、デジタル時代の研究にアナログ時代の研究に簡単ですいくつかのものを困難にしています。たとえば、のは、同じトピック上の仮想的な実験室の実験で感情的な伝染を対比してみましょう。ラボの実験では、研究者は精神的苦痛の明らかな兆候を示すラボに到着する人をふるい落とすことができます。ラボ実験は有害事象を作成した場合また、研究者は、それを参照してください害を修復するためのサービスを提供し、その後、将来の害を防止するために、実験プロトコルに調整を行うことになります。実際の感情伝染実験における相互作用の遠くの性質は、これらのシンプルかつ賢明なステップのそれぞれが非常に困難になります。また、私は研究者と参加者との間の距離は、その参加者の懸念に研究者がより敏感になると思われます。

一貫性のない規範や法律の他の供給源。この矛盾の中には、この研究が世界中で起こっているという事実から来ています。例えば、アンコールは、世界中から人々を関与し、したがって、それは多くの異なった国のデータ保護とプライバシー法の対象となる場合があります。 (何をやっていたアンコール)は、サードパーティのWeb要求を支配する規範は、ドイツ、米国、ケニア、中国で異なっている場合はどうすれば?どのような規範は、一つの国の中でも一貫していない場合はどうなりますか?矛盾の第二の源は、大学や企業の研究者間のコラボレーションから来ています。例えば、感情伝染するFacebookでのデータ科学者とコーネル大学の教授と大学院生のコラボレーションでした。 Facebookが大きな実験を実行するで、ルーチンであり、その時に、任意のサードパーティ製の倫理審査を必要としませんでした。コー​​ネル大学の規範やルールは全く異なっています。事実上すべての実験は、コーネルIRBによって審査されなければなりません。だから、これは一連のルールは、感情的な伝染病、Facebookのか、コーネルのを支配する必要がありますか?

共通のルールを改訂するための取り組みの詳細については、 Evans (2013) Council (2014) Metcalf (2016) 、そしてHudson and Collins (2015)

  • 4つの原則(6.4節)

生物医学倫理への古典的な原則に基づくアプローチがあるBeauchamp and Childress (2012)オートノミー、無害、善行、と正義の尊重:彼らは4つの主要な原則は生物医学倫理を導くべきであると提案しています。無害の原理は他の人に害を引き起こすことを控えるために1を促します。この概念は深く、研究倫理で」。害を及ぼさない」のヒポクラテスの考えに接続され、この原理は、多くの場合、善行の原則と組み合わされているが、参照Beauchamp and Childress (2012) 2の間の違いについては、(第5章) 。これらの原則は、過度にアメリカであるという批判については、 Holm (1995)分散の詳細については原則の矛盾は、見る時Gillon (2015)

この章の4つの原則はまた、企業やNGOで起こっ研究のための倫理監督導くために提案されている(Polonetsky, Tene, and Jerome 2015) 「消費者件名審査委員会」(CSRBs)と呼ばれる機関を通じて(Calo 2013)

  • 人の尊重(6.4.1項)

自主性を尊重することに加えて、ベルモント報告書はまた、必ずしもすべての人間が真の自己決意することが可能であることを認めています。例えば、したがって、余分な保護の対象と子供たちは、病気に苦しむ人々、または厳しく制限自由の状況に住んでいる人は、完全に自律的な個人を行動することができない場合があり、これらの人々があります。

デジタル時代の人のための尊重の原則を適用することは困難な場合があります。例えば、デジタル時代の研究では、研究者は、多くの場合、その参加者についてほとんど知っているので、自己決意の減少能力を持つ人々のための余分な保護を提供することは困難です。また、デジタル時代の社会研究におけるインフォームドコンセントは大きな課題です。いくつかのケースでは、真のインフォームドコンセントは、 透明性のパラドックスに苦しむことができます(Nissenbaum 2011) 情報理解が競合しています、。研究者は、データ収集、データ分析、およびデータセキュリティ慣行の性質に関する完全な情報を提供する場合、多くの参加者が理解するために、大きく分けて、それは難しいだろう。研究者が分かりやすい情報を提供する場合しかし、それは重要な技術情報を欠いていてもよいです。ベルモントレポート-1で検討アナログ年齢支配設定における医学研究では、医師は、透明性のパラドックスを解決するために、各参加者に個別に話を想像できます。何千人もの人または数百万を含むオンラインの研究では、このような対面式のアプローチは不可能です。デジタル時代の同意を得て第二の問題は、このような大規模なデータリポジトリの分析などのいくつかの研究で、すべての参加者からインフォームドコンセントを得ることは非現実的であろうということです。私は、6.6.1項で詳細にインフォームドコンセントに関するこれらおよび他の質問について話し合います。これらの困難にもかかわらず、しかし、我々は、インフォームドコンセントが必要でも人を尊重するために十分でもないことを覚えておいてください。

インフォームドコンセントの前に医学研究の詳細については、 Miller (2014)インフォームドコンセントの本の長さの治療については、 Manson and O'Neill (2007)また、以下のインフォームドコンセントについて示唆読みを参照してください。

  • 善行(6.4.2項)

コンテキストへの害は研究がない特定の人ではなく社会的な設定に引き起こす可能性があること害です。この概念は少し抽象的ですが、私は、2つの例でそれを説明します:1アナログと1のデジタル。

コンテキストへの有害性の古典的な例は、ウィチタ審査員研究[から来Vaughan (1967) ; Katz, Capron, and Glass (1972) ; CH 2] - 。また時々シカゴジュリー・プロジェクトと呼ばれる(Cornwell 2010)本研究では、シカゴ大学の研究者は、法制度の社会​​的側面に関する大規模な研究の一環として、密かウィチタ、カンザス州の6陪審員の審議を記録しました。例で裁判官や弁護士が録音を承認した、とプロセスの厳格な見落としがありました。しかし、陪審員は記録が発生したことを知りませんでした。研究が発見された後は、一般大衆の怒りがありました。司法省は、研究の調査を始めた、と研究者は、議会の前で証言するために呼び出されました。結局、議会はそれが違法密かに陪審員の審議を記録するようになり、新しい法律を可決しました。

ウィチタ審査員研究の批評家の懸念が参加者に害を与えていませんでした。むしろ、それは陪審員の審議のコンテキストに有害でした。それは人々が審査員は、彼らが安全で保護された空間での議論を持ったことを信じていなかった場合は、陪審員の審議は、将来的に進行するために、それは難しくなるだろうと信じています。陪審員の審議に加えて、社会はそのような弁護士とクライアントの関係や心のケアなどの余分な保護を提供し、他の特定の社会的文脈がある(MacCarthy 2015)

コンテキストへの有害性のリスクと社会システムの崩壊はまた、政治学のいくつかのフィールド実験で起動します(Desposato 2016b)政治学のフィールド実験のためのより多くの文脈依存の費用便益計算の例については、 Zimmerman (2016)

  • 正義(6.4.3項)

参加者のための補償は、デジタル時代の研究に関連する設定の数で議論されてきた。 Lanier (2014) 、彼らが生成するデジタル・トレースのための参加者を払っ提案。 Bederson and Quinn (2011)オンラインで労働市場での支払いについて説明します。最後に、 Desposato (2016a) 、フィールド実験の参加者を払って提案しています。彼は、参加者が直接支払うことができない場合でも、寄付が自分に代わって作業グループに加えることができることを指摘しています。例えば、Encoreで研究者は、インターネットへのアクセスをサポートするために、ワーキンググループに寄付を行っている可能性があります。

  • 法律と公益の尊重(第6.4.4項)

利用規約のサービス契約は、合法的な政府によって作成された同等の当事者と法律の間で随意契約よりも少ない量を有するべきです。研究者は、過去に用語のサービス契約に違反している状況は、一般的に(差別を測定するために多くのフィールド実験のような)企業の行動を監査する自動化されたクエリを使用することを含みます。追加の議論については参照Vaccaro et al. (2015)Bruckman (2016a) Bruckman (2016b)サービスの用語を説明し実証研究の例については、を参照してくださいSoeller et al. (2016) 。彼らはサービスの条項に違反した場合、研究者が直面する可能性の法的問題の詳細についてを参照してくださいSandvig and Karahalios (2016)

  • 二つの倫理的なフレームワーク(6.5節)

明らかに、膨大な量の帰結と義務論について書かれています。どのようにこれらの倫理的なフレームワーク、およびその他の例については、参照、デジタル時代の研究について推論するために使用することができZevenbergen et al. (2015) 。これらの倫理的なフレームワークが参照、経済を発展さのフィールド実験を適用することができる方法の例についてはBaele (2013)

  • インフォームドコンセント(6.6.1項)

差別の監査研究の詳細については、 Pager (2007)Riach and Rich (2004)だけでなく、これらの研究は、インフォームドコンセントを持っていない、彼らはまた、デブリーフィングなし詐欺を伴います。

どちらDesposato (2016a)Humphreys (2015)同意なしに、フィールド実験についてのアドバイスを提供しています。

Sommers and Miller (2013)なければならない詐欺の後、参加者をデブリーフィングないの賛成で多くの議論をレビューし、研究者が状況の非常に狭いセットの下で」報告会を見送るべきと主張している、すなわち、フィールド調査で報告会は、かなり実用的な障壁が、研究者を提起します彼らができれば報告会についての良心の呵責ノー。研究者は、ナイーブな参加者のプールを維持する参加者の怒りから身を保護する、または危害からの参加者を保護するために、報告会を見送ることが許されるべきではない。「その他報告会が良いよりも害が発生した場合、それは避けるべきであると主張しています。デブリーフィングは、一部の研究者は、善行を超える人の尊重を優先順位付けする場合であり、いくつかの研究者は反対のことを行います。 1つの可能な解決策は、参加者のための学習体験をデブリーフィングにする方法を見つけることであろう。それはおそらく、また、参加者に利益をもたらすものになることができますデブリーフィング、むしろ害を引き起こすことができるものとして、報告会のことを考えよりも、です。教育報告会のこの種の例については、 Jagatic et al. (2007)ソーシャルフィッシング実験後の学生の報告会に。心理学者は、デブリーフィングのための技術開発してきた(DS Holmes 1976a; DS Holmes 1976b; Mills 1976; Baumrind 1985; Oczak and Niedźwieńska 2007)これらのいくつかは有用デジタル時代の研究に適用することができる。 Humphreys (2015) 延期同意についての興味深い考えを提供しています、これは私が説明したデブリーフィング戦略に密接に関連しています。

彼らの同意を参加者のサンプルを求めるのアイデアはどのように関係しているHumphreys (2015) 、推論の同意を呼び出します

インフォームドコンセントに関連する提案されている更なるアイデアは、オンラインの実験であることに同意するものとし、人々のパネル構築することである(Crawford 2014)いくつかは、このパネルは、人々の非ランダムサンプルであろうと主張してきました。しかし、第3章では、(質問を)これらの問題は、ポスト成層とサンプルマッチングを使用して、潜在的にアドレス指定可能であることを示しています。また、パネル上にあることに同意するものは種々の実験をカバーすることができます。つまり、参加者が個別に各実験に同意する必要はないかもしれません、という概念は幅広い同意と呼ばれる(Sheehan 2011)

  • 理解と管理、情報リスク(6.6.2項)

ファーユニークから、Netflixの賞は、人々についての詳細な情報が含まれているデータセットの重要な技術的性質を示し、従って、現代の社会的なデータセットの「匿名化」の可能性について重要な教訓を提供しています。一人一人についての多くの情報を持つファイルは、中に正式に定義された意味で、 スパースである可能性があるNarayanan and Shmatikov (2008)つまり、各レコードに対して同じであるレコードがない、ていて、実際には非常に類似しているレコードが存在しない:それぞれの人は、遠く離れたデータセット内のその最も近い隣人からです。一つは、5つ星スケールで約20,000の映画で、そこにあるので、Netflixのデータが疎であるかもしれないことを想像することができ、約\(6 ^ {2万} \)ため、1〜5つ星の他に、それぞれの人が(6を持っている可能性が考えられる値、誰かが)全然映画を評価していない可能性があります。この数は、あっても理解するのは難しいですので、大きいです。

スパース性は、主に2つの意味を持ちます。まず、それが失敗する可能性がありますランダム摂動に基づいてデータセットを「匿名化」しようとしていることを意味します。つまり、摂動レコードはまだ攻撃者が持っている情報に最も近い記録であるので、これは十分ではないネットフリックスは、ランダムに(彼らがした)評価の一部を調整したとしても、です。第二に、スパース性は、デ匿名化は、攻撃者が不完全または公平な知識を持っている場合でも可能であることを意味します。例えば、Netflixのデータでは、のは、攻撃者は2映画やあなたがそれらの評価+/- 3日間行われた日付のあなたの評価を知っている想像してみましょう。単独でちょうどその情報は一意のNetflixデータの人々の68%を同定するのに十分です。攻撃者があなたが+/- 14日間評価している8映画を知っている場合、これらの公知の評価の2は完全に間違っている場合でも、その後、レコードの99%は、一意のデータセットで同定することができます。言い換えれば、スパース性は、最も近代的な社会的なデータセットが疎であるため、残念なことであるデータを、「匿名化」に向けた取り組みのための根本的な問題です。

電話メタデータも「匿名」と小文字を区別しないように見えるかもしれないが、それはそうではありません。電話メタデータが識別可能と小文字が区別されます(Mayer, Mutchler, and Mitchell 2016; Landau 2016)

図6.6では、私は、データのリリースから検索するには、参加者と便益へのリスクの間のトレードオフをスケッチ。制限されたアクセス手法(例えば、壁に囲まれた庭)と制限されたデータアプローチとの比較のために(例えば、匿名のいくつかのフォームが)参照Reiter and Kinney (2011)データのリスクレベルの提案分類システムについては、 Sweeney, Crosas, and Bar-Sinai (2015)最後に、データ共有のより一般的な議論については、参照Yakowitz (2011)

このトレードオフデータの危険性と有用性との間のより詳細な分析は、以下を参照してくださいBrickell and Shmatikov (2008) Ohm (2010) Wu (2013) Reiter (2012)およびGoroff (2015)大規模なオープンオンラインコース(MOOCs)から、実際のデータに適用され、このトレードオフを確認するには、参照はDaries et al. (2014)Angiuli, Blitzstein, and Waldo (2015)

差動プライバシーも参照してください、参加者に社会と低リスクの両方に高い利益を組み合わせることができます別のアプローチ提供していますDwork and Roth (2014)Narayanan, Huey, and Felten (2016)

個人的に研究倫理に関する規則の多くの中心である情報(PII)を、特定の概念の詳細については、を参照してくださいNarayanan and Shmatikov (2010)Schwartz and Solove (2011)潜在的に敏感であるすべてのデータの詳細については、 Ohm (2015)

このセクションでは、私は情報リスクにつながることができるものとして、異なるデータセットの連携を演じてきました。で論じたようにしかし、それはまた、研究のための新しい機会を作成することができCurrie (2013)

5室内金庫の詳細については、 Desai, Ritchie, and Welpton (2016)出力は識別することができる方法の例については、を参照してくださいBrownstein, Cassa, and Mandl (2006)疾患の有病率のマップを識別することができる方法を示しています。 Dwork et al. (2017)また、そのような特定の疾患を持っているどのように多くの個人に関する統計情報などの集計データに対する攻撃を、と考えています。

  • プライバシー(6.6.3)

Warren and Brandeis (1890) 、プライバシーに関する画期的な法的記事で、記事は、最もプライバシーが放っておかれるべき権利であるという考えに関連しています。さらに最近では、私がお勧めするプライバシーの本の長さの治療には、 Solove (2010)Nissenbaum (2010)

人々はプライバシーをどのように考えるかに関する実証研究の総説については、 Acquisti, Brandimarte, and Loewenstein (2015) サイエンスは、異なる様々な視点からのプライバシーと情報リスクの問題に対処する「プライバシーの終焉」と題した特別号を出版しました。要約を参照Enserink and Chin (2015) Calo (2011)プライバシーの侵害から来る害を考えるためのフレームワークを提供しています。デジタル時代の非常に始まりにおけるプライバシーに関する懸念の早期例があるPackard (1964)

  • 不確実性下の意思決定を行う(6.6.4項)

最小限のリスク標準を適用しようとする1つの課題は、それは、その生活ベンチマークのために使用される明確でないことである(Council 2014)例えば、ホームレスの人々が日常生活の中で不快感の高いレベルを持っています。しかし、それはよりリスクの高い研究にホームレスの人々を公開するために倫理的に許されていることを意味するものではありません。このため、最小限のリスクは一般集団の標準ではなく、 特定の集団の標準に対してベンチマークされるべきであるとコンセンサスの高まりがあるように思われます。私は一般的に、一般集団の標準の考え方に同意するが、私はFacebookなどの大規模なオンラインプラットフォームに対して、特定の集団の標準が合理的だと思います。それは感情的な伝染を考慮すると、私はそれがFacebook上で毎日のリスクに対するベンチマークに合理的であることを考えるとき、です。この場合、特定の集団の標準は、評価することがはるかに容易であり、弱者(例えば、囚人や孤児)に不当に失敗研究の負担を防止することを目的と正義の原則、と競合することはほとんどありません。

  • 実用的なヒント(6.7節)

他の学者はまた、倫理的な付録が含まれるように複数の論文を求めている(Schultze and Mason 2012; Kosinski et al. 2015) King and Sands (2015)また、実用的なヒントを提供しています。