3.3.1表現

表現は、あなたの標的集団にあなたの回答から推論を行うことについてです。

回答者からより多くの人口に推測するときに起こりうるエラーの種類を理解するために、1936年の米国大統領選挙の結果を予測しようとしたLiterary Digestストロー調査を考えてみましょう。それは75年以上前に起こったが、この失敗は今日も研究者を教える重要な教訓を持っている。

Literary Digestは人気のある一般的な雑誌で、1920年に始まり、大統領選挙の成果を予測するために麦わら投票を開始しました。これらの予測をするために、彼らは多くの人々に投票を送り、返された投票を単純に集計します。 文学ダイジェストは誇らしげに、彼らが受け取った投票用紙はどちらも「加重調整し、また解釈。」この手順が正常に1936年に1920年、1924年、1928年と1932年の選挙の勝者を予測し、大恐慌の真っ只中に、 文学と報告しましたダイジェストは1000万人の人々に投票用紙を送りました。名前は主に電話帳と自動車登録記録から来ました。彼らが彼らの方法論を記述した方法は次のとおりです:

"ダイジェストの滑らかなマシンは、30年の経験を素早く正確に実行し、厳しい事実を推測するのをやめます...今週500枚のペンが1日に250万以上のアドレスを傷つけました。毎日、ニューヨークのモーターリボン式4番街の上にある素晴らしい部屋では、400人の労働者が、40個の街区を舗装するのに十分な数百万枚の印刷物を素早くスライドさせることができます。 1時間ごとに、ダイジェストの郵便局変電所では、3つのチャタリング郵便料金計器が封印され、白い楕円形が打たれます。熟練した郵便従業員は、それらを膨らんだ郵便受けに転用した。艦隊DIGESTのトラックは彼らに郵便車を表現するよう促した。 。 。来週、これらの1000万人からの最初の回答は、マークされた投票の流れを開始し、3回チェック、検証、5回のクロス分類、合計となる。最後の数字がトートされてチェックされたとき、過去の経験が基準であれば、国は4,000万人の有権者の投票を1%の割合で知るだろう」(1936年8月22日)

Literary Digestのサイズフェチシエーションは、今日の「ビッグデータ」の研究者にとってはすぐに分かります。分配された1000万の投票のうち、驚くべき240万が返されました。これは現代政治調査の約1,000倍です。この240万人の回答者の中から、Alf Landonは現職のFranklin Rooseveltを倒すつもりであったという判決が明らかになった。しかし実際には、ルーズベルトは地滑りの中でランドンを打ち負かした。 文学ダイジェストはどのように多くのデータに間違っていますか?私たちの現代的なサンプリングの理解は、 Literary Digestの間違いをはっきりさせ、私たちが将来同様の間違いを避けるのに役立ちます。

サンプリングについて明確に考えてみると、4つの異なるグループの人々を考慮する必要があります(図3.2)。第1のグループは目標母集団である 。これは研究者が興味のある人口と定義するグループです。 文学的ダイジェストの場合、対象人口は1936年の大統領選挙で有権者であった。

ターゲット母集団を決定した後、研究者はサンプリングに使用できる人のリストを作成する必要があります。このリストはサンプリングフレームと呼ばれ、その上の人々はフレーム集団と呼ばれます。理想的には、ターゲット母集団とフレーム母集団はまったく同じであるが、実際にはこれはしばしば当てはまらない。例えば、 文学的ダイジェストの場合、フレームの人口は、電話帳と自動車登録記録から主に名前が付けられた1000万人でした。ターゲット母集団とフレーム母集団の違いは、 カバレッジ・エラーと呼ばれます 。カバレッジ・エラーはそれだけで問題を保証するものではありません。しかし、フレーム母集団の人々がフレーム母集団に属していない対象母集団の人々と系統的に異なる場合には、 カバレッジバイアスにつながる可能性があります。これは、実際には、 Literary Digestの調査で起こったことです。彼らのフレームの人口は、アルフ・ランドンを支持する傾向がありました。なぜなら、彼らはより裕福だったからです(電話と自動車の両方が比較的新しくて高価だったことを思い出してください)。だから、 Literary Digestの調査では、カバレッジ・エラーがカバレッジ・バイアスにつながった。

図3.2:表現の誤り。

図3.2:表現の誤り。

フレーム集団を定義した後、次のステップは、研究者がサンプル集団を選択することである。研究者がインタビューしようとする人々です。サンプルがフレーム母集団と異なる特性を有する場合、サンプリングはサンプリング誤差を導入する可能性がある。しかし、 Literary Digestの失敗の場合、実際にはサンプリングはありませんでした。つまり、フレーム集団内の全員に連絡する雑誌です。したがって、サンプリングエラーはありませんでした。多くの研究者はサンプリング誤差に焦点を当てる傾向がありますが、これは一般的に調査で報告された誤差の範囲で捉えられた唯一の種類の誤差ですが、 Literary Digestの失敗は、すべての誤差要因をランダムかつ系統的に考慮する必要があることを思い起こさせます。

最後に、標本集団を選択した後、研究者はすべてのメンバーにインタビューを試みる。成功裡にインタビューされた人々は、 回答者と呼ばれます。理想的には、標本集団と回答者はまったく同じですが、実際には無反応です。つまり、サンプルで選択された人が参加しないことがあります。対応の人が応答しない人とは異なっている場合には、 無応答偏りがあることができます。レスポンスの偏りは、 Literary Digestの 2番目の主要な問題でした。投票を受けた人の24%だけが反応し、Landonをサポートしていた人々が反応する可能性が高いことが判明しました。

Literary Digestの投票は、表現のアイデアを紹介するだけでなく、ハザード・サンプリングの危険性について研究者に警告するものでもありません。残念ながら、私はこの物語から多くの人々が描いた教訓が間違っていると思います。話の最も一般的な道徳は、研究者が非確率サンプル(すなわち、参加者を選択するための厳密な確率ベースのルールなしのサンプル)から何も学ぶことができないということである。しかし、この章の後半に示すように、これはあまり適切ではありません。代わりに、私はこの物語に本当に2つの道徳があると思う。これは1936年のように今日も真実である。第一に、大量のデータが収集されても、良い見積もりが保証されるわけではない。一般に、多数の回答者を有することは、推定値の分散を減少させるが、必ずしもバイアスを減少させるものではない。多くのデータがあると、研究者は間違ったことを正確に推定することがあります。 正確に不正確になる可能性がある(McFarland and McFarland 2015)Literary Digestの失敗の2番目の主な教訓は、見積もりを行う際にサンプルがどのように収集されたかを研究者が考慮する必要があることです。言い換えれば、 Literary Digest調査のサンプリングプロセスは一部の回答者に偏っているため、回答者の中には他の回答者よりも重視されるより複雑な見積もりプロセスを使用する必要がありました。この章の後半では、無重力サンプルからより良い見積もりを可能にするような、重み付け手順(層別化後)を示します。