2.4.1.3 Censuur van sociale media door de Chinese regering

Onderzoekers geschraapt Chinese social media sites om censuur te bestuderen. Zij zijn omgegaan met onvolledigheid met latente-trek gevolgtrekking.

In aanvulling op de big data gebruikt in de twee voorgaande voorbeelden, kunnen onderzoekers verzamelen ook hun eigen waarnemingen, zoals wonderfully werd geïllustreerd door Gary King, Jennifer Pan, en Molly Roberts ' (2013) onderzoek over censuur door de Chinese overheid.

Social media berichten in China worden gecensureerd door een enorme staatsapparaat, dat wordt gedacht tienduizenden mensen op te nemen. Onderzoekers en burgers hebben echter weinig gevoel van hoe deze censors beslissen welke inhoud moet worden verwijderd uit de social media. Geleerden van China eigenlijk tegenstrijdige verwachtingen over welke soorten berichten zijn het meest waarschijnlijk te krijgen geschrapt. Sommigen denken dat censors zich richten op posten die kritieke van de staat zijn, terwijl anderen denken dat ze zich richten op posten die collectief gedrag aan te moedigen, zoals de protesten. Het uitzoeken welke van deze verwachtingen correct heeft gevolgen voor de manier waarop onderzoekers begrijpen China en andere autoritaire regimes die zich bezighouden met censuur. Daarom Koning en collega's wilden vergelijken berichten die werden gepubliceerd en vervolgens geschrapt om berichten die werden gepubliceerd en nooit verwijderd.

Het verzamelen van deze posten die betrokken zijn de geweldige technische prestatie van de kruipende meer dan 1.000 Chinese social media websites-elk met verschillende pagina-indelingen-het vinden van relevante berichten, en vervolgens weer langskomen deze posten om te zien, die vervolgens werden verwijderd. Naast de gebruikelijke technische problemen bij grootschalige web-crawling, dit project had de toegevoegde uitdaging die het moest zeer snel omdat veel gecensureerd uitsplitsing in minder dan 24 uur genomen. Met andere woorden, zou een trage crawler veel berichten die werden gecensureerd missen. Verder is de crawlers moest al deze gegevensverzameling doen terwijl ontwijken detectie opdat de sociale media websites toegang te blokkeren of anderszins hun beleid veranderen als reactie op de studie.

Zodra deze enorme technische taak voltooid was, had Koning en collega's ongeveer 11 miljoen berichten over 85 verschillende onderwerpen die vooraf gespecificeerde op basis van hun verwachte niveau van de gevoeligheid waren verkregen. Bijvoorbeeld, een onderwerp van hoge gevoeligheid is Ai Weiwei, de dissidente kunstenaar; een onderwerp van middelbare gevoeligheid is waardering en devaluatie van de Chinese munt, en een onderwerp van lage gevoeligheid is de World Cup. Van deze 11 miljoen posts over 2 miljoen werd gecensureerd, maar berichten over zeer gevoelige onderwerpen waren alleen iets vaker gecensureerd dan berichten op het midden en lage gevoeligheid onderwerpen. Met andere woorden, de Chinese censoren zijn ongeveer net zo waarschijnlijk een post die Ai Weiwei noemt als een post dat het WK noemt censureren. Deze bevindingen niet overeen met de simplistische gedachte dat de overheid censureert alle berichten over gevoelige onderwerpen.

Deze eenvoudige berekening van de censuur tarief op onderwerp zou misleidend zijn, echter. Bijvoorbeeld, zou de regering censureren posten die voorstander van Ai Weiwei zijn, maar laat posten die kritiek op hem zijn. Met het oog op meer zorgvuldig onderscheid te maken tussen de palen, moeten de onderzoekers aan het sentiment van elke post te meten. Zo is een manier om na te denken over het is dat het sentiment van elke post in een belangrijk latent kenmerk van elke post. Helaas, ondanks veel werk, volledig geautomatiseerde methoden voor het sentiment detectie met behulp van reeds bestaande woordenboeken zijn nog steeds niet erg goed in veel situaties (denk terug aan de problemen bij het maken van een emotionele tijdlijn van 11 september 2001 van de Sectie 2.3.2.6). Daarom Koning en collega's hadden behoefte aan een manier om te labelen hun 11 miljoen social media berichten over de vraag of zij 1) kritiek van de staat, 2) ondersteunen van de staat, of 3) irrelevant of feitelijke rapporten over de gebeurtenissen. Dit klinkt als een enorme klus, maar ze opgelost met behulp van een krachtige truc; men dat gebruikelijk is in data science maar momenteel relatief zeldzaam in de sociale wetenschappen.

Ten eerste, in een stap typisch genaamd pre-processing, de onderzoekers zetten de social media berichten in een document termijn matrix, waar er één rij voor elk document en één kolom die opgenomen of de post een specifiek woord bevatten (bv, protest, verkeer). Vervolgens werd een groep van assistenten hand gelabeld het sentiment van een steekproef van de post. Dan, Koning en collega's gebruikten deze met de hand gelabeld gegevens naar een machine learning model dat het sentiment van een bericht op basis van de kenmerken kon afleiden te schatten. Tot slot, gebruikten ze deze machine learning model om het sentiment van alle 11 miljoen berichten te schatten. Dus, in plaats van met de hand te lezen en etikettering 11 miljoen berichten (die logistiek onmogelijk zou zijn), ze handmatig bestempeld als een klein aantal posten en vervolgens gebruikt welke gegevens wetenschappers supervised leertechnieken zou bellen om de categorieën van alle berichten te schatten. Na het voltooien van deze analyse, Koning en collega's waren in staat om te concluderen dat, enigszins verrassend, de waarschijnlijkheid van een post wordt verwijderd was niet gerelateerd aan de vraag of het was kritisch over de staat of steunend van de staat.

Figuur 2.3: Vereenvoudigd schema voor de procedure gebruikt in King, Pan, en Roberts (2013) naar het schatten van het sentiment van 11 miljoen Chinezen social media berichten. Ten eerste, in een stap typisch genaamd pre-processing, de onderzoekers zetten de social media berichten in een document termijn matrix (zie Grimmer en Stewart (2013) voor meer informatie). Ten tweede, de onderzoekers de hand-coded het gevoel van een kleine steekproef van berichten. Ten derde, de onderzoekers opgeleid een bewaakte leermodel om het sentiment van berichten te classificeren. Ten vierde, de onderzoekers gebruik gemaakt van de onder toezicht staande leermodel om het sentiment van alle berichten te schatten. Zie King, Pan, en Roberts (2013), Bijlage B voor een meer gedetailleerde beschrijving.

Figuur 2.3: Vereenvoudigd schema voor de procedure gebruikt in King, Pan, and Roberts (2013) om het schatten van het sentiment van 11 miljoen Chinezen social media berichten. Ten eerste, in een stap typisch genaamd pre-processing, de onderzoekers zetten de social media berichten in een document termijn matrix (zie Grimmer and Stewart (2013) voor meer informatie). Ten tweede, de onderzoekers de hand-coded het gevoel van een kleine steekproef van berichten. Ten derde, de onderzoekers opgeleid een bewaakte leermodel om het sentiment van berichten te classificeren. Ten vierde, de onderzoekers gebruik gemaakt van de onder toezicht staande leermodel om het sentiment van alle berichten te schatten. Zie King, Pan, and Roberts (2013) , Bijlage B voor een meer gedetailleerde beschrijving.

Op het einde, Koning en collega's ontdekten dat slechts drie soorten berichten regelmatig werden gecensureerd: pornografie, kritiek op de censuur, en degenen die collectieve actie potentieel had (dat wil zeggen, de mogelijkheid van wat leidt tot grootschalige protesten). Door het observeren van een groot aantal posten die werden verwijderd en berichten die niet werden verwijderd, Koning en collega's waren in staat om te leren hoe de censuur gewoon werken door te kijken en te tellen. In de daaropvolgende onderzoek, maar die eigenlijk direct ingegrepen in de Chinese social media-ecosysteem door het creëren van berichten met systematisch verschillende inhoud en meten die krijgen gecensureerd (King, Pan, and Roberts 2014) . We zullen meer over experimentele benaderingen in Hoofdstuk 4. Verder leren, voorafschaduwing van een thema dat zal plaatsvinden in het boek, deze latente-attribuut gevolgtrekking problemen-die soms kunnen worden opgelost met toezicht leren-blijken heel gebruikelijk in sociaal onderzoek in het te zijn digitale tijdperk. U ziet foto's zeer vergelijkbaar met Figuur 2.3 in hoofdstuk 3 (Het stellen van vragen) en 5 (creëren massasamenwerking); Het is een van de weinige ideeën die in meerdere hoofdstukken weergegeven.

Alle drie van deze voorbeelden-de werkende gedrag van taxichauffeurs in New York, de vorming van vriendschap door studenten, en social media censuur gedrag van de Chinese overheid tonen aan dat relatief eenvoudig tellen van waarnemingsgegevens onderzoekers in staat stellen om theoretische voorspellingen te testen. In sommige gevallen, big data stelt u in staat om dit tellen relatief rechtstreeks doen (zoals in het geval van New York Taxis). In andere gevallen moeten de onderzoekers hun waarnemingen verzamelen (zoals bij Chinese censuur); omgaan met onvolledigheid door het samenvoegen van data (zoals in het geval van het netwerk van evolutie); of het uitvoeren van een vorm van latente-trek gevolgtrekking (zoals bij Chinese censuur). Zoals ik hoop dat deze voorbeelden laten zien, voor onderzoekers die in staat zijn om interessante vragen te stellen, grote veelbelovend.