Videnskab
 science >> Videnskab >  >> Elektronik

Fire måder sociale medier kan stoppe spredningen af ​​hadefuldt indhold i kølvandet på terrorangreb

Kredit:BigTuneOnline/Shutterstock

Det dødelige angreb på to moskeer i Christchurch, New Zealand, hvor 50 mennesker blev dræbt og mange andre kritisk såret, blev streamet live på Facebook af manden anklaget for at have udført det. Det blev derefter hurtigt delt på tværs af sociale medieplatforme.

Versioner af livestream -angrebsvideoen forblev online i en bekymrende mængde tid. En rapport fra The Guardian viste, at en video blev på Facebook i seks timer og en anden på YouTube i tre. For mange, den hurtige og tilsyneladende ustoppelige spredning af denne video kendetegner alt, hvad der er galt med sociale medier:giftigt, hadfyldt indhold, der går viralt og ses af millioner.

Men vi bør undgå at syndebakke de store platforme. Alle sammen (Twitter, Facebook, Youtube, Google, Snapchat) er tilmeldt Europa -Kommissionens #NoPlace4Hate -program. De er forpligtet til at fjerne ulovligt hadefuldt indhold inden for 24 timer, en tidsperiode, der sandsynligvis vil komme ned på kun en time.

Bortset fra alt andet, de er klar over de omdømme risici ved at være forbundet med terrorisme og andet skadeligt indhold (såsom pornografi, selvmord, pædofili) og bruger i stigende grad betydelige ressourcer på at fjerne det. Inden for 24 timer efter Christchurch -angrebet, Facebook havde forbudt 1,5 mio. Versioner af angrebsvideoen - heraf stoppede den 1,2 mio. Overhovedet med at blive uploadet.

Overvågning af hadefuldt indhold er altid svært, og selv de mest avancerede systemer savner ved et uheld nogle. Men under terrorangreb står de store platforme over for særligt betydelige udfordringer. Som forskning har vist, terrorangreb udløser enorme stigninger i online had, overkørsel af platformes rapporteringssystemer. Mange af de mennesker, der uploader og deler dette indhold, ved også, hvordan de kan bedrage platformene og komme uden om deres eksisterende checks.

Så hvad kan platforme gøre for at fjerne ekstremistisk og hadefuldt indhold umiddelbart efter terrorangreb? Jeg foreslår fire særlige foranstaltninger, der er nødvendige for specifikt at målrette den kortsigtede tilstrømning af had.

1. Juster følsomheden af ​​haddetekteringsværktøjerne

Alle værktøjer til opdagelse af had har en fejlmargin. Designerne skal beslutte, hvor mange falske negativer og falske positive de er tilfredse med. Falske negativer er indholdsstykker, der er tilladt online, selvom de er hadefulde, og falske positive er indholdsstykker, der blokeres, selvom de ikke er hadende. Der er altid en afvejning mellem de to, når der implementeres ethvert haddetekteringssystem.

Den eneste måde at virkelig sikre, at intet hadigt indhold går online, er at forbyde alt indhold at blive uploadet - men dette ville være en fejl. Langt bedre at justere følsomheden af ​​algoritmerne, så folk får lov til at dele indhold, men platforme fanger meget mere af de hadefulde ting.

Sørger over ofrene for angrebene i Christchurch -moskeen. Kredit:EPA-EFE

2. Aktiver lettere fjernelser

Hadeligt indhold, der kommer på de store platforme, såsom Twitter og Facebook, kan markeres af brugere. Det sendes derefter til manuel gennemgang af en indholdsmoderator, hvem kontrollerer det ved hjælp af foruddefinerede retningslinjer. Indholdsmoderering er en grundlæggende vanskelig forretning, og platformene sigter mod at minimere unøjagtige anmeldelser. Ofte er dette ved at bruge "pinden":ifølge nogle undersøgende journalister, moderatorer, der arbejder på Facebooks vegne, risikerer at miste deres job, medmindre de opretholder en høj grad af nøjagtighed.

Under angrebene, platforme kunne indføre særlige procedurer, så personalet hurtigt kan gennemgå indhold uden frygt for evaluering af lav ydeevne. De kunne også indføre midlertidige karantæner, så indhold markeres til øjeblikkelig fjernelse, men derefter undersøges igen på et senere tidspunkt.

3. Begræns brugernes mulighed for at dele

Deling er en grundlæggende del af sociale medier, og platforme tilskynder aktivt til deling både på deres websteder (hvilket er afgørende for deres forretningsmodeller) og mellem dem, da det betyder, at ingen af ​​dem går glip af, når noget går viralt. Men let deling medfører også risici:forskning viser, at ekstremt og hadefuldt indhold importeres fra niche-højreekstreme websteder og dumpes i mainstream, hvor det hurtigt kan sprede sig til et stort publikum. Og under angreb betyder det, at alt, hvad der kommer forbi én platforms haddetekteringssoftware, hurtigt kan deles på alle platforme.

Platforme bør begrænse antallet af gange, som indhold kan deles på deres websted og potentielt forbyde delinger mellem websteder. Denne taktik er allerede blevet vedtaget af WhatsApp, som nu begrænser antallet af gange indhold kan deles til kun fem.

4. Opret delte databaser med indhold

Alle de store platforme har meget ens retningslinjer for, hvad der er "had", og vil forsøge at fjerne stort set det samme indhold efter angreb. Oprettelse af en delt database med hadefuldt indhold ville sikre, at indhold, der fjernes fra et websted, automatisk forbydes fra et andet. Dette ville ikke kun undgå unødvendig dobbeltarbejde, men sætte platforme i stand til hurtigt at afsætte ressourcer til det virkelig udfordrende indhold, der er svært at opdage.

Fjernelse af hadeligt indhold bør ses som en brancheomfattende indsats og ikke som et problem, hver platform står over for individuelt. Delte databaser som denne findes også på en begrænset måde, men indsatsen skal intensiveres enormt og deres omfang udvides.

På lang sigt, platforme skal blive ved med at investere i indholdsmoderering og udvikle avancerede systemer, der integrerer menneskelig kontrol med maskinlæring. Men der er også et presserende behov for særlige foranstaltninger til at håndtere den kortsigtede tilstrømning af had efter terrorangreb.

Denne artikel er genudgivet fra The Conversation under en Creative Commons -licens. Læs den originale artikel.




Varme artikler