Videnskab
 science >> Videnskab >  >> Elektronik

Angst over livestreams kan hjælpe os med at designe bedre Facebook- og YouTube-indholdsmoderering

Livestream på Facebook er ikke kun et værktøj til at dele vold – det har mange populære sociale og politiske anvendelser. Kredit:glen carrie / unsplash, CC BY

Mens familier i Christchurch begraver deres kære efter fredagens terrorangreb, global opmærksomhed drejer sig nu mod at forhindre, at sådan noget nogensinde sker igen.

I særdeleshed, den rolle, sociale medier spillede i at udsende live-optagelser og forstærke deres rækkevidde, er under lup. Facebook og YouTube står over for intens granskning.

New Zealands premierminister Jacinta Ardern har angiveligt været i kontakt med Facebook-chefer for at presse på, at optagelserne ikke skulle være tilgængelige for visning. Den australske premierminister Scott Morrison har opfordret til et moratorium for amatør-livestreamingtjenester.

Men ud over disse umiddelbare svar, denne frygtelige hændelse giver mulighed for langsigtede reformer. Det er på tide, at sociale medieplatforme bliver mere åbne om, hvordan livestreaming fungerer, hvordan det modereres, og hvad der skal ske, hvis eller når reglerne bryder sammen.

Stigende kontrol

Da den påståede gerningsmand tilsyneladende fløj under radaren før denne hændelse i Christchurch, vores kollektive fokus er nu vendt mod online radikalisering af unge mænd.

Som en del af det online platforme står over for øget kontrol, og Facebook og Youtube har fået kritik.

Efter udbredelsen af ​​den originale livestream fandt sted på Facebook, YouTube blev et sted for gen-upload og udbredelse af de optagede optagelser.

Begge platforme har afgivet offentlige udtalelser om deres indsats for moderation.

YouTube bemærkede udfordringerne ved at håndtere en "hidtil uset mængde" af uploads.

Selvom det er blevet rapporteret, at mindre end 4000 mennesker så den første stream på Facebook, Facebook sagde:"I de første 24 timer fjernede vi 1,5 millioner videoer af angrebet globalt, hvoraf over 1,2 millioner blev blokeret ved upload […]"

At fokusere hovedsageligt på live-streaming er noget reduktivt. Selvom skytten oprindeligt streamede sine egne optagelser, den større udfordring ved at kontrollere videoen relaterer sig i vid udstrækning til to spørgsmål:

  1. hvor lang tid den var tilgængelig på Facebooks platform, før den blev fjernet
  2. moderering af "spejl" videoudgivelse af folk, der havde valgt at downloade, redigere, og gen-upload videoen til deres egne formål.

Disse spørgsmål illustrerer svaghederne ved eksisterende politikker og praksis for indholdsmoderering.

Ikke en nem opgave

Moderering af indhold er et komplekst og lidet misundelsesværdigt ansvar. Platforme som Facebook og YouTube forventes at balancere dyderne ved ytringsfrihed og nyhedsværdi med sociokulturelle normer og personlige ønsker, samt de lokale reguleringsordninger i de lande, de opererer i.

Når platforme udfører dette ansvar dårligt (eller, abdicerer det fuldstændigt) giver de opgaven videre til andre - som de newzealandske internetudbydere, der blokerede adgangen til websteder, der videredistribuerede skydespillerens optagelser.

Folk kan med rimelighed forvente, at platforme som Facebook og YouTube har grundig kontrol over, hvad der uploades på deres websteder. Imidlertid, virksomhedernes enorme brugerbase betyder, at de ofte skal balancere anvendelsen af ​​automatiserede, algoritmiske systemer til indholdsmoderering (som Microsofts PhotoDNA, og YouTubes ContentID) med teams af menneskelige moderatorer.

Vi ved fra efterforskningsrapportering, at moderationsholdene på platforme som Facebook og YouTube har til opgave at udføre særligt udfordrende arbejde. De ser ud til at have en relativt høj udskiftning af personale, som hurtigt bliver udbrændt af alvorlige arbejdsbelastninger, mens de modererer det værste indhold på internettet. De forsørges med kun ringe løn, og hvad der kunne betragtes som utilstrækkelig mental sundhedspleje.

Og mens nogle algoritmiske systemer kan være effektive i skala, de kan også undergraves af kompetente brugere, der forstår aspekter af deres metodologi. Hvis du nogensinde har fundet en video på YouTube, hvor farverne er forvrænget, lydafspilningen er lidt ude af synkronisering, eller billedet er kraftigt zoomet og beskåret, du har sandsynligvis set nogens forsøg på at komme uden om ContentID-algoritmer.

For online platforme, reaktionen på terrorangreb kompliceres yderligere af den vanskelige balance, de skal finde mellem deres ønske om at beskytte brugere mod umotiverede eller forfærdelige optagelser og deres forpligtelse til at informere folk, der søger nyheder via deres platform.

Vi må også anerkende de andre måder, livestreaming har i det moderne liv. Livestreaming er en lukrativ nicheunderholdningsindustri, med tusindvis af uskyldige brugere, der udsender hobbyer med venner fra brætspil til mukbang (social spisning), til videospil. Livestreaming er vigtigt for aktivister i autoritære lande, giver dem mulighed for at dele øjenvidneoptagelser af forbrydelser, og skifte magtforhold. Et forbud mod livestreaming ville forhindre meget af denne aktivitet.

Vi har brug for en ny tilgang

Facebook og YouTubes udfordringer med at løse spørgsmålet om livestreamede hadforbrydelser fortæller os noget vigtigt. Vi har brug for en mere åben gennemsigtig tilgang til mådehold. Platforme skal tale åbent om, hvordan dette arbejde udføres, og være parat til at inkorporere feedback fra vores regeringer og samfundet mere bredt.

Et godt sted at starte er Santa Clara-principperne, oprindeligt genereret fra en indholdsmodereringskonference afholdt i februar 2018 og opdateret i maj 2018. Disse udgør et solidt grundlag for reformer, med angivelse af:

  • virksomheder bør offentliggøre antallet af fjernede opslag og konti permanent eller midlertidigt suspenderet på grund af overtrædelser af deres indholdsretningslinjer
  • virksomheder bør give meddelelse til hver bruger, hvis indhold er fjernet eller konto er suspenderet, om årsagen til fjernelsen eller suspenderingen
  • virksomheder bør give en meningsfuld mulighed for rettidig appel af enhver fjernelse af indhold eller kontosuspendering.

En mere socialt ansvarlig tilgang til platformes roller som moderatorer af den offentlige diskurs nødvendiggør en bevægelse væk fra den sorte boks-hemmelighed, som platforme er vant til – og en bevægelse i retning af mere grundige offentlige diskussioner om moderation af indhold.

Til sidst, større gennemsigtighed kan lette et mindre reaktivt politisk landskab, hvor både offentlig politik og opinion har en større forståelse omkring kompleksiteten i at styre nye og innovative kommunikationsteknologier.

Denne artikel er genudgivet fra The Conversation under en Creative Commons -licens. Læs den originale artikel.




Varme artikler