Videnskab
 science >> Videnskab >  >> Elektronik

Hvorfor sociale mediefirmaer vil kæmpe for at følge nye EU-regler om ulovligt indhold

Kredit:Unsplash/CC0 Public Domain

Sociale medier gav os mulighed for at forbinde med hinanden som aldrig før. Men det kom med en pris - det gav en megafon til alle, inklusive terrorister, børnemisbrugere og hadgrupper. EU-institutionerne nåede for nylig til enighed om Digital Services Act (DSA), som har til formål at "sikre, at det, der er ulovligt offline, behandles som ulovligt online."

Den britiske regering har også en onlinesikkerhedslov på vej, for at øge kravene til digitale platforme til at fjerne ulovligt materiale.

Den skala, som store sociale medieplatforme opererer i - de kan have milliarder af brugere fra hele verden - udgør en stor udfordring i at politibekæmpe ulovligt indhold. Hvad der er ulovligt i ét land kan være lovligt og beskyttet udtryk i et andet. For eksempel regler omkring kritik af regering eller medlemmer af en kongefamilie.

Dette bliver kompliceret, når en bruger poster fra ét land, og indlægget bliver delt og set i andre lande. Inden for Storbritannien har der endda været situationer, hvor det var lovligt at udskrive noget på forsiden af ​​en avis i Skotland, men ikke England.

DSA overlader det til EU-medlemsstaterne at definere ulovligt indhold i deres egne love.

Databasetilgangen

Selv hvor loven er entydig, for eksempel en person, der poster kontrollerede stoffer til salg eller rekrutterer til forbudte terrorgrupper, står moderering af indhold på sociale medieplatforme over for store udfordringer.

Brugere laver hundredvis af millioner af indlæg om dagen. Automatisering kan opdage kendt ulovligt indhold baseret på et sløret fingeraftryk af filens indhold. Men dette virker ikke uden en database, og indholdet skal gennemgås, før det tilføjes.

I 2021 undersøgte Internet Watch Foundation flere rapporter end i deres første 15 leveår, inklusive 252.000, der indeholdt børnemishandling:en stigning på 64 % år-til-år sammenlignet med 2020.

Nye videoer og billeder vil dog ikke blive fanget af en database. Mens kunstig intelligens kan forsøge at lede efter nyt indhold, vil det ikke altid få tingene til at passe.

Hvordan sammenligner de sociale platforme sig?

I begyndelsen af ​​2020 blev Facebook rapporteret at have omkring 15.000 indholdsmoderatorer i USA sammenlignet med 4.500 i 2017. TikTok hævdede at have 10.000 mennesker, der arbejder med "tillid og sikkerhed" (hvilket er en smule bredere end indholdsmoderering), på det seneste 2020. En NYU Stern School of Business-rapport fra 2020 foreslog, at Twitter havde omkring 1.500 moderatorer.

Facebook hævder, at i 2021 blev 97 % af det indhold, de markerede som hadefulde ytringer, fjernet af AI, men vi ved ikke, hvad der blev savnet, ikke rapporteret eller ikke fjernet.

DSA vil få de største sociale netværk til at åbne deres data og informationer for uafhængige forskere, hvilket burde øge gennemsigtigheden.

Menneskelige moderatorer kontra teknologi

Gennemgang af voldeligt, foruroligende, racistisk og hadefuldt indhold kan være traumatisk for moderatorer og førte til et retsforlig på 52 millioner USD (42 millioner GBP). Nogle moderatorer på sociale medier rapporterer, at de skal gennemgå så mange som 8.000 stykker markeret indhold om dagen.

Mens der er nye AI-baserede teknikker, som forsøger at opdage bestemte typer indhold, kæmper AI-baserede værktøjer med at skelne mellem ulovligt og usmageligt eller potentielt skadeligt (men ellers lovligt) indhold. AI kan fejlagtigt markere harmløst indhold, gå glip af skadeligt indhold og vil øge behovet for menneskelig gennemgang.

Facebooks egne interne undersøgelser fandt angiveligt tilfælde, hvor der blev truffet forkerte handlinger mod opslag så meget som "90% af tiden." Brugere forventer konsistens, men det er svært at levere i skala, og moderatorernes beslutninger er subjektive. Gråzonesager vil frustrere selv de mest specifikke og præskriptive retningslinjer.

Balancegang

Udfordringen strækker sig også til misinformation. Der er en fin grænse mellem at beskytte ytringsfriheden og pressefriheden og at forhindre bevidst spredning af falsk indhold. De samme fakta kan ofte formuleres forskelligt, noget velkendt for enhver, der kender til den lange historie med "spin" i politik.

Sociale netværk er ofte afhængige af, at brugere rapporterer skadeligt eller ulovligt indhold, og DSA søger at styrke dette. Men en alt for automatiseret tilgang til moderation kan markere eller endda skjule indhold, der når et bestemt antal rapporter. Det betyder, at grupper af brugere, der ønsker at undertrykke indhold eller synspunkter, kan våben masserapportering af indhold.

Sociale medievirksomheder fokuserer på brugervækst og tid brugt på platformen. Så længe misbrug ikke holder nogen af ​​disse tilbage, vil de sandsynligvis tjene flere penge. Det er derfor, det er vigtigt, når platforme tager strategiske (men potentielt polariserende) tiltag – såsom at fjerne den tidligere amerikanske præsident Donald Trump fra Twitter.

De fleste af de anmodninger, som DSA fremsætter, er rimelige i sig selv, men vil være vanskelige at implementere i stor skala. Øget politistyring af indhold vil føre til øget brug af automatisering, som ikke kan foretage subjektive vurderinger af kontekst. Appeller kan være for langsomme til at tilbyde meningsfuld brug, hvis en bruger fejlagtigt får et automatisk forbud.

Hvis de juridiske sanktioner for at få indholdsmoderering forkert er høje nok for sociale netværk, kan de på kort sigt blive stillet over for få andre muligheder end at begrænse, hvad brugere får vist. TikToks tilgang til håndplukket indhold blev kritiseret bredt. Platform skævheder og "filter bobler" er en reel bekymring. Filterbobler oprettes, hvor indhold, der vises til dig, automatisk vælges af en algoritme, som forsøger at gætte, hvad du vil se næste gang, baseret på data som det, du tidligere har set på. Brugere beskylder nogle gange sociale medievirksomheder for platformbias eller uretfærdig moderation.

Er der en måde at moderere en global megafon? Jeg vil sige, at beviserne peger på nej, i hvert fald ikke i skala. Vi vil sandsynligvis se svaret udspille sig gennem håndhævelse af DSA i retten.

Varme artikler