Hvordan har du det med Facebook? Kredit:fyv6561/Shutterstock.com
Facebooks nyhedsfeed-algoritme bestemmer, hvad brugerne ser på dens platform – fra sjove memes til kommentarer fra venner. Virksomheden opdaterer regelmæssigt denne algoritme, som dramatisk kan ændre, hvilken information folk forbruger.
Når valget i 2020 nærmer sig, der er stor offentlig bekymring for, at det, der blev døbt "russisk indblanding" ved præsidentvalget i 2016, kan ske igen. Men det, der ikke får nok opmærksomhed, er den rolle, Facebooks algoritmeændringer spiller, med vilje eller ej, i den slags indblanding.
Et centralt modsvar til den russiske misinformationskampagne var faktuel journalistik fra velrenommerede kilder - som nåede mange af deres læsere på Facebook og andre sociale medieplatforme. Som forsker og underviser på sociale medier, Jeg ser beviser på, at ændringer i Facebooks nyhedsfeed-algoritme undertrykte brugernes adgang til troværdig journalistik i tiden op til Trumps valg.
Politiske agenter ved, at Facebook fungerer som en gatekeeper for informationsdiæterne for mere end 200 millioner amerikanere og 2 milliarder brugere verden over. Handlinger og misbrug fra andres side på platformene har skabt megen bekymring og offentlig diskussion, herunder om, hvor meget desinformation og propaganda amerikanerne så før valget. Hvad der ikke er talt nok om, er den effekt, som Facebooks algoritmiske skift har haft på adgangen til nyheder og demokrati.
Ændring af systemet
I midten af 2015 Facebook introducerede en større algoritmeændring, der fik læserne væk fra journalistik og nyheder, at levere flere opdateringer fra deres venner og familie. Ændringen blev formuleret i et venligt sprog, hvilket tyder på, at Facebook forsøgte at sikre, at brugerne ikke gik glip af historier fra venner. Men data fra sociale medier viser, at en effekt af ændringen var at reducere antallet af interaktioner, som Facebook-brugere havde med troværdige journalistiske forretninger.
Få måneder før valget i 2016, en endnu større algoritmeændring over for venner og familieposter tog en anden vejafgift på udgivertrafikken. En lang række nyhedsudgivere fandt ud af, at deres indhold var væsentligt mindre synligt for Facebook-brugere.
Undersøgelse af tallene
I min forskning, Jeg så på Facebook-engagement for mainstream nyhedsmedier omkring valget i 2016. Mine resultater understøtter andres konklusioner om, at Facebooks algoritme i høj grad undertrykte offentligt engagement med disse udgivere.
Data fra CrowdTangle, et selskab til overvågning af sociale medier, viser, at Facebook-trafikken faldt mærkbart hos CNN, ABC, NBC, CBS, Fox News, New York Times og The Washington Post, efter at virksomheden opdaterede sine algoritmer for at favorisere venner og familie i juni 2016.
Det beviser, at algoritmen fungerede, som den var designet til at fungere, men jeg er bekymret over, at store amerikanske forlag blev undertrykt på denne måde. Vælgernes interesse for præsidentvalget var højere i 2016 end i de foregående to årtier, og misinformation var udbredt. Facebooks ændringer betød, at centrale nyhedsorganisationer på tværs af det politiske spektrum havde sværere ved at få kendskab til troværdige valgnyheder og -rapportering.
Alarmklokker
Facebook var opmærksom på bekymringer om sin algoritme allerede før valget fandt sted. En af Facebooks egne ingeniører markerede disse potentielle effekter af Facebooks algoritmeændringer i juli 2015. Tre måneder senere, Zuckerbergs mentor, Roger McNamee, forsøgte også at advare Zuckerberg og Facebooks ledere om, at platformen blev brugt til at manipulere information om valget.
Lige efter valget reporteren Craig Silvermans undersøgelse hos BuzzFeed viste, at falske valgnyheder havde overgået "rigtige nyheder". I slutningen af 2018, Facebooks egen virksomhedserklæring afslørede problemer med, hvordan dens algoritme belønnede "grænseindhold", der var sensationelt og provokerende, ligesom mange af de hyperpartiske nyheder, der trendede forud for valget.
Nyere forskning fra Harvard's Shorenstein Center viser, at Facebook-trafik fortsatte med at falde betydeligt for udgivere efter en yderligere Facebook-algoritmeændring i januar 2018.
Prof. Grygiel opfordrer til algoritmisk gennemsigtighed på MSNBC.
Algoritmisk gennemsigtighed
Til dato, forskning i, hvordan Facebooks algoritme fungerer, er blevet begrænset af manglen på adgang til dets proprietære indre funktioner. Det er ikke nok at undersøge virkningerne af ændringerne i Facebooks nyhedsfeed. Jeg tror, det er vigtigt at forstå, hvorfor de skete, også, og overveje Facebooks forretningsbeslutninger mere direkte, og hvordan de påvirker demokratiet.
Nylig indsigt i virksomhedens interne processer tyder på, at Facebook er begyndt at forstå dens magt. I juli 2019, Bloomberg News afslørede, at virksomheden havde installeret software på sin egen platform for at holde øje med opslag, der portrætterede Facebook selv på potentielt vildledende måder, reducere deres synlighed for at sikre virksomhedens omdømme.
Nogle internationale juridiske forskere er begyndt at opfordre til love for at beskytte demokratier mod muligheden for, at algoritmisk manipulation kan give valggevinster. Der er intet bevis for, at Facebooks ændringer havde politiske intentioner, men det er ikke svært at forestille sig, at virksomheden kunne justere sine algoritmer i fremtiden, hvis den ville.
For at beskytte mod dette potentiale, nye love kan forhindre ændringer i algoritmen i opløbsperioderne før valget. I den finansielle branche, for eksempel, "stille perioder" forud for større virksomhedsmeddelelser søger at forhindre, at marketing- og PR-indsatsen kunstigt påvirker aktiekurserne.
Lignende beskyttelse af algoritmer mod virksomhedsmanipulation kunne hjælpe med at sikre, at politisk aktive, magtsøgende Facebook-ledere – eller enhver anden virksomhed med betydelig kontrol over brugernes adgang til information – kan ikke bruge deres systemer til at forme den offentlige mening eller stemmeadfærd.
Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.