Kredit:CC0 Public Domain
Polarisering, konspirationsteorier, falske nyheder:Hvad folk ser på internettet er i vid udstrækning bestemt af de uigennemsigtige algoritmer fra nogle få virksomheder. Det er en bekymrende udvikling for demokratiske samfund. Men onlinemiljøer kunne designes på måder, der fremmer autonomi og gennemsigtighed, derved fremmer internettets positive potentiale. Et team af forskere fra Max Planck Institute for Human Development i Berlin, University of Bristol, og Harvard Law School har grebet denne debat an fra det adfærdsvidenskabelige perspektiv og foreslået interventioner, der er i stand til at fremme et mere demokratisk internet. Deres resultater er blevet offentliggjort i Naturen Menneskelig adfærd .
Du scroller gennem din YouTube, Facebook, eller Twitter-feed, når en video vises:en rapport om hemmelige politiske aftaler, mediekonspirationer, eller falske videnskabelige undersøgelser. Alt synes at være bakket op af fakta. Videoen har hundredtusindvis af klik og ser ud til at vinde indpas verden over. Og mange seere ser ud til at være enige i det, efter at have givet det en 'thumbs up'. Men hvad betyder alt dette helt præcist? Gør det videoen troværdig? Hvor mange seere så videoen til slutningen; hvor mange tilbage midtvejs? Og hvorfor dukkede videoen op i dit feed i første omgang? Online platformen kender mange af svarene, men den deler ikke den information. Og der er ingen andre stikord, der kan hjælpe dig med at vurdere indholdet, kvalitet, eller troværdigheden af videoen.
Ifølge Reuters Institute Digital News Report 2019, mere end halvdelen (55%) af verdens internetbrugere bruger nu sociale medier eller søgemaskiner til at følge med i nyhederne. Med andre ord, den offentlige mening formes i høj grad af onlineindhold, som igen er kureret af algoritmer. "Målet er at holde brugerne glade så længe som muligt, så de bliver på platformen. Det opnås ved at levere underholdning og etablere en følelse af velvære - hvilket sandsynligvis forklarer, hvorfor mange platforme ikke har "dislike"-knapper, der tillade brugere at nedstemme indhold. Følelsen, der formidles, er:Du har ret. Det kan være harmløst, når vi deler privat indhold såsom feriebilleder, men det forvrænger billedet, når det, der bliver spredt, er radikale meninger og usandheder, " siger medforfatter Stephan Lewandowsky, Professor i kognitiv psykologi ved University of Bristol.
Et andet problem er, at nyhedsfeedalgoritmer kun viser brugernes indhold, der er baseret på deres tidligere onlineadfærd - som de sandsynligvis vil være enige i. Andre synspunkter har en tendens til slet ikke at blive vist. Dette skaber netværk af ligesindede brugere, som styrker fælles meninger og skaber illusionen om bred opbakning, også selvom en mening faktisk ikke er udbredt. Men hvordan kan brugere skelne falske nyheder fra fakta? Og hvordan skal onlinemiljøer designes til at understøtte disse bestræbelser? "De interventioner, vi foreslår, er rettet mod at give individuelle brugere mulighed for at træffe informerede og autonome beslutninger i onlinemiljøer - ideelt set, uden at skulle stole på uafhængige faktatjekkere. Arkitekturen i onlinemiljøer påvirker brugernes adfærd. For at ændre dette miljø til det bedre, vi skal forstå menneskelig adfærd og tage højde for den adfærd i designvalg, " siger Philipp Lorenz-Spreen, hovedforfatter af undersøgelsen og forsker ved Max Planck Institute for Human Development.
Forskerholdet har identificeret en række måder at hjælpe brugere med at evaluere kvaliteten af internetindhold og til at forstå mekanismerne bag algoritmer – uden at indskrænke de friheder, der er centrale for internettets oprindelige filosofi. Disse muligheder er teknologisk gennemførlige, men indtil videre stort set uudnyttede. Forskerholdet har udviklet specifikke anbefalinger for at styrke enkeltpersoner online, trækker på to tilgange fra adfærdsvidenskaberne:nudging og boosting.
Nudging har til formål at styre folks adfærd ved at fremhæve vigtig information uden at pålægge regler eller forbud. Boosting har til formål at styrke folks beslutningskompetence, sætter dem i stand til at navigere selvstændigt i situationer og træffe bedre beslutninger. Ifølge forskerne, det er vigtigt at have en flerstrenget tilgang for at nå ud til så mange mennesker som muligt. Nudging kunne bruges, for eksempel, for at angive, om indhold opfylder visse kvalitetskriterier – såsom om det stammer fra troværdige kilder. Dette vil både få brugerne til at tjekke indholdet grundigt og skabe en incitamentstruktur for indholdsproducenter til at opfylde de krævede kriterier. At inkludere hyperlinks til verificerede kilder ville være endnu et skridt. Wikipedia kunne tjene som model her:De referencer og krydshenvisninger, den giver, hjælper med at kontekstualisere den præsenterede information. Twitter tog for nylig et skridt i denne retning og begyndte at markere nogle tweets med en advarsel om faktatjek - inklusive et tweet af Donald Trump om emnet brevstemme.
Nudges kunne også kommunikere yderligere information om andre brugeres onlineadfærd, give yderligere kontekst for, hvordan andre vurderer indhold. For eksempel, antallet af likes kunne indstilles i forhold til det samlede antal læsere:"4, 287 ud af 1,5 millioner læsere kunne lide denne artikel." Oplysningerne om, at der var 44, 000 klik på en artikel, men at kun 3, 000 brugere læser det til ende kan være en bedre indikator for kvalitet end antallet af klik og likes alene. Det har vist sig, at gennemsigtige numeriske formater kan forbedre medicinske beslutninger. Hvorfor skulle det samme ikke gælde for internettet? Denne tilgang kunne forhindre dannelsen af ekkokamre, hvor grupper af mennesker fejlagtigt tror, at deres mening er udbredt og accepteret.
En anden mulighed kan være at gøre det lidt sværere for brugerne at dele information, når en artikel undlader at citere eksterne referencer. For eksempel, brugere kan blive bedt om at klikke forbi et pop op-vindue, der indeholder en advarsel om, at referencer mangler. En anden type nudge kan målrette mod, hvordan indhold er arrangeret i browsere – dvs. måden et nyhedsfeed sorterer indhold på. Klart skelne mellem typer af indhold, såsom meninger, nyheder, eller opslag af venner, kan gøre nyhedsfeeds mere gennemsigtige.
Boost, i modsætning, har til formål at øge brugernes kompetence på lang sigt. Dette kunne, for eksempel, betyde at gøre det muligt for folk at justere, hvordan deres nyhedsfeeds sorteres - at lade dem ændre deres indstillinger for at afspejle, hvilke faktorer der er vigtigst for dem, og hvilket indhold de ønsker at se først. Sociale netværk kan være forpligtet til at angive, hvorfor noget indhold vægtes tungere og vises først, mens andet indhold nedprioriteres. Et andet eksempel på et boost ville være at præsentere den oprindelige kilde til et stykke information og den rute, hvormed det nåede en bruger. Simple beslutningstræer kunne guide brugerne gennem en trin-for-trin proces med at kontrollere oprindelsen, sammenhæng, og kvaliteten af onlineindhold. Med andre ord, brugere ville få værktøjerne til selv at blive faktatjekkere. På lang sigt, de ville lære at genkende mønstre, kritisk vurdere indhold, og at identificere manipulation hurtigere.
"De sociale mediers interaktive karakter kunne udnyttes til at fremme mangfoldig demokratisk dialog og fremme kollektiv intelligens. Vores mål er at finde måder at styrke internettets potentiale for at informere beslutningsprocesser i demokratiske samfund, at styrke dem i stedet for at underminere dem. Globale problemer som klimaændringer og coronavirus-pandemien kræver koordineret, kollektive løsninger. Og det gør en demokratisk sammenkoblet onlineverden afgørende, " siger Ralph Hertwig, Direktør for Center for Adaptiv Rationalitet ved Max Planck Institute for Human Development.