Desinformation fangede mange mennesker ude af vagt under Brexit-afstemningen i 2016 og det amerikanske præsidentvalg. Siden da har en miniindustri udviklet sig til at analysere og imødegå det.
På trods af det er vi gået ind i 2024 – et år med mere end 40 valg på verdensplan – mere bange end nogensinde for desinformation. På mange måder er problemet mere udfordrende, end det var i 2016.
Teknologiske fremskridt siden da er en årsag til det, især den udvikling, der er sket med syntetiske medier, også kendt som deepfakes. Det bliver stadig sværere at vide, om medier er blevet fremstillet af en computer eller er baseret på noget, der virkelig er sket.
Vi har endnu ikke rigtig forstået, hvor stor en indflydelse deepfakes kan have på valg. Men en række eksempler peger på, hvordan de kan bruges. Dette kan være året, hvor der begås mange fejl og læres.
Siden desinformationen spredte sig omkring afstemningerne i 2016, har forskere produceret utallige bøger og papirer, journalister har omskolet sig til faktatjek- og verifikationseksperter, regeringer har deltaget i "store udvalg" og ekspertisecentre.
Derudover er biblioteker blevet fokus for modstandsdygtighedsopbygningsstrategier, og en række nye organer er dukket op for at levere analyser, træning og ressourcer.
Denne aktivitet har ikke været frugtesløs. Vi har nu en mere nuanceret forståelse af desinformation som et socialt, psykologisk, politisk og teknologisk fænomen. Indsatsen for at støtte journalistik af offentlig interesse og opdyrkning af kritisk tænkning gennem uddannelse er også lovende. Mest bemærkelsesværdigt er det, at store teknologivirksomheder ikke længere foregiver at være neutrale platforme.
I mellemtiden har politiske beslutningstagere genfundet deres pligt til at regulere teknologi i offentlighedens interesse.
Reguleringsdiskussioner har tilføjet et presserende behov, nu hvor AI-værktøjer til at skabe syntetiske medier – medier delvist eller fuldt ud genereret af computere – er blevet mainstream. Disse deepfakes kan bruges til at efterligne virkelige menneskers stemme og udseende. Deepfake medier er imponerende realistiske og kræver ikke mange færdigheder eller ressourcer.
Dette er kulminationen på den bredere digitale revolution, hvor successive teknologier har gjort højkvalitetsindholdsproduktion tilgængelig for næsten alle. I modsætning hertil blev regulatoriske strukturer og institutionelle standarder for medier for det meste designet i en tid, hvor kun et mindretal af fagfolk havde adgang til produktion.
Politiske deepfakes kan antage forskellige former. Det nylige indonesiske valg så en dybt falsk video, der "genoplivede" den afdøde præsident Suharto. Dette var tilsyneladende for at opmuntre folk til at stemme, men det blev beskyldt for at være propaganda, fordi det var produceret af det politiske parti, han ledede.
Måske er en mere oplagt brug af deepfakes at sprede løgne om politiske kandidater. For eksempel forsøgte falsk AI-genereret lyd, der blev udgivet dage før Slovakiets parlamentsvalg i september 2023, at fremstille lederen af det progressive Slovakiet, Michal Šimečka, som at have diskuteret med en journalist, hvordan afstemningen skulle manipuleres.
Bortset fra den åbenlyse bestræbelse på at underminere et politisk parti, er det værd at bemærke, hvordan denne deepfake, hvis oprindelse var uklar, eksemplificerer bredere bestræbelser på at syndebukke minoriteter og dæmonisere mainstream-journalistik.
Heldigvis var lyden i dette tilfælde ikke af høj kvalitet, hvilket gjorde det hurtigere og nemmere for faktatjekkere at bekræfte dens uægthed. De demokratiske valgs integritet kan dog ikke stole på falskernes udmattelse.
Deepfake lydteknologi er på et sofistikeret niveau, der gør detektion vanskelig. Deepfake-videoer kæmper stadig med visse menneskelige træk, såsom repræsentationen af hænder, men teknologien er stadig ung.
Det er også vigtigt at bemærke, at den slovakiske video blev udgivet i de sidste dage af valgkampen. Dette er den bedste tid til at iværksætte desinformations- og manipulationsangreb, fordi målene og uafhængige journalister har hænderne fulde og derfor har lidt tid til at reagere.
Hvis det også er dyrt, tidskrævende og vanskeligt at efterforske dybe forfalskninger, så er det ikke klart, hvordan valgkommissioner, politiske kandidater, medierne eller endda vælgerne skal reagere, når potentielle sager opstår. Når alt kommer til alt, kan en falsk anklage fra en deepfake være lige så bekymrende som den faktiske deepfake.
En anden måde deepfakes kan bruges til at påvirke valg kan ses i den måde, de allerede er almindeligt brugt til at chikanere og misbruge kvinder og piger. Denne form for seksuel chikane passer til et eksisterende misbrugsmønster, der begrænser kvinders politiske deltagelse.
Vanskeligheden er, at det endnu ikke er klart, præcis hvilken indflydelse deepfakes kan have på valg. Det er meget muligt, at vi kunne se andre lignende anvendelser af deepfakes ved kommende valg i år. Og vi kunne endda se deepfakes brugt på måder, der endnu ikke er udtænkt.
Men det er også værd at huske på, at ikke al desinformation er højteknologisk. Der er andre måder at angribe demokratiet på. Rygter og konspirationsteorier om integriteten af valgprocessen er en snigende tendens. Valgsvindel er en global bekymring, da mange lande kun er demokratier i navnet.
Det er klart, at sociale medieplatforme muliggør og driver desinformation på mange måder, men det er en fejl at antage, at problemet begynder og slutter online. En måde at tænke på udfordringen ved desinformation under kommende valg er at tænke på styrken af de systemer, der formodes at opretholde demokratiet.
Er der et uafhængigt mediesystem, der er i stand til at levere undersøgelser af høj kvalitet i offentlighedens interesse? Er der uafhængige valgadministratorer og -organer? Er der uafhængige domstole til at dømme, hvis det er nødvendigt?
Og er der tilstrækkelig forpligtelse til demokratiske værdier frem for egeninteresse blandt politikere og politiske partier? I år med valg kan vi godt finde ud af svaret på disse spørgsmål.
Leveret af The Conversation
Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.