Videnskab
 Science >> Videnskab >  >> Andet

Valgdesinformation:Hvordan AI-drevne bots fungerer, og hvordan du kan beskytte dig selv mod deres indflydelse

Kredit:Pixabay/CC0 Public Domain

Sociale medieplatforme er blevet mere end blot værktøjer til kommunikation. De har udviklet sig til travle arenaer, hvor sandhed og løgn støder sammen. Blandt disse platforme skiller X sig ud som en fremtrædende kampplads. Det er et sted, hvor desinformationskampagner trives, foreviget af hære af AI-drevne bots programmeret til at påvirke den offentlige mening og manipulere fortællinger.



AI-drevne bots er automatiserede konti, der er designet til at efterligne menneskelig adfærd. Bots på sociale medier, chatplatforme og samtale-AI er en integreret del af det moderne liv. De er nødvendige for at få AI-applikationer til at køre effektivt, for eksempel.

Men nogle bots er lavet med ondsindet hensigt. Chokerende nok udgør bots en betydelig del af X's brugerbase. I 2017 blev det anslået, at der var cirka 23 millioner sociale bots, der tegner sig for 8,5 % af de samlede brugere. Mere end to tredjedele af tweets stammede fra disse automatiserede konti, hvilket forstærker rækkevidden af ​​desinformation og mudrede vandet i den offentlige diskurs.

Sådan fungerer bots

Social indflydelse er nu en vare, der kan erhverves ved at købe bots. Virksomheder sælger falske følgere for kunstigt at øge populariteten af ​​konti. Disse følgere er tilgængelige til bemærkelsesværdigt lave priser, med mange berømtheder blandt køberne.

I løbet af vores research opdagede for eksempel kolleger og jeg en bot, der havde udsendt 100 tweets, der tilbød følgere til salg.

Ved at bruge AI-metoder og en teoretisk tilgang kaldet aktør-netværksteori, dissekerede mine kolleger og jeg, hvordan ondsindede sociale bots manipulerer sociale medier og påvirker, hvad folk tænker, og hvordan de handler med alarmerende effektivitet. Vi kan se, om falske nyheder blev genereret af et menneske eller en bot med en nøjagtighed på 79,7 %. Det er afgørende at forstå, hvordan både mennesker og AI formidler desinformation for at forstå de måder, hvorpå mennesker udnytter AI til at sprede misinformation.

For at tage et eksempel undersøgte vi aktiviteten af ​​en konto med navnet "True Trumpers" på Twitter.

Kontoen blev oprettet i august 2017, har ingen følgere og intet profilbillede, men havde på tidspunktet for undersøgelsen lagt 4.423 tweets ud. Disse omfattede en række helt opdigtede historier. Det er værd at bemærke, at denne bot stammer fra et østeuropæisk land.

Forskning som denne påvirkede X til at begrænse aktiviteterne af sociale bots. Som reaktion på truslen om manipulation af sociale medier har X implementeret midlertidige læsegrænser for at begrænse dataskrabning og manipulation. Verificerede konti har været begrænset til at læse 6.000 indlæg om dagen, mens ubekræftede konti kan læse 600 om dagen. Dette er en ny opdatering, så vi ved endnu ikke, om den har været effektiv.

Kan vi beskytte os selv?

Det påhviler dog i sidste ende brugerne at udvise forsigtighed og skelne sandhed fra løgn, især i valgperioder. Ved kritisk at vurdere information og tjekke kilder kan brugere spille en rolle i at beskytte integriteten af ​​demokratiske processer mod angreb fra bots og desinformationskampagner på X. Hver bruger er faktisk en frontlinjeforkæmper for sandhed og demokrati. Årvågenhed, kritisk tænkning og en sund dosis skepsis er essentiel rustning.

Med sociale medier er det vigtigt for brugerne at forstå de strategier, der anvendes af ondsindede konti.

Ondsindede aktører bruger ofte netværk af bots til at forstærke falske fortællinger, manipulere tendenser og hurtigt formidle misinformation. Brugere bør udvise forsigtighed, når de støder på konti, der udviser mistænkelig adfærd, såsom overdreven opslag eller gentagne beskeder.

Desinformation udbredes også ofte gennem dedikerede falske nyhedswebsteder. Disse er designet til at efterligne troværdige nyhedskilder. Brugere rådes til at verificere ægtheden af ​​nyhedskilder ved at krydshenvise oplysninger med velrenommerede kilder og konsultere faktatjekorganisationer.

Selvbevidsthed er en anden form for beskyttelse, især fra social engineering taktik. Psykologisk manipulation er ofte indsat for at bedrage brugere til at tro på usandheder eller engagere sig i bestemte handlinger. Brugere bør opretholde årvågenhed og kritisk vurdere det indhold, de møder, især i perioder med øget følsomhed, såsom valg.

Ved at holde os informeret, engagere os i civil diskurs og slå til lyd for gennemsigtighed og ansvarlighed kan vi i fællesskab forme et digitalt økosystem, der fremmer tillid, gennemsigtighed og informeret beslutningstagning.

Leveret af The Conversation

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.




Varme artikler