Kredit:CC0 Public Domain
USC Information Sciences Institute (USC ISI) datalog, Emilio Ferrara, har ny forskning, der indikerer, at bots eller falske konti aktiveret af kunstig intelligens på sociale medier har udviklet sig og nu er bedre i stand til at kopiere menneskelig adfærd for at undgå opdagelse.
I journalen Første mandag , forskning af Ferrara og kollegerne Luca Luceri (Scuola Universitaria Professionale della Svizzera Italiana), Ashok Deb (USC ISI), Silvia Giordano (Scuola Universitaria Professionale della Svizzera Italiana), undersøge botadfærd under valget i USA 2018 sammenlignet med botadfærd under valget i USA 2016.
Forskerne undersøgte næsten 250, 000 aktive brugere på sociale medier, der diskuterede det amerikanske valg både i 2016 og 2018, og fundet over 30, 000 bots. De fandt ud af, at bots i 2016 primært var fokuseret på retweets og store mængder af tweets omkring den samme besked. Imidlertid, efterhånden som menneskelig social aktivitet online har udviklet sig, så har bots. I valgsæsonen 2018 ligesom mennesker var mindre tilbøjelige til at retweete så meget som de gjorde i 2016, bots var mindre tilbøjelige til at dele de samme beskeder i høj lydstyrke.
Bots, forskerne opdagede, var mere tilbøjelige til at anvende en multi-bot tilgang, som for at efterligne autentisk menneskelig engagement omkring en idé. Også, under valget i 2018, da mennesker var meget mere tilbøjelige til at forsøge at engagere sig gennem svar, bots forsøgte at etablere stemme og tilføje dialog og engagere sig ved brug af afstemninger, en strategi typisk for velrenommerede nyhedsbureauer og meningsmålere, muligvis med henblik på at give legitimitet til disse konti.
I et eksempel en bot-konto udsendte en online Twitter-afstemning, der spurgte, om føderale valg skulle kræve, at vælgerne viser ID ved valgstederne. Den bad derefter Twitter-brugere om at stemme og retweete.
Hovedforfatter, Emilio Ferrara, bemærkede, "Vores undersøgelse bekræfter yderligere denne idé om, at der er et våbenkapløb mellem bots og detektionsalgoritmer. Efterhånden som sociale medievirksomheder lægger flere anstrengelser for at afbøde misbrug og kvæle automatiserede konti, bots udvikler sig for at efterligne menneskelige strategier. Fremskridt inden for kunstig intelligens gør det muligt for bots at producere mere menneskelignende indhold. Vi er nødt til at bruge flere kræfter på at forstå, hvordan bots udvikler sig, og hvordan mere sofistikerede kan opdages. Med det kommende amerikanske valg i 2020, integriteten af sociale mediers diskurs er af afgørende betydning for at tillade en demokratisk proces fri for ydre påvirkninger."