I en tid med generativ AI og store sprogmodeller (LLM'er) kan enorme mængder af uægte indhold hurtigt udsendes på sociale medieplatforme. Som følge heraf bliver ondsindede aktører mere sofistikerede, kaprer hashtags, forstærker kunstigt vildledende indhold og massedeler propaganda.
Disse handlinger orkestreres ofte af statssponsorerede informationsoperationer (IO'er), som forsøger at påvirke den offentlige mening under store geopolitiske begivenheder såsom det amerikanske valg, COVID-19-pandemien og meget mere.
At bekæmpe disse IO'er har aldrig været mere afgørende. Identificering af indflydelseskampagner med højpræcisionsteknologi vil i væsentlig grad reducere fejlklassificeringen af legitime brugere som IO-drivere, hvilket sikrer, at udbydere af sociale medier eller regulatorer ikke fejlagtigt suspenderer konti, mens de forsøger at begrænse ulovlige aktiviteter.
I lyset af dette er USC Information Sciences Institute (ISI)-forsker Luca Luceri med til at lede en indsats for at identificere og karakterisere indflydelseskampagner på sociale medier. Hans seneste artikel "Atmaskering af bedrageriet:Afdækning af koordineret aktivitet for at afsløre informationsoperationer på Twitter" blev præsenteret på webkonferencen den 13. maj 2024.
"Mit team og jeg har arbejdet på at modellere og identificere IO-drivere som bots og trolde i de sidste fem til ti år," sagde Luceri. "I dette papir har vi avanceret vores metoder til at foreslå en række uovervågede og overvågede maskinlæringsmodeller, der kan registrere orkestrerede påvirkningskampagner fra forskellige lande inden for platform X (tidligere Twitter)."
Med udgangspunkt i et omfattende datasæt med 49 millioner tweets fra verificerede kampagner med oprindelse i seks lande – Kina, Cuba, Egypten, Iran, Rusland og Venezuela – har Luceri og hans team finpudset fem delingsadfærd på X, som IO-chauffører deltager i.
Disse omfatter co-retweeting (deling af identiske tweets), co-URL (deler de samme links eller URL'er), hashtag-sekvens (ved brug af en identisk sekvens af hashtags i tweets), hurtig retweeting (hurtigt gendeling af indhold fra de samme brugere), og tekstlighed (tweets med lignende tekstindhold).
Tidligere forskning fokuserede på at opbygge netværk, der kortlagde hver type adfærd, og undersøgte lighederne mellem individuelle brugere på X. Imidlertid bemærkede Luceri og hans team, at disse konti ofte anvender mange strategier på samme tid, hvilket betød, at overvågning af et adfærdsspor var ikke nok.
"Vi fandt ud af, at co-retweeting blev brugt massivt af kampagner i Cuba og Venezuela," forklarede Luceri. "Men hvis vi kun undersøger co-retweeting uden at overveje anden adfærd, ville vi klare os godt med at identificere nogle kampagner, såsom dem, der stammer fra Cuba og Venezuela, men dårligt, hvor co-retweeting blev brugt mindre, såsom i russiske kampagner."
For at fange en bredere række af koordineret delingsadfærd konstruerede forskerne et samlet lighedsnetværk kaldet et Fused Network. Derefter anvendte de maskinlæringsalgoritmer, der blev fodret af topologiske egenskaber af det fusionerede netværk til at klassificere disse konti ligheder og forudsige deres fremtidige deltagelse i IO'er.
Luceri og hans team fandt ud af, at denne metode kunne anvendes til kampagner over hele verden. Flere X-brugere inden for den samme kampagne, uanset hvor de kommer fra, udviste bemærkelsesværdig kollektiv lighed i deres handlinger.
"Jeg betragter vores arbejde som et paradigmeskift i forskningsmetoder, der giver et nyt perspektiv i identifikation af indflydelseskampagner og deres drivere," sagde Luceri.
Den uovervågede maskinlæringsmodel udnytter velkendte, men alligevel underudnyttede netværksfunktioner, der opnår en 42 % højere præcision end andre traditionelle tilgange til at opdage indflydelseskampagner. Luceri ser dette papir som et udgangspunkt, der kunne åbne vejen for yderligere forskningsmuligheder.
"Vi kan træne modeller på de topologiske træk ved dette lighedsnetværk og få dem til at fungere i komplekse scenarier:for eksempel hvis forskellige brugere fra forskellige lande interagerede med hinanden, eller mere udfordrende situationer, hvor vi har begrænset information om kampagnerne." Luceri bemærkede.
Luceri præsenterede også en anden artikel "Leveraging Large Language Models to Detect Influence Campaigns in Social Media" på webkonferencen, som modtog prisen for bedste papir fra International Workshop on Computational Methods for Online Discourse Analysis (BeyondFacts'24). Artiklen undersøger potentialet ved at bruge LLM'er til at genkende tegnene på AI-drevne indflydelseskampagner. Dette er især afgørende i det nuværende klima, hvor AI-skabte medier er gennemgående.
"Disse koordinerede aktiviteter har konsekvenser i det virkelige liv," sagde Luceri. "De har magten til at sprede misinformation og konspirationsteorier, der kan føre til protester eller angreb på vores demokrati, såsom indblanding fra russiske trolde i det amerikanske valg i 2016."
Luceri og hans team er forpligtet til at fortsætte søgen efter alternative strategier til at identificere indflydelseskampagner og beskytte brugere, der er modtagelige for indflydelse.
Flere oplysninger: Luca Luceri et al, Unmasking the Web of Deceit:Uncovering Coordinated Activity to Expose Information Operations on Twitter, arXiv (2023). DOI:10.48550/arxiv.2310.09884
Luca Luceri et al., Udnyttelse af store sprogmodeller til at opdage indflydelseskampagner på sociale medier, arXiv (2023). DOI:10.48550/arxiv.2311.07816
Journaloplysninger: arXiv
Leveret af University of Southern California
Sidste artikelCasestudie undersøger udvikling af nye produkter i fast fashion-industrien
Næste artikelSpørgsmål og svar:Medicinske historikere undersøger organisationers tavshed over stigningen i nazismen