For at identificere falske nyheder, Fraunhofer FKIEs nye maskinlæringsværktøj analyserer både tekst og metadata. Kredit:Fraunhofer FKIE
Opfundne historier, fordrejede fakta:falske nyheder spreder sig som en steppebrand på internettet og deles ofte uden omtanke, især på sociale medier. Som svar, Fraunhofer-forskere har udviklet et system, der automatisk analyserer opslag på sociale medier, bevidst bortfiltrering af falske nyheder og desinformation. At gøre dette, værktøjet analyserer både indhold og metadata, klassificere det ved hjælp af maskinlæringsteknikker og trække på brugerinteraktion for at optimere resultaterne, mens det går.
Falske nyheder er designet til at fremkalde et specifikt svar eller tilskynde til agitation mod et individ eller en gruppe mennesker. Dens formål er at påvirke og manipulere den offentlige mening om dagens målrettede emner. Denne falske nyhed kan spredes som en steppebrand over internettet, især på sociale medier som Facebook eller Twitter. Hvad er mere, at identificere det kan være en vanskelig opgave. Det er her et klassifikationsværktøj udviklet af Fraunhofer Institute for Communication, Informationsbehandling og ergonomi FKIE kommer ind, automatisk at analysere opslag på sociale medier og behandle store mængder data.
Udover at behandle tekst, værktøjet indregner også metadata i sin analyse og leverer sine fund i visuel form. "Vores software fokuserer på Twitter og andre hjemmesider. Tweets er der, hvor du finder links, der peger på de websider, der indeholder de faktiske falske nyheder. Med andre ord, sociale medier fungerer som en trigger, hvis du kan lide. Falske nyheder hostes ofte på websteder, der er designet til at efterligne nyhedsbureauers tilstedeværelse på nettet og kan være svære at skelne fra de ægte websteder. I mange tilfælde, de vil være baseret på officielle nyheder, men hvor formuleringen er blevet ændret, " forklarer prof. Ulrich Schade fra Fraunhofer FKIE, hvis forskergruppe har udviklet værktøjet.
Schade og hans team begynder processen ved at bygge biblioteker, der består af seriøse nyheder og også tekster, som brugerne har identificeret som falske nyheder. Disse danner så de læringssæt, der bruges til at træne systemet. For at bortfiltrere falske nyheder, forskerne anvender machine learning -teknikker, der automatisk søger efter bestemte markører i tekster og metadata. For eksempel, i en politisk kontekst, det kan være formuleringer eller kombinationer af ord, der sjældent forekommer i dagligdagssproget eller i journalistisk reportage, såsom "den nuværende kansler i Tyskland." Sproglige fejl er også et rødt flag. Dette er især almindeligt, når forfatteren til de falske nyheder skrev på et andet sprog end deres modersmål. I sådanne tilfælde, forkert tegnsætning, stavning, verbumsformer eller sætningsstruktur er alle advarsler om en potentiel falsk nyhed. Andre indikatorer kan omfatte malplacerede udtryk eller besværlige formuleringer.
"Når vi forsyner systemet med en række markører, værktøjet vil lære sig selv at vælge de markører, der virker. En anden afgørende faktor er at vælge den maskinlæringstilgang, der vil levere de bedste resultater. Det er en meget tidskrævende proces, fordi du skal køre de forskellige algoritmer med forskellige kombinationer af markører, «siger Schade.
Metadata giver vigtige spor
Metadata bruges også som markør. Ja, det spiller en afgørende rolle i at skelne mellem autentiske informationskilder og falske nyheder:f.eks. hvor ofte udsendes indlæg, hvornår er en tweet planlagt, og på hvilket tidspunkt? Timingen af et indlæg kan være meget sigende. For eksempel, det kan afsløre land og tidszone for ophavsmanden til nyheden. En høj sendefrekvens antyder bots, hvilket øger sandsynligheden for en falsk nyhed. Sociale bots sender deres links til et stort antal brugere, for at sprede usikkerhed blandt offentligheden. En kontos forbindelser og følgere kan også vise sig at være grobund for analytikere.
Dette skyldes, at det giver forskere mulighed for at bygge varmekort og grafer over sendedata, sende frekvens og følgernetværk. Disse netværksstrukturer og deres individuelle noder kan bruges til at beregne, hvilken knude i netværket der cirkulerede et element med falske nyheder eller indledte en falsk nyhedskampagne.
En anden egenskab ved det automatiserede værktøj er dets evne til at opdage hadfuld tale. Indlæg, der poserer som nyheder, men også indeholder hadefulde ytringer, linker ofte til falske nyheder. "Det vigtige er at udvikle en markør, der er i stand til at identificere klare tilfælde af hadefulde ytringer. Eksempler omfatter udtryk som 'politisk afskum' eller 'nigger', " siger sprogforskeren og matematikeren.
Forskerne er i stand til at tilpasse deres system til forskellige typer tekster for at klassificere dem. Både offentlige instanser og virksomheder kan bruge værktøjet til at identificere og bekæmpe falske nyheder. "Vores software kan tilpasses og trænes til at passe til enhver kundes behov. For offentlige organer, det kan være et nyttigt tidligt varslingssystem, siger Schade.