Kredit:CC0 Public Domain
Nyt arbejde fra MIT-forskere kigger under motorhjelmen på et automatiseret system til registrering af falske nyheder, afslører, hvordan maskinlæringsmodeller fanger subtile, men konsekvente forskelle i sproget for faktuelle og falske historier. Forskningen understreger også, hvordan falske nyhedsdetektorer bør gennemgå mere strenge tests for at være effektive til applikationer i den virkelige verden.
Populariseret som et koncept i USA under præsidentvalget i 2016, falske nyheder er en form for propaganda skabt for at vildlede læserne, for at generere synspunkter på hjemmesider eller styre den offentlige mening.
Næsten lige så hurtigt som problemet blev mainstream, forskere begyndte at udvikle automatiserede falske nyhedsdetektorer - såkaldte neurale netværk, der "lærer" fra snesevis af data for at genkende sproglige signaler, der indikerer falske artikler. Givet nye artikler at vurdere, disse netværk kan, med ret høj nøjagtighed, adskille fakta fra fiktion, i kontrollerede indstillinger.
Et spørgsmål, imidlertid, er "den sorte boks"-problemet - hvilket betyder, at der ikke er nogen at sige, hvilke sproglige mønstre netværkene analyserer under træning. De er også trænet og testet i de samme emner, hvilket kan begrænse deres potentiale til at generalisere til nye emner, en nødvendighed for at analysere nyheder på tværs af internettet.
I et papir præsenteret på konferencen og workshoppen om neurale informationsbehandlingssystemer, forskerne tackler begge disse problemer. De udviklede en dyb-læringsmodel, der lærer at opdage sprogmønstre af falske og rigtige nyheder. En del af deres arbejde "knækker" den sorte boks op for at finde de ord og sætninger, som modellen fanger for at komme med sine forudsigelser.
Derudover de testede deres model på et nyt emne, den ikke så under træningen. Denne tilgang klassificerer individuelle artikler udelukkende baseret på sprogmønstre, som nærmere repræsenterer en applikation i den virkelige verden for nyhedslæsere. Traditionelle falske nyhedsdetektorer klassificerer artikler baseret på tekst kombineret med kildeoplysninger, såsom en Wikipedia-side eller et websted.
"I vores tilfælde, vi ønskede at forstå, hvad der var klassifikatorens beslutningsproces baseret på sprog, da dette kan give indsigt i, hvad sproget for falske nyheder er, " siger medforfatter Xavier Boix, en postdoc i laboratoriet af Eugene McDermott professor Tomaso Poggio ved Center for Brains, Sind, og Maskiner (CBMM) i Institut for Hjerne- og Kognitionsvidenskab (BCS).
"Et nøgleproblem med maskinlæring og kunstig intelligens er, at du får et svar og ikke ved, hvorfor du fik det svar, " siger kandidatstuderende og førsteforfatter Nicole O'Brien '17. "At vise disse indre funktioner tager et første skridt i retning af at forstå pålideligheden af deep-learning fake-news detektorer."
Modellen identificerer sæt af ord, der har en tendens til at optræde hyppigere i enten rigtige eller falske nyheder - nogle måske indlysende, andre meget mindre. Fundene, siger forskerne, peger på subtile, men konsekvente forskelle i falske nyheder – som favoriserer overdrivelser og superlativer – og rigtige nyheder, som hælder mere til konservative ordvalg.
"Falske nyheder er en trussel mod demokratiet, " siger Boix. "I vores laboratorium, Vores mål er ikke kun at skubbe videnskaben fremad, men også at bruge teknologier til at hjælpe samfundet. ... Det ville være stærkt at have værktøjer til brugere eller virksomheder, der kunne give en vurdering af, om nyheder er falske eller ej."
Avisens andre medforfattere er Sophia Latessa, en bachelorstuderende i CBMM; og Georgios Evangelopoulos, en forsker i CBMM, McGovern Institute of Brain Research, og Laboratoriet for Beregnings- og Statistisk Læring.
Begrænsende bias
Forskernes model er et konvolutionelt neuralt netværk, der træner på et datasæt af falske nyheder og rigtige nyheder. Til træning og test, forskerne brugte et populært forskningsdatasæt for falske nyheder, kaldet Kaggle, som indeholder omkring 12, 000 falske nyhedsprøveartikler fra 244 forskellige websteder. De kompilerede også et datasæt af rigtige nyhedsprøver, bruger mere end 2, 000 fra New York Times og mere end 9, 000 fra The Guardian.
I træning, modellen fanger sproget i en artikel som "ordindlejringer, "hvor ord er repræsenteret som vektorer - grundlæggende, rækker af tal - med ord med lignende semantiske betydninger samlet tættere sammen. Derved, den fanger trillinger af ord som mønstre, der giver en vis kontekst – som f.eks. sige, en negativ kommentar om et politisk parti. Med en ny artikel, modellen scanner teksten for lignende mønstre og sender dem over en række lag. Et endeligt outputlag bestemmer sandsynligheden for hvert mønster:ægte eller falsk.
Forskerne trænede og testede først modellen på traditionel vis, bruger de samme emner. Men de troede, at dette kunne skabe en iboende skævhed i modellen, da visse emner oftere er genstand for falske eller rigtige nyheder. For eksempel, falske nyheder er generelt mere tilbøjelige til at inkludere ordene "Trump" og "Clinton".
"Men det var ikke det, vi ønskede, " O'Brien siger. "Det viser bare emner, der vægter stærkt i falske og rigtige nyheder. ... Vi ønskede at finde de faktiske mønstre i sproget, der er vejledende for dem."
Næste, forskerne trænede modellen i alle emner uden nogen omtale af ordet "Trump, " og testede kun modellen på prøver, der var blevet sat til side fra træningsdataene, og som indeholdt ordet "Trump." Mens den traditionelle tilgang nåede 93 procents nøjagtighed, den anden tilgang nåede 87 procents nøjagtighed. Dette nøjagtighedsgab, siger forskerne, fremhæver vigtigheden af at bruge emner fra uddannelsesprocessen, at sikre, at modellen kan generalisere, hvad den har lært til nye emner.
Mere forskning nødvendig
For at åbne den sorte boks, forskerne trak derefter deres skridt tilbage. Hver gang modellen laver en forudsigelse om en ordtriplet, en bestemt del af modellen aktiveres, afhængigt af, om trillingen er mere sandsynlig fra en ægte eller falsk nyhed. Forskerne designet en metode til at spore hver forudsigelse tilbage til dens udpegede del og derefter finde de præcise ord, der fik den til at aktiveres.
Mere forskning er nødvendig for at bestemme, hvor nyttig denne information er for læserne, siger Boix. I fremtiden, modellen kan potentielt kombineres med, sige, automatiserede faktatjekkere og andre værktøjer til at give læserne et forspring i at bekæmpe misinformation. Efter lidt raffinering, modellen kan også være grundlaget for en browserudvidelse eller app, der advarer læserne om potentielt falske nyhedssprog.
"Hvis jeg bare giver dig en artikel, og fremhæve disse mønstre i artiklen, mens du læser, du kan vurdere, om artiklen er mere eller mindre falsk, " siger han. "Det ville være lidt som en advarsel at sige, 'Hej, måske er der noget mærkeligt her."