Kunstig intelligens kan bruges til at skabe dybe forfalskninger - lyd, billeder og videoer, der får folk til at sige og gøre ting, de aldrig har gjort. Kredit:PxHere
Falske nyheder har allerede pustet til mistillidens flammer over for medierne, politik og etablerede institutioner rundt om i verden. Og mens nye teknologier som kunstig intelligens (AI) kan gøre tingene endnu værre, det kan også bruges til at bekæmpe misinformation.
Vil du få dig selv til at lyde som Obama? I fortiden, der kunne have krævet fysisk efterligning af hans stemme, party-trick stil. Og selvom du var meget god til det, det ville næsten helt sikkert ikke udgøre en fare for vores demokrati. Men teknologien har ændret det. Du kan nu nemt og præcist få enhver til at sige hvad som helst gennem AI. Bare brug tjenesten fra et online program til at optage en sætning og lytte til, hvad du sagde med en berømt persons stemme.
Programmer som dette kaldes ofte dybe forfalskninger - AI-systemer, der tilpasser lyd, billeder og videoer for at få folk til at sige og gøre ting, de aldrig har gjort.
Disse teknologier kan lancere en ny æra med falske nyheder og online misinformation. I 2017 Hany Farid, en datalog ved Dartmouth College, OS, hvem opdager falske videoer sagde, at den hurtige udbredelse af nye manipulationsteknikker har ført til et "våbenkapløb." Forestil dig, hvordan valg vil være, når vi ikke længere er i stand til at stole på video og lyd. Men nogle forskere kæmper nu tilbage og viser at AI også kan bruges til gode.
"AI har mange etiske problemer, sagde Francesco Nucci, applikationsforskningsdirektør i Engineering Group, baseret i Italien. "Men nogle gange kan det også være løsningen. Man kan bruge AI på uetiske måder til for eksempel at lave og sprede falske nyheder, men du kan også bruge det til at gøre godt, for eksempel, for at bekæmpe misinformation."
Fakta-tjekkere
Han er hovedforsker på Fandango-projektet, som har til formål at gøre netop det. Holdet bygger softwareværktøjer til at hjælpe journalister og faktatjekkere med at opdage og bekæmpe falske nyheder, siger Nucci. De håber at kunne betjene journalister på tre måder.
Den første komponent er, hvad Nucci kalder indholdsuafhængig detektion ved at bruge værktøjer, der målretter indholdets form.
Nucci forklarer, at i dag, billeder og video kan nemt manipuleres, enten gennem simpel Photoshop eller mere komplekse teknikker som dybe forfalskninger. Fandangos systemer kan reverse-engine disse ændringer, og bruge algoritmer til at hjælpe journalister med at få øje på manipuleret indhold.
Når disse værktøjer ser på form, de kontrollerer ikke, om indholdet i sig selv fremsætter falske påstande, hvilket er, hvad Fandangos anden forskningslinje gør. Her forbinder de historier, der er blevet bevist falske af menneskelige faktatjekkere, og se efter onlinesider eller opslag på sociale medier med lignende ord og påstande.
"Værktøjerne kan se, hvilke falske nyhedshistorier, der deler den samme rod, og give journalister mulighed for at undersøge dem, " sagde Nucci.
Begge disse komponenter er stærkt afhængige af forskellige AI-algoritmer, som bearbejdning af naturligt sprog. Den tredje komponent giver journalister mulighed for at reagere på falske nyheder.
En falsk historie kan for eksempel, fremsætte påstanden om, at en meget høj procentdel af forbrydelser i et europæisk land begås af udenlandske immigranter. I teorien kan det være en let påstand at modbevise på grund af store mængder af tilgængelige åbne data, alligevel spilder journalister værdifuld tid på at finde disse data.
Så Fandangos værktøj forbinder alle slags europæiske åbne datakilder sammen, og bundter og visualiserer det. Journalister kan bruge, for eksempel, samlet nationale data for at behandle påstande om forbrydelser eller anvende data fra de europæiske Copernicus-satellitter til debatter om klimaændringer.
"På denne måde kan journalister hurtigt reagere på falske historier og ikke spilde nogen tid, " sagde Nucci.
Deres værktøjer bliver i øjeblikket testet af den belgiske public broadcaster VRT, ANSA, det vigtigste italienske nyhedsbureau, og CIVIO, en spansk non-profit organisation.
Opdagelse af falske nyheder
Men at spotte falske nyheder er måske ikke kun et spørgsmål om at finde usande påstande, men også af at analysere enorme mængder af delingsmønstre på sociale medier, siger Michael Bronstein, professor ved University of Lugano i Schweiz og ved Imperial College London, England.
Han leder et projekt kaldet GoodNews, som bruger kunstig intelligens til at tage en atypisk tilgang til opdagelse af falske nyheder.
"De fleste eksisterende tilgange ser på indholdet, " sagde prof. Bronstein. "De analyserer semantiske træk, der er karakteristiske for falske nyheder. Som virker til en vis grad, men løber ind i alle mulige problemer.
"Der er, for eksempel, sprogbarrierer, platforme som WhatsApp giver dig ikke adgang til indholdet, fordi det er krypteret, og i mange tilfælde kan falske nyheder være et billede, som er sværere at analysere ved hjælp af teknikker som naturlig sprogbehandling."
Så prof. Bronstein og hans team vendte denne model på hovedet, ser i stedet på, hvordan falske nyheder spredes.
I det væsentlige, tidligere undersøgelser viser, at falske nyhedshistorier deles online på forskellige måder end rigtige nyheder, siger prof. Bronstein. Falske nyheder kan have langt flere delinger end likes på Facebook, mens almindelige opslag har en tendens til at have flere likes, end de har delinger. Ved at spotte mønstre som disse, GoodNews knytter en troværdighedsscore til en nyhed.
Holdet har bygget deres første prototype, som bruger grafbaseret maskinlæring, en kunstig intelligens-teknik, som prof. Bronstein er ekspert i. Prototypen er trænet på data fra Twitter, hvor forskerne sporer historier, som er faktatjekket af journalister og vist at være falske. Journalister træner på denne måde AI-algoritmen ved at vise den, hvilke historier der er falske, og som ikke er.
GoodNews-teamet håber at tjene penge på denne service gennem en opstart kaldet Fabula AI, baseret i London. Mens de håber at udrulle produktet i slutningen af året, de forestiller sig at have kunder som store medievirksomheder som Facebook og Twitter, men også individuelle brugere.
"Vores større vision er, at vi ønsker at blive et troværdighedsvurderingshus for nyheder, på samme måde som visse virksomheder vurderer en persons forbrugerkreditscore, " sagde prof. Bronstein.
Løse
Det efterlader selvfølgelig et større spørgsmål - kan teknologi virkelig løse falske nyheder? Begge forskere er skeptiske, men overbevist teknologi kan hjælpe. Nucci understreger, at begrebet falske nyheder er omstridt, og at historier ofte ikke er helt sande, men heller ikke helt falsk.
"Falske nyheder er ikke et matematisk spørgsmål om algoritmer og data, " sagde han. "Men et meget filosofisk spørgsmål om, hvordan vi håndterer sandheden. Ikke desto mindre kan vores teknologi hjælpe med at forbedre gennemsigtigheden omkring falske påstande og misinformation."
Prof. Bronstein siger, at det ville være naivt at forvente, at teknologien løser problemet med falske nyheder.
"Det handler ikke kun om at opdage falske nyheder. Det er også et problem med tillid og mangel på kritisk tænkning. Folk mister tilliden til traditionelle medier og institutioner, og det er ikke noget, der kun kan afbødes gennem teknologi, " han sagde.
"Det kræver en indsats fra alle interessenter, og forhåbentlig kan vores projekt spille en rolle i denne større indsats."