Videnskab
 science >> Videnskab >  >> Elektronik

Det har jeg aldrig sagt! Højteknologisk bedrag af deepfake-videoer

Dette billede lavet af video af en falsk video med tidligere præsident Barack Obama viser elementer af ansigtsmapping, der bruges i ny teknologi, der lader enhver lave videoer af rigtige mennesker, der ser ud til at sige ting, de aldrig har sagt. Der er stigende bekymring for, at amerikanske modstandere vil bruge ny teknologi til at lave autentisk udseende videoer for at påvirke politiske kampagner eller bringe den nationale sikkerhed i fare. (AP foto)

Hej, sagde min kongresmedlem virkelig det? Er det virkelig præsident Donald Trump på den video, eller bliver jeg snydt?

Ny teknologi på internettet giver enhver mulighed for at lave videoer af rigtige mennesker, der ser ud til at sige ting, de aldrig har sagt. Republikanere og demokrater forudsiger, at denne højteknologiske måde at lægge ord i nogens mund vil blive det seneste våben i desinformationskrige mod USA og andre vestlige demokratier.

Vi taler ikke om læbesynkroniseringsvideoer. Denne teknologi bruger ansigtsmapping og kunstig intelligens til at producere videoer, der fremstår så ægte, at det er svært at få øje på falske. Lovgivere og efterretningstjenestemænd bekymrer sig om, at de falske videoer - kaldet deepfakes - kan blive brugt til at true den nationale sikkerhed eller blande sig i valg.

Indtil nu, det er ikke sket, men eksperter siger, at det ikke er et spørgsmål om, men når.

"Jeg forventer, at vi her i USA vil begynde at se dette indhold i det kommende midtvejsvalg og det nationale valg om to år, " sagde Hany Farid, en digital retsmedicinsk ekspert ved Dartmouth College i Hannover, New Hampshire. "Teknologien, selvfølgelig, kender ingen grænser, så jeg forventer, at virkningen vil bølge rundt om kloden."

Når en gennemsnitlig person kan lave en realistisk falsk video af præsidenten, der siger hvad de vil, Farid sagde, "vi er trådt ind i en ny verden, hvor det bliver svært at vide, hvordan man tror på det, vi ser." Det omvendte er en bekymring, også. Folk kan afvise som falske ægte optagelser, sige om en ægte grusomhed, at score politiske point.

At indse implikationerne af teknologien, U.S. Defense Advanced Research Projects Agency er allerede to år inde i et fireårigt program til at udvikle teknologier, der kan opdage falske billeder og videoer. Lige nu, det kræver omfattende analyser at identificere falske videoer. Det er uklart, om nye måder at autentificere billeder på eller opdage forfalskninger vil holde trit med deepfake-teknologi.

Deepfakes hedder sådan, fordi de bruger dyb læring, en form for kunstig intelligens. De er lavet ved at fodre en computer med en algoritme, eller sæt instruktioner, masser af billeder og lyd af en bestemt person. Computerprogrammet lærer at efterligne personens ansigtsudtryk, manerer, stemme og bøjninger. Hvis du har nok video og lyd af nogen, du kan kombinere en falsk video af personen med en falsk lyd og få dem til at sige, hvad du vil.

Indtil nu, deepfakes er for det meste blevet brugt til at smøre berømtheder eller som gags, men det er let at forudse en nationalstat, der bruger dem til ondsindede aktiviteter mod USA, sagde senator Marco Rubio, R-Fla., et af flere medlemmer af Senatets efterretningskomité, der udtrykker bekymring over deepfakes.

Et udenlandsk efterretningsagentur kunne bruge teknologien til at producere en falsk video af en amerikansk politiker, der bruger et racebetegnelse eller tager imod bestikkelse. siger Rubio. De kunne bruge en falsk video af en amerikansk soldat, der massakrer civile i udlandet, eller en af ​​en amerikansk embedsmand, der angiveligt indrømmer en hemmelig plan om at udføre en sammensværgelse. Forestil dig en falsk video af en amerikansk leder – eller en embedsmand fra Nordkorea eller Iran – der advarer USA om en forestående katastrofe.

"Det er et våben, der kunne bruges - timet passende og placeret passende - på samme måde som falske nyheder bruges, undtagen i en videoform, som kunne skabe ægte kaos og ustabilitet på tærsklen til et valg eller en større beslutning af nogen art, " fortalte Rubio til Associated Press.

Deepfake-teknologien har stadig et par problemer. For eksempel, folks blink i falske videoer kan virke unaturligt. Men teknologien er i bedring.

"I løbet af et år eller to, det bliver virkelig svært for en person at skelne mellem en rigtig video og en falsk video, " sagde Andrew Grotto, en international sikkerhedsstipendiat ved Center for International Security and Cooperation ved Stanford University i Californien.

"Denne teknologi, Jeg tror, vil være uimodståelig for nationalstater at bruge i desinformationskampagner for at manipulere den offentlige mening, bedrager befolkningen og underminerer tilliden til vores institutioner, " sagde Grotto. Han opfordrede regeringsledere og politikere til klart at sige, at det ikke har nogen plads i civiliseret politisk debat.

Grove videoer er blevet brugt til ondsindede politiske formål i årevis, så der er ingen grund til at tro på de højere teknologiske, som er mere realistiske, vil ikke blive værktøjer i fremtidige desinformationskampagner.

Rubio bemærkede, at i 2009, den amerikanske ambassade i Moskva klagede til det russiske udenrigsministerium over en falsk sexvideo, som den sagde var lavet for at skade en amerikansk diplomats omdømme. Videoen viste den gifte diplomat, som var forbindelsesled til russiske religiøse og menneskerettighedsgrupper, foretage telefonopkald på en mørk gade. Videoen viste derefter diplomaten på sit hotelværelse, scener, der tilsyneladende er optaget med et skjult kamera. Senere, videoen så ud til at vise en mand og en kvinde, der havde sex i samme rum med slukket lys, selvom det slet ikke stod klart, at manden var diplomaten.

John Beyrle, som var USA's ambassadør i Moskva på det tidspunkt, gav den russiske regering skylden for videoen, hvilket han sagde var klart opdigtet.

Michael McFaul, som var amerikansk ambassadør i Rusland mellem 2012 og 2014, sagde, at Rusland har engageret sig i desinformationsvideoer mod forskellige politiske aktører i årevis, og at han også havde været et mål. Han har sagt, at russisk statspropaganda indsatte hans ansigt i fotografier og "splejsede mine taler for at få mig til at sige ting, jeg aldrig har ytret, og endda beskyldte mig for pædofili."

© 2018 The Associated Press. Alle rettigheder forbeholdes.




Varme artikler