Videnskab
 science >> Videnskab >  >> Elektronik

Deepfakes:Bekæmpelse af falske videoer, fra Silicon Valley til Washington

Kredit:CC0 Public Domain

Uanset om det er en video, der viser en andens ansigt på en anden krop eller tidligere præsident Barack Obama, der siger ting, han ikke rigtig sagde, "deepfakes" er nu en ting.

En anden populær brug af sådanne manipulerede videoer:falsk porno, med alle fra skuespillerinden Scarlett Johansson til muligvis alle, hvis billeder er tilgængelige online.

Johansson, der uforvarende har medvirket i en angiveligt lækket pornografisk video, som Washington Post siger er blevet set mere end 1,5 millioner gange på en større pornoside, føler, at situationen er håbløs.

"Intet kan forhindre nogen i at klippe og indsætte mit eller andres billede på en anden krop og få det til at se så uhyggeligt realistisk ud som ønsket, " fortalte hun Stolpe i en historie offentliggjort for et par dage siden. "Internettet er et stort ormehul af mørke, der æder sig selv."

Det er derfor, forskerne arbejder hårdt på at finde ud af, hvordan man kan opdage sådan falsk forfalskning, blandt andet på SRI International i Menlo Park.

Manipulering af videoer plejede at være noget af film, lavet af Disney, Pixar og andre, sagde Bob Bolles, programdirektør ved AI-centrets perceptionsprogram på SRI. "Nu bliver apps til ansigtsbytte bedre og bedre."

Bolles viste for nylig, hvordan han og hans team forsøger at opdage, hvornår der er blevet manipuleret med video.

Teamet leder efter uoverensstemmelser mellem video og lydsporet – f.eks. se, om en persons læbebevægelser matcher videoens lyde. Tænk på videoer, der ikke er så tydelige som de gamle, dårligt døbte kung fu-film.

Holdet forsøger også at detektere lyde, der måske ikke passer med baggrunden, sagde Aaron Lawson, assisterende direktør for talelaboratoriet på SRI. For eksempel, videoen viser muligvis en ørkenscene, men efterklang kan indikere, at lyden er optaget indendørs.

"Vi har brug for en række tests" for at holde trit med hackere, der er nødt til at blive ved med at finde ud af nye måder at blive ved med at narre folk, sagde Bolles.

SRI-teamet er blot en af ​​mange blandt organisationerne, universiteter og virksomheder, der arbejder på at forsøge at opdage og endda spore deepfakes under et DARPA-program kaldet MediFor, hvilket er en forkortelse for media forensics. Matt Turek, programdirektør for MediFor hos Defense Advanced Research Projects Agency i Washington, D.C., sagde 14 hovedentreprenører arbejder på projektet, som blev startet i sommeren 2016. Disse entreprenører har underleverandører, der arbejder på MediFor, også.

"Der er sket en væsentlig ændring i det sidste år eller deromkring, da automatiserede manipulationer er blevet mere overbevisende, " sagde Turek. Kunstig intelligens og maskinlæring har hjulpet med at gøre værktøjer til at skabe deepfakes mere kraftfulde, og forskere bruger kunstig intelligens til at forsøge at slå tilbage.

"Udfordringen er at skabe algoritmer til at følge med og være på forkant med den teknologi, der er derude, " sagde Turek.

DARPA håber, at frugterne af MediFor-programmet vil blive distribueret vidt og bredt, opsamlet af teknologivirksomheder som Facebook og YouTube, som håndterer en stor brøkdel af verdens brugergenererede videoer.

For eksempel, en video offentliggjort på YouTube af BuzzFeed i april sidste år, med komikeren og skuespilleren Jordan Peele, der bugtaler Obama – hvor den tidligere præsident tilsyneladende kalder præsident Donald Trump et udråb – har mere end 5,3 millioner visninger.

Turek afkrydsede andre mulige anvendelser af deepfakes, som at give en forkert fremstilling af produkter, der sælges online, eller at snyde forsikringsselskaber ud over bilulykker. Han sagde, at der har været beviser for, at forskere har brugt manipulerede billeder, så deres videnskabelige resultater kan blive offentliggjort. Og han forudser, at til sidst, værktøjer kunne blive så gode, at en række deepfakes vil være i stand til at overbevise folk om væsentlige begivenheder, der ikke skete - cue the conspiration theorists.

"Deepfakes kan ændre den måde, vi stoler på billede og video som samfund på, " sagde Turek.

©2019 The Mercury News (San Jose, Californien)
Distribueret af Tribune Content Agency, LLC.