Videnskab
 science >> Videnskab >  >> Elektronik

Vente, er den video ægte? Kapløbet mod deepfakes og farerne ved manipulerede optagelser

Kredit:CC0 Public Domain

Det plejede at tage meget tid og ekspertise at forfalske videoer realistisk. Ikke mere.

I årtier, autentisk udseende videogengivelser blev kun set i film med stort budget af sci-fi-film som "Star Wars". Imidlertid, takket være stigningen i kunstig intelligens, lægeoptagelser er blevet mere tilgængelige end nogensinde, som ifølge forskere udgør en trussel mod den nationale sikkerhed.

"Indtil for nylig, vi har stort set været i stand til at stole på lyd (og) videooptagelser, " sagde Hany Farid, professor i datalogi ved Dartmouth College. Han sagde, at fremskridt inden for maskinlæring har demokratiseret adgangen til værktøjer til at skabe sofistikeret og overbevisende falsk video og lyd.

"Det kræver ikke lidt fantasi at se, hvordan dette kan væbnes til at forstyrre valg, at så borgerlig uro eller at begå svig, " sagde Farid.

Med præsidentvalget i 2020 nært forestående, og det amerikanske forsvarsagentur bekymrede sig om manipulerede videoer, der vildleder vælgerne, Lovgivere og uddannelsesinstitutioner ræser om at udvikle software, der kan spotte og stoppe det, der er kendt som deepfakes, før de overhovedet rammer internettet.

Deepfakes

Bred bekymring omkring ideen om videoforfalskninger begyndte at skabe overskrifter i slutningen af ​​2017, da computersoftware blev brugt til at overlejre berømtheder til porno ved hjælp af computersoftware.

Et af de mest kendte eksempler blev skabt af instruktør Jordan Peeles produktionsselskab i 2018. Videoen viser tidligere præsident Barack Obama, der advarer folk mod at tro på alt, hvad de ser på internettet.

Imidlertid, det er faktisk ikke Obama, der taler. Det er Peele, der bugtaler den tidligere præsident.

Advarsel:Videoen nedenfor indeholder groft sprog for at gøre sin pointe og er muligvis ikke egnet til unge seere.

Siden da, Forsvarsministeriet, gennem Defense Advanced Research Projects Agency (DARPA), begyndte at udvikle måder at opdage, hvornår en video er en deepfake.

En talsmand for agenturet sagde i marts, at mens mange videomanipulationer udføres for sjov, andre er meget farligere, da de kan bruges til at sprede propaganda og misinformation.

Organisationen søger at udvikle onlineflag og filtre, der forhindrer manipuleret indhold i at blive uploadet til internettet.

Det tager kun omkring 500 billeder eller 10 sekunders video at skabe en realistisk deepfake, ifølge Siwei Lyu, en forsker, der samarbejder med Forsvarsministeriet om at udvikle software til at opdage og forhindre spredning af deepfakes.

Lyu sagde, at enhver, der poster billeder på sociale netværkssider som Instagram, risikerer at blive deepfakede.

Softwareløsninger

Det første stykke software, som Lyu og hans team af forskere ved University of Albany introducerede sidste år, kunne få øje på en dyb falsk video på et øjeblik, bogstaveligt talt, ved at analysere, hvor ofte de simulerede ansigter blinker – eller ikke gør.

"Vi opdagede, at motiverne (i deepfake-videoer) ikke blinker særlig meget, og nogle gange slet ikke, " sagde Lyu. "Vi spurgte så, hvorfor sker det her."

Forskerne fandt ud af, at den software, der bruges til at lave deepfakes, ofte afhænger af billeder, der er tilgængelige på internettet. Der er ikke mange billeder tilgængelige af højt profilerede mennesker med lukkede øjne, så de animerede motiver i de falske videoer ikke blinker, sagde Lyu.

Da producenterne af deepfakes begyndte at få nys om den nye software, forskerne udviklede andre metoder til at spotte deepfakes som at bruge algoritmer, der registrerer unaturlige bevægelser mellem ansigter og hoveder, samt software, der analyserer optagelser for tab af subtile detaljer.

"Huden på det deepfake-genererede ansigt har en tendens til at være alt for glat, og nogle af hår- og tændernes detaljer vil gå tabt, " sagde Lyu. "Hvis du ser nærmere på tænderne, de ligner mere en hel hvid blok i stedet for individuelle tænder."

Forskere ved University of Washington eksperimenterer også med deepfake-teknologi. Skolen fandt ud af, hvordan man forvandler lydklip til en læbesynkroniseret video af personen, der taler disse ord i 2017.

Kriminalisering

I slutningen af ​​sidste år, Sen. Ben Sasse (R-Neb.) fremlagde et lovforslag til Kongressen, der ville straffe folk for ondsindet oprettelse og distribution af deepfakes. Regningen, som blev indført dagen før regeringens nedlukning, fløj under radaren og døde. Men Sasses kontor har planer om at genindføre det.

USA Today kontaktede Sasse for mere information.

Senatoren sagde i et nyligt interview med radiovært Glenn Beck, at den "perfekte storm af dybe forfalskninger" kommer snart.

Staten New York indførte et lovforslag i 2018, der ville straffe folk, der laver digitale videoer af motiver uden deres samtykke.

På trods af bekymringerne over de hypotetiske farer, misbrug af deepfakes er endnu ikke set uden for voksenvideoer. The Verge offentliggjorde en rapport i marts, der stiller spørgsmålstegn ved, om teknologi til at bytte ansigter er endda en stor trussel, da den har været bredt tilgængelig i årevis.

Lyu sagde, at han er i tvivl om, at deepfakes kan starte en krig, og det er usandsynligt, at de vil have en langvarig effekt på samfundet, efterhånden som folk bliver mere og mere opmærksomme på fænomenet.

Lyu foreslog, at folk endda kan blive desensibiliserede af dem.

Perception-altering technology was used in April to break down language barriers in a global malaria awareness campaign featuring David Beckham.

The charity Malaria No Moreposted a video on YouTube highlighting how it used deepfake tech to effectively lip-sync the video of Beckham with the voices of several other people.

To create the 55-second ad, the nonprofit used visual and voice-altering tech to make Beckham appear multilingual. His speech begins in English, then transitions to eight other languages through dubbing.

I dag, we live in a world in which millions of real people follow computer-generated influencers on social media and don't even know it at the same time governments have worked to develop animated news anchors that have human-like movements.

One of the clearest examples of real humans adapting to unreal computer-generated people is Lil Miquela, a digitally created "it-girl" with 1.5 million followers on Instagram that she interacts with via direct messages.

Despite what's in her photo captions, she's not "daydreaming" or partying at Coachella. She's fake, but her followers don't care. They like and comment on her pictures as if she's a real person.

AI generated humans have also begun showing up on television.

The Chinese government-run news agency Xinhua began testing out AI news anchors in 2018, a move it claims as the first in the world.

Ved første øjekast, the virtual newsman appears to be an ordinary person with facial expressions and movements that correspond with his speaking voice.

But seconds into the video, it's apparent that he's not real.

"I will work tirelessly to keep you informed as texts will be typed into my system uninterrupted, " the news anchor said monotonically in an introductory video. "The development of the media industry calls for continuous innovation and deep integration with the international advanced technologies."

The agency's first fake female news anchor went live in February and she appears to be even more realistic.

(c)2019 USA Today
Distribueret af Tribune Content Agency, LLC.




Varme artikler