Videnskab
 science >> Videnskab >  >> Elektronik

Videomanipulationsteknologi udgør en fare for fremtidige valg

Kredit:CC0 Public Domain

En video på sociale medier viser en højtstående amerikansk lovgiver, der erklærer sin støtte til en overvældende skattestigning. Du reagerer i overensstemmelse hermed, fordi videoen ligner ham og lyder som ham, så bestemt har det været ham.

Ikke nødvendigvis.

Udtrykket "falske nyheder" tager en meget mere bogstavelig drejning, da ny teknologi gør det lettere at manipulere ansigter og lyd i videoer. Videoerne, kaldet deepfakes, kan derefter sendes til ethvert socialt medie-websted uden indikation af, at de ikke er den ægte vare.

Edward Delp, direktør for Video and Imaging Processing Laboratory ved Purdue University, siger, at deepfakes er en voksende fare, når det næste præsidentvalg nærmer sig med hastige skridt.

"Det er muligt, at folk kommer til at bruge falske videoer til at lave falske nyheder og indsætte disse i et politisk valg, " sagde Delp, Charles William Harrison Distinguished Professor of Electrical and Computer Engineering. "Der har allerede været nogle beviser for det ved andre valg i hele verden.

"Vi har vores valg på vej i 2020, og jeg formoder, at folk vil bruge disse. Folk tror på dem, og det vil være problemet."

Videoerne udgør en fare for at påvirke den offentlige menings domstol gennem sociale medier, da næsten 70 procent af de voksne angiver, at de bruger Facebook, normalt dagligt. YouTube kan prale af endnu højere tal, med mere end 90 procent af de 18- til 24-årige, der bruger det.

Delp og ph.d.-studerende David Güera har arbejdet i to år med videomanipulation som en del af en større forskning i medieforensik. De har arbejdet med sofistikerede maskinindlæringsteknikker baseret på kunstig intelligens og maskinlæring for at skabe en algoritme, der registrerer deepfakes.

Kredit:Purdue University

I slutningen af ​​sidste år, Delp og hans teams algoritme vandt en Defense Advanced Research Projects Agency (DARPA) konkurrence. DARPA er et agentur under det amerikanske forsvarsministerium.

"Ved at analysere videoen, algoritmen kan se, om ansigtet stemmer overens med resten af ​​informationen i videoen, " sagde Delp. "Hvis det er inkonsekvent, vi opdager disse subtile uoverensstemmelser. Det kan være så lille som et par pixels, det kan være farveuoverensstemmelser, det kan være forskellige typer forvrængning."

"Vores system er datadrevet, så den kan lede efter alt – den kan se på uregelmæssigheder som at blinke, den kan lede efter uregelmæssigheder i belysningen, " sagde Güera, tilføjelse af systemet vil fortsat blive bedre til at opdage deepfakes, da de giver det flere eksempler at lære af.

Forskningen blev præsenteret i november på 2018 IEEE International Conference on Advanced Video and Signal Based Surveillance.

Deepfakes kan også bruges til at forfalske pornografiske videoer og billeder, ved hjælp af berømtheders eller endda børns ansigter.

Delp sagde, at tidlige deepfakes var nemmere at få øje på. Teknikkerne kunne ikke genskabe øjenbevægelser godt, resulterede i videoer af en person, der ikke blinkede. Men fremskridt har gjort teknologien bedre og mere tilgængelig for folk.

Nyhedsorganisationer og sociale medier har bekymringer om fremtiden for deepfakes. Delp forudser både at have værktøjer som hans algoritme i fremtiden til at afgøre, hvilke videooptagelser der er ægte, og hvad der er en deepfake.

"Det er et våbenkapløb, " sagde han. "Deres teknologi bliver bedre og bedre, men jeg kan godt lide at tro, at vi kan følge med."