Videnskab
 science >> Videnskab >  >> Elektronik

Deepfakes:Informerede digitale borgere er det bedste forsvar mod online manipulation

Kredit:CC0 Public Domain

For mere end ti år siden, Internetanalytiker og nye medieforsker Clay Shirky sagde:"Den eneste rigtige måde at stoppe spam på er at lukke ned for e-mail-kommunikation." Vil nedlukning af internettet være den eneste måde at afslutte dybfalsk propaganda i 2020?

I dag, alle kan oprette deres egne falske nyheder og også bryde det. Online propaganda er mere vildledende og manipulerende end nogensinde.

Deepfakes, en specifik form for desinformation, der bruger maskinlæringsalgoritmer til at skabe lyd og video af rigtige mennesker, der siger og gør ting, de aldrig har sagt eller gjort, bevæger sig hurtigt i retning af at være umulig at skelne fra virkeligheden.

Opdagelse af desinformation drevet af uetisk brug af digitale medier, big data og kunstig intelligens, og deres spredning gennem sociale medier, er yderst presserende.

Lande skal uddanne og udstyre deres borgere. Undervisere står også over for reelle udfordringer med at hjælpe unge med at udvikle ørneøjne for deepfakes. Hvis unge mennesker mangler tillid til at finde og vurdere pålidelig offentlig information, deres motivation for at deltage i eller stole på vores demokratiske strukturer vil i stigende grad være i fare.

Undergraver demokratiet

Det er nu muligt at generere en video af en person, der taler og laver almindelige udtryk fra blot et par eller endda et enkelt billede af denne persons ansigt. Ansigtsbyteapps som FaceApp og læbesynkroniseringsapps som Dubsmash er eksempler på tilgængelige brugervenlige grundlæggende deepfake-værktøjer, som folk kan bruge uden programmerings- eller kodningsbaggrund.

Selvom brugen af ​​denne teknologi kan betragte eller bedøve seerne for dens ekspertbilleder i underholdnings- og spilindustrien, deepfakes uhyggelige ansigt er en alvorlig trussel mod både folks sikkerhed og demokrati.

Deepfakes potentiale til at blive brugt som våben er alarmerende stigende, og mange skader kan forventes baseret på folks evne til at skabe eksplicit indhold uden andres samtykke.

Det forventes, at folk vil bruge deepfakes til cybermobning, ødelægge omdømme, afpresse, sprede hadfuld tale, opfordre til vold, forstyrre demokratiske processer, sprede desinformation til målgrupper og begå cyberkriminalitet og bedrageri.

Deepfake detektion

Nøglespillere har vovet sig ud i at finde et svar på deepfake trusler.

Facebook annoncerede den 6. januar, at de "vil styrke sin politik over for vildledende manipulerede videoer, der er blevet identificeret som deepfakes." Virksomheden siger, at det vil fjerne manipulerede medier, der er blevet "redigeret eller syntetiseret - ud over justeringer for klarhed eller kvalitet - på måder, der ikke er synlige for en gennemsnitlig person", og hvis mediet er "produkt af kunstig intelligens eller maskinlæring, der smelter sammen , erstatter eller overlejrer indhold på en video, får det til at fremstå som autentisk."

Nyheden følger Facebooks "deepfake udfordring, "som har til formål at designe nye værktøjer, der registrerer manipuleret medieindhold. Udfordringen understøttes af Microsoft, et konsortium om kunstig intelligens og en fond på 10 millioner USD.

I slutningen af ​​oktober, Facebooks administrerende direktør, Mark Zuckerberg, vidnede i et amerikansk repræsentanters hus Financial Services Committee -høring i Washington om virksomhedens kryptokurrencyplaner, hvor Zuckerberg stod over for spørgsmål om, hvad virksomheden gør for at forhindre deepfakes.

Danielle Citron, professor ved Boston University School of Law, diskuterer, hvordan deepfakes underminerer sandheden og truer demokratiet.

Defense Advanced Research Projects Agency (DARPA) i det amerikanske forsvarsministerium arbejder på at bruge specifikke typer algoritmer til at vurdere integriteten af ​​digitale visuelle medier.

Nogle forskere diskuterer brugen af ​​konvolutionelle neurale netværk - et sæt algoritmer, der løst replikerer den menneskelige hjerne, designet til at analysere visuelle billeder og genkende mønstre - for at opdage uoverensstemmelserne på tværs af de mange billeder i deepfakes. Andre foreslår algoritmer til at opdage fuldstændigt genererede ansigter.

Hani Farid, en ekspert i digital retsmedicin og en af ​​de førende myndigheder til at opdage falske fotos, og hans studerende Shruti Agarwal ved University of California, Berkeley udvikler en software, der bruger de subtile karakteristika af, hvordan en person taler, for at skelne denne person fra den falske version.

Farid samarbejder også meget tæt med deepfake-pioneren Hao Li for at konfrontere problemet med "stadig mere problemfrit hyldebedrag".

YouTube nation

Hvad hvis vi vågner op i morgen til en deepfake af Greta Thunberg, Tid magasinets 2019 Person of the Year, beskylder en specifik organisation for at være den største katalysator for klimaændringer? Ville nogen unge være skeptiske over for oplysningerne?

Vi lever i en digital æra, hvor mange mennesker forventer, at hvert svar findes ved en Google -søgning, en YouTube- eller en Vimeo-video eller en TED-talk. Næsten 100 procent af canadiske unge mellem 15 og 24 år bruger internettet på daglig basis. De fleste følger nyheder og aktuelle anliggender gennem sociale medieplatforme som Facebook, Twitter og Instagram.

I 2017 90 procent af canadierne i alderen 18 til 24 var aktive YouTube-brugere.

Ifølge Statista, en virksomhed, der leverer markeds- og forbrugerdata, "fra maj 2019, mere end 500 timers video blev uploadet til YouTube hvert minut, " svarende til "ca. 30, 000 timers nyligt uploadet indhold i timen." Virksomheden rapporterer, at mellem 2014 og 2019 "steg antallet af videoindholdstimer uploadet hvert 60. sekund med omkring 40 procent."

Mange af nutidens 18- til 24-årige brugere af sociale medier genkender dagsordenerne og algoritmerne bag de opslag, der dukker op på deres vægge. I min ph.d. speciale forskning, Jeg undersøgte, hvordan 42 deltagere i denne aldersgruppe forstod flygtninge i en sammenhæng, hvor ideer om flygtninge var dybt påvirket af propaganda på sociale medier, falske nyheder og desinformation. Jeg fandt ud af, at mange længtes efter at blive influencers og forstyrre offentlige kommentarer og mediegenererede budskaber på måder, der resonerer med fortalervirksomhed eller aktivistiske kampagner i dag ledet af unge.

Deepfake-fænomenet er en ny kritisk udfordring, de og alle deltagere i vores demokratier, nu ansigt.

Uddannelse til robusthed

I Canada, Journalists for Human Rights annoncerede et nyt program, finansieret af Heritage Canada, at uddanne journalister og at forbedre "borgernes beredskab mod onlinemanipulation og misinformation."

Pædagoger kan spille en central rolle i at fremme ungdomsagentur til at opdage deepfakes og reducere deres indflydelse. En udfordring er at sikre, at unge lærer kritiske mediekendskaber, mens de fortsætter med at udforske værdifulde ressourcer online og opbygger deres kapacitet og viden til at deltage i demokratiske strukturer.

Følgende trin, jeg har identificeret i "Get Ready to Act Against Social Media Propaganda"-modellen - begyndende med at forklare holdninger til et kontroversielt spørgsmål målrettet gennem propaganda på sociale medier - kan undervisere hjælpe unge med at diskutere, hvordan de opfatter og genkender deepfakes. De kan udforske indholdets oprindelse, hvem det er rettet mod, den reaktion, den forsøger at opnå, og hvem der står bag den.

De kan også diskutere ungdoms rolle og ansvar for at reagere og stå op til desinformation og potentielle digitale strategier, der skal følges i denne proces. En veludstyret generation af digitale borgere kan være vores bedste bud.

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.




Varme artikler