Ukurateret sæt billeder produceret af den stilbaserede generator (config F) med FFHQ-datasættet. Kredit:arXiv:1812.04948 [cs.NE]
En ny form for Generative Adversarial Network-tilgang får teknologiobservatører til at klø sig i hovedet:Hvordan kan billeder være falske og alligevel se så ægte ud?
"Vi kom op med en ny generator, der automatisk lærer at adskille forskellige aspekter af billederne uden menneskelig overvågning, " sagde forskerne i en video. De udtalte i deres papir, "Den nye arkitektur fører til en automatisk tillært, uovervåget adskillelse af attributter på højt niveau."
At få falske billeder til at se ægte ud er en kunstnerisk indsats, der næppe er ny, men disse tre forskere løftede indsatsen til det næste niveau.
De beskrev deres teknik i deres papir, "En stilbaseret generatorarkitektur til generative kontradiktoriske netværk." Papiret ligger på arXiv, og det har tiltrukket sig stor opmærksomhed.
Stephen Johnson ind Stor Tænk sagde, at resultaterne var "temmelig opsigtsvækkende." Vil ridder ind MIT Technology Review sagde, at det, vi kigger på, er "fantastisk, næsten uhyggelig realisme."
Forskerne, Tero Karras, Samuli Laine, og Timo Aila, er fra Nvidia. Deres tilgang fokuserer på at opbygge et generativt modstridende netværk, eller GAN, hvor læring finder sted for at generere helt nye billeder, der efterligne udseendet af rigtige billeder.
Forfatterne sagde, at alle billeder i denne video blev produceret af deres generator. "De er ikke fotografier af rigtige mennesker."
Deres papir, " sagde ridder, viste hvordan tilgangen kan bruges til at lege med, og remix elementer som race, køn, eller endda fregner.
Den magiske sauce er deres stilbaserede generator. Stor Tænk forklarede dette som en modificeret version af den konventionelle teknologi, der bruges til automatisk at generere billeder.
Deres teknologi roder med dit hoved og får det sidste grin (eller ord, hvordan man end ser på det).
Du som menneske tænker "billeder". Generatoren, imidlertid, tænker "stil samling."
Visualisering af effekten af stilarter i generatoren ved at få stilarterne produceret af en latent kode (kilde) til at tilsidesætte en delmængde af stilarterne i en anden (destination). Kredit:arXiv:1812.04948 [cs.NE]
Hver stil styrer effekter i en bestemt skala. Der er grove stilarter, mellemstile, fine stilarter. (Grove stilarter henviser til positur, hår, ansigtsform; mellemstile henviser til ansigtstræk; øjne. Fine stilarter henviser til farveskemaet.)
Will Knight, i mellemtiden, gjort nogle observationer om GAN'er:"GAN'er anvender to duellerende neurale netværk til at træne en computer til at lære karakteren af et datasæt godt nok til at generere overbevisende forfalskninger. Når de anvendes på billeder, dette giver en måde at generere ofte meget realistisk falskeri."
Johnson gav en baggrund for GAN-konceptet:
"I 2014 en forsker ved navn Ian Goodfellow og hans kolleger skrev et papir, der skitserede et nyt maskinlæringskoncept kaldet generative adversarielle netværk. Ideen, i forenklede vendinger, involverer at sætte to neurale netværk op mod hinanden. Man fungerer som en generator, der ser på, sige, billeder af hunde og gør derefter sit bedste for at skabe et billede af, hvordan den tror, en hund ser ud. Det andet netværk fungerer som en diskriminator, der forsøger at fortælle falske billeder fra rigtige.
"Først generatoren producerer muligvis nogle billeder, der ikke ligner hunde, så diskriminatoren skyder dem ned. Men generatoren ved nu lidt om, hvor det gik galt, så det næste billede, den skaber, er lidt bedre. Denne proces fortsætter indtil i teorien, generatoren skaber et godt billede af en hund."
Nvidias team tilføjede stiloverførselsprincipper til GAN-mixet.
Devin Coldewey ind TechCrunch :"Biler, katte, landskaber - alt dette passer mere eller mindre til det samme paradigme af små, mellemstore og store funktioner, der kan isoleres og gengives individuelt."
Fra et teknisk synspunkt, deres arbejde er blevet rost for imponerende resultater i billeder af mennesker, der ser ægte ud. Fra et populært synspunkt, skærpet af snak om falske nyheder, avancementet ses som farligt. "Evnen til at generere realistiske kunstige billeder, ofte kaldet deepfakes, når billeder er beregnet til at ligne genkendelige mennesker, har vakt bekymring i de senere år, " sagde Johnson.
Sider med teknisk observation var fyldt med kommentarer om, hvor "uhyggeligt" dette var, og nogle kommentarer var blot spørgsmål:"Hvorfor gør vi det her?" "Hvem betaler for det?" "Hvis vi ikke opretter regulatoriske grænser, Jeg tror, at det næste store slag i menneskehedens historie vil blive udkæmpet (og muligvis tabt) mod den AI, vi skaber, " sagde et svar.
Ikke desto mindre, ikke alle kommentarer afspejlede uro. Dette er et teknologisk fremskridt, og nogle kommentarer påpegede, at applikationer kunne være nyttige i visse sektorer. Designere, skabere af reklamebureauer, og selv videospilskabere kunne bruge denne teknologi fremad.
"Disse AI-genererede ansigter lover at indvarsle en ny generation af fotorealistiske mennesker i videospil og film uden behov for menneskelige skuespillere eller statister, " sagde HotHardware .
© 2018 Science X Network
Sidste artikelNorge ser boom i elbiler, drevet af regeringen
Næste artikelBilligere, mere effektiv solteknologi et skridt nærmere