Hvad med at udforske billeder bare ved at bevæge sig rundt? Mange 11-årige ville finde det en god idé, især hvis alternativet var en hjemmeopgave om franske verber.
Velkommen til Move Mirror, hvor du bevæger dig foran dit webcam.
Google tager ideen til sig med at gøre maskinlæring mere tilgængelig for kodere og producenter. Det ønskede resultat inspirerer dem til at lege med denne teknologi. Move Mirrors hensigt er at vise computervisionsteknikker som estimering af posering og at gøre det på sjove måder.
Move Mirror matcher dine bevægelser med hundredvis af billeder af mennesker, der laver lignende positurer. "Det er lidt som et magisk spejl, der afspejler dine bevægelser med billeder af alle slags menneskelige bevægelser - fra sport og dans til kampsport, skuespil, og videre, " siger holdet.
Godt, du kommer til at matche din positur mod en database med titusindvis af billeder. Eksperimentet har en indbydende besked om, at "Du flytter og 80, 000 billeder flytter med dig."
Bortset fra sjov, dette eksperiment, et samarbejde mellem PAIR, Forskning, og Creative Lab-teams hos Google og venner hos Use All Five, har formål. Det signalerer en livsstil i udviklingsfællesskabet for maskinlæring. Fremskridt inden for maskinlæring er paraderet, med håb om at engagere andre mennesker med relevante interesser, som alle skubber forskningen på området frem.
Irene Alvarado, Kreativ teknolog hos Google Creative Lab, sagde, "Med Move Mirror, vi viser, hvordan computersynsteknikker som estimering af stilling kan være tilgængelige for alle med en computer og et webcam. Vi ønskede også at gøre maskinlæring mere tilgængelig for kodere og producenter ved at bringe positur-estimering ind i browseren - forhåbentlig inspirere dem til at eksperimentere med denne teknologi."
JC Torres ind SlashGear :"Move Mirror kan virke som en useriøs, men sjovt, AI demo, men det har nogle positive konsekvenser for kunstig intelligens."
Og på den note kan du prøve det selv.
Move Mirror blev lavet ved hjælp af PoseNet og TensorFlow.js. Alvarado definerede sidstnævnte som "et bibliotek, der kører maskinlæringsmodeller på enheden, i din browser – hvilket betyder, at stillingsestimatet sker direkte i browseren, og dine billeder bliver ikke gemt eller sendt til en server."
Det er en god pointe for dem, der får at vide, at de skal bruge et webcam til ethvert eksperiment. Bekymringer om privatliv dukker straks op. I dette eksperiment, billederne sendes ikke til nogen Google-servere, mens personen interagerer med Move Mirror. Billedgenkendelse sker lokalt i personens browser
"Det er bestemt imponerende, hvordan sofistikeret maskinlæring nu kan udføres kun i webbrowsere, " sagde Torres. "Og det er bestemt betryggende at vide, at du ikke altid behøver at sende dine data, meget mindre dine billeder, til en computer i skyen bare for at høste fordelene ved kunstig intelligens."
Hvordan matches billederne?
Flyt spejlvendinger for at posere information for at finde et matchende billede. Dette involverer steder for 17 kropsdele, f.eks., højre skulder, venstre ankel, højre hofte og næse. Holdet bemærkede, at Move Mirror ikke tager højde for race, køn, højde, kropstype.
Taylor Kerns, Android politi , forklaret, hvad der sker:PoseNet "genkender den overordnede position af et menneskeligt emne ved at analysere og lægge sammen, hvor forskellige dele og led er på et foto eller en video. Din position analyseres i realtid og sammenlignes med et sæt på 80, 000 billeder. Move Mirror viser det tætteste match til hver af dine positioner, sætter dem sammen i et diasshow."
Hvordan blev dette Move Mirror AI-eksperiment bygget? PoseNet er den stillingsvurderingsmodel, de bruger; det kører i browseren ved hjælp af TensorFlow.js. Alvarado sagde, "Vi håber, du vil lege med Move Mirror og dele din oplevelse ved at lave en GIF."
Artiklen "Move Mirror:An AI Experiment with Pose Estimation in the Browser using TensorFlow.js, "er godt at tjekke ud Medium hvis du er nysgerrig efter at vide alle detaljer om deres arbejde med dette.
© 2018 Tech Xplore