Tre trin til vores meta-læringsalgoritme. Kredit:Tianhe Yu og Chelsea Finn
Et team af forskere ved UC Berkeley har fundet en måde at få en robot til at efterligne en aktivitet, den ser på en videoskærm blot en enkelt gang. I et papir, de har uploadet til arXiv preprint server, teamet beskriver den tilgang, de brugte, og hvordan den fungerer.
Robotter, der lærer at gøre ting ved blot at se et menneske udføre en handling en enkelt gang, ville være i stand til at lære mange flere nye handlinger meget hurtigere, end det nu er muligt. Forskere har arbejdet hårdt på at finde ud af, hvordan man får det til at ske.
Historisk set dog Robotter er blevet programmeret til at udføre handlinger som at samle et objekt op ved hjælp af kode, der udtrykkeligt angiver, hvad der skal gøres og hvordan. Sådan fungerer de fleste robotter, der laver ting som at samle biler på en fabrik. Sådanne robotter skal stadig gennemgå en træningsproces, hvorved de ledes gennem procedurer flere gange, indtil de er i stand til at gøre dem uden at begå fejl. For nylig, robotter er blevet programmeret til at lære udelukkende gennem observation - ligesom mennesker og andre dyr gør. Men sådan imitativ læring kræver typisk tusindvis af observationer. I denne nye indsats, forskerne beskriver en teknik, de har udviklet, der gør det muligt for en robot at udføre en ønsket handling ved at se et menneske gøre det bare en enkelt gang.
For at opnå denne bedrift, forskerne kombinerede imitationslæring med en meta-læringsalgoritme. Resultatet er noget, de kalder model-agnostisk meta-læring (MAML). Meta-læring, forklarer forskerne, er en proces, hvorved en robot lærer ved at inddrage tidligere erfaringer. Hvis en robot vises video af et menneske, der samler en pære eller en anden lignende genstand op, for eksempel, og putter det i en kop, skål eller anden genstand, det kan få en "fornemmelse" for et mål. Hvis det i hvert tilfælde læres at efterligne adfærden på en bestemt måde, så "lærer" den, hvad den skal gøre, når den observerer anden lignende adfærd. Dermed, når den ser en video af en person, der tager en blomme op og putter den i en skål, den genkender adfærden og er i stand til at omsætte den til sin egen lignende adfærd, som den så kan udføre.
© 2018 Tech Xplore