Mærkeligt job, en af to robotter i CSE-lektor Chad Jenkins laboratorium, griber efter en genstand. Odd Job og dets dobbelte, Cookie, i øjeblikket er i stand til at gribe objekter baseret på dybde og farveopfattelse. Kredit:Joseph Xu, Michigan Engineering
I et skridt mod hjemmehjælperrobotter, der hurtigt kan navigere i uforudsigelige og uordnede rum, Forskere fra University of Michigan har udviklet en algoritme, der lader maskiner opfatte deres omgivelser i størrelsesordener hurtigere end lignende tidligere tilgange.
"Robotopfattelse er en af de største flaskehalse i at levere dygtige hjælperobotter, der kan indsættes i folks hjem, " sagde Karthik Desingh, en kandidatstuderende i datalogi og ingeniørvidenskab og hovedforfatter på et papir om værket udgivet i Videnskab robotik .
"I industrielle omgivelser, hvor der er struktur, robotter kan udføre opgaver som at bygge biler meget hurtigt. Men vi lever i ustrukturerede miljøer, og vi ønsker, at robotter skal kunne håndtere vores rod."
Historisk set, robotter fungerer mest effektivt i strukturerede miljøer, bag rækværk eller bure for at holde mennesker sikre og robottens arbejdsområde rent og ordentligt. Imidlertid, et menneskes miljø, på arbejde eller hjemme, er typisk et virvar af genstande i forskellige tilstande:papirer på tværs af et tastatur, en taske, der gemmer bilnøgler, eller et forklæde, der gemmer halvåbne skabe.
Holdets nye algoritme hedder Pull Message Passing for Nonparametric Belief Propagation. På 10 minutter kan den beregne en nøjagtig forståelse af et objekts positur – eller position og orientering – til et nøjagtighedsniveau, der tager tidligere tilgange mere end halvanden time.
Holdet demonstrerede dette med en Fetch-robot. De viste, at deres algoritme korrekt kan opfatte og bruge et sæt skuffer, selv når halvt dækket med et tæppe, når en skuffe er halvåben, eller når selve robottens arm skjuler et fuldt sensorudsyn til skufferne. Algoritmen kan også skalere ud over en simpel kommode til et objekt med flere komplicerede samlinger. De viste, at robotten nøjagtigt kan opfatte sin egen krop og gribearm.
"Koncepterne bag vores algoritme, såsom ikke-parametrisk trosforplantning, bruges allerede i computervision og klarer sig meget godt til at fange usikkerheden i vores verden. Men disse modeller har haft begrænset indflydelse inden for robotteknologi, da de er meget dyre beregningsmæssigt, kræver mere tid end praktisk for en interaktiv robot at hjælpe med daglige opgaver, " sagde Chad Jenkins, en professor i datalogi og teknik og et kernefakultetsmedlem ved Michigan's Robotics Institute.
Tidligere teknikker var baseret på 'push-meddelelser'
Den ikke-parametriske trosforplantningsteknik sammen med den lignende partikelbeskedoverførselsteknik blev først offentliggjort i 2003. De er effektive inden for computersyn, som forsøger at opnå en grundig forståelse af en scene gennem billeder og video. Det skyldes, at todimensionelle billeder eller video kræver mindre regnekraft og tid end de tredimensionelle scener, der er involveret i robotperception.
Disse tidligere tilgange forstår en scene ved at oversætte den til en grafisk model af noder og kanter, som repræsenterer hver komponent af et objekt og deres forhold mellem hinanden. Algoritmerne danner derefter hypoteser - eller skaber overbevisninger om - komponentplaceringer og -orienteringer, når de gives et sæt begrænsninger. Disse overbevisninger, som forskerne kalder partikler, varierer over en række sandsynligheder.
For at indsnævre de mest sandsynlige placeringer og retninger, komponenterne anvender "push-meddelelser" til at sende sandsynlige placeringsoplysninger på tværs af noder og tilbage. Denne placeringsinformation sammenlignes derefter med sensordata. Denne proces tager flere gentagelser for i sidste ende at nå frem til en nøjagtig tro på en scene.
For eksempel, givet en kommode med tre skuffer, hver komponent af objektet - i dette tilfælde, hver skuffe og selve kommoden - ville være en knude. Begrænsninger ville være, at skufferne skal være inde i kommoden, og skufferne bevæger sig sideværts, men ikke lodret.
Oplysningerne, passerede mellem noderne, sammenlignes med reelle observationer fra sensorer, såsom et 2-D-billede og 3-D-punktsky. Beskederne gentages gennem iterationer, indtil der er en overensstemmelse mellem overbevisningerne og sensordata.
De nye algoritmer skifter til "pull messaging"
For at forenkle kravene til databehandling, Desingh og Michigan-teamet brugte det, der kaldes "pull messaging". Deres tilgang vender kakofonien frem og tilbage, informationstætte beskeder til en kortfattet samtale mellem et objekts komponenter.
I dette eksempel, i stedet for at kommoden først sender placeringsoplysninger til en skuffe efter at have beregnet information fra de andre skuffer, kommoden tjekker først med skufferne. Den beder hver skuffe om sin egen tro på dens placering, derefter, for nøjagtighed, vejer den tro mod information fra de andre skuffer. Det konvergerer til en nøjagtig forståelse af en scene gennem iterationer, ligesom push nærmer sig.
For direkte at sammenligne deres nye tilgang med tidligere tilgange, de testede det på en simpel 2D-scene af en cirkel med fire rektangulære arme skjult blandt et mønster af lignende cirkler og rektangler.
De tidligere tilgange krævede mere end 20 minutters behandlingstid pr. iteration for at sende beskeder, mens holdets nye metode tog mindre end to minutter, og efterhånden som antallet af overbevisninger eller partikler steg, denne forbedring bliver eksponentielt hurtigere.
I disse forsøg, det tog fem iterationer med deres nye algoritme for at opnå mindre end en gennemsnitlig fejl på 3,5 tommer i placeringsestimat af skuffer og kommode, eller mindre end 8-tommer gennemsnitlig fejl i placeringsestimat, når kommoden er delvist skjult af et tæppe.
Dette er på niveau med tidligere tilgange, og varierer afhængigt af et objekts størrelse, antal dele, og hvor meget er synligt for sensorer. Mest vigtige, nøjagtigheden øges nok til succesfuld manipulation af objekter af en robot gennem fortsatte iterationer.
"Dette er kun begyndelsen på, hvad vi kan gøre med trosudbredelse i robotperception, " sagde Desingh. "Vi ønsker at skalere vores arbejde op til flere objekter og spore dem under handlingsudførelse, og selvom robotten i øjeblikket ikke kigger på et objekt. Derefter, robotten kan bruge denne evne til konstant at observere verden til målorienteret manipulation og fuldføre opgaver med succes."