Kredit:Computer Science &Artificial Intelligence Laboratory
Hvis du ser på denne pick and place robot, ser du med det samme, hvorfor det er en stor sag – ikke så meget for fingerfærdighed og fin bevægelse, selvom robotten scorer i begge, men bare fordi det er så smart.
Det er helt tydeligt fra nyhedshistorierne, der strømmer ud fra universitetets laboratorier, at robotarme og -hænder designet til plukning og sortering er et hyppigt emne; ambitiøse forskere forsøger at score højere for effektive løsninger.
Som MIT CSAIL udtrykte det, "for alle de fremskridt, vi har gjort med robotter, de har stadig knap nok færdigheder som en to-årig. Fabriksrobotter kan samle det samme objekt op igen og igen, og nogle kan endda lave nogle grundlæggende skel mellem objekter, men de har generelt problemer med at forstå en lang række objektformer og størrelser, eller at være i stand til at flytte genstandene til forskellige positurer eller steder."
Denne uges buzz handler om denne robot, med dens fremhævede "keypoints"-stil for at opnå et mere avanceret koordinationsniveau. De har udforsket en ny måde at identificere og bevæge sig på hele klasser af genstande, repræsenterer dem som grupper af 3-D nøglepunkter.
Ingeniøren citerede MIT-professor Russ Tedrake, seniorforfatter til papiret, der beskriver deres arbejde og op på arXiv. "Roboter kan opfange næsten alt, men hvis det er en genstand de ikke har set før, de kan faktisk ikke lægge det fra sig på nogen meningsfuld måde."
Ingeniøren gav sit nik til en tilgang, der lød som "en type visuel køreplan, der tillader mere nuanceret manipulation."
Du kan se robotten i aktion i en kPAM forhåndsvisningsvideo, "Nøjagtig robotmanipulation med aldrig før sete objekter." Hvad er kpam? Det står for Keypoint Affordances for Robotic Level Manipulation. Robotten får al den information, den skal bruge for at opfange, flytte og placere genstande.
"At forstå lidt mere om objektet - placeringen af nogle få nøglepunkter - er nok til at muliggøre en bred vifte af nyttige manipulationsopgaver, " sagde MIT-professor Russ Tedrake.
Et papir, der beskriver deres arbejde, som er oppe på arXiv, har titlen "kPAM:KeyPoint Affordances for Category-Level Robotic Manipulation, " af Lucas Manuelli, Wei Gao, Peter Florence og Russ Tedrake. De er hos CSAIL (Computer Science and Artificial Intelligence Laboratory) fra Massachusetts Institute of Technology.
Her er, hvad avisens forfattere havde at sige om, hvordan deres tilgang er et skridt væk fra eksisterende "manipulationspipelines." Sidstnævnte angiver typisk den ønskede konfiguration som en mål 6-DOF positur, som har sine begrænsninger. Repræsentation af et objekt "med en parameteriseret transformation defineret på en fast skabelon kan ikke fange store intra-kategori formvariationer, og at specificere en målpositur på et kategoriniveau kan være fysisk umuligt eller mislykkes med at udføre opgaven."
At kende posen og størrelsen af et kaffekrus i forhold til et kanonisk krus er ok, men det er ikke tilstrækkeligt at hænge det på en stativ ved håndtaget. Deres tilgang er at bruge "semantiske 3-D nøglepunkter som objektrepræsentationen." Hvad var resultaterne af deres udforskning? Deres metode var i stand til at håndtere "store intra-kategori variationer uden nogen instans-kloge tuning eller specifikation."
Holdet rapporterede, at "Omfattende hardwareeksperimenter viser, at vores metode pålideligt kan udføre opgaver med aldrig før sete objekter i en kategori, såsom at placere sko og krus med betydelig formvariation i målkonfigurationer på kategoriniveau."
© 2019 Science X Network