Videnskab
 science >> Videnskab >  >> Elektronik

Brug af taktile sensorer og maskinlæring til at forbedre, hvordan robotter manipulerer stoffer

1) Vi nærmer os først stoffet og derefter 2) Prøver at få fat i et eller andet antal klædelag. Ved hjælp af taktil sansning afgør vi, om vi fatter det korrekte antal lag, og derefter 3) justerer vi kluden efter behov. Til sidst løfter vi 4) kluden med det korrekte antal lag fat. Kredit:Tirumala et al.

I de seneste år har robotikere forsøgt at forbedre, hvordan robotter interagerer med forskellige objekter, der findes i den virkelige verden. Mens nogle af deres anstrengelser gav lovende resultater, halter de fleste eksisterende robotsystemers manipulationsevner stadig bagud hos mennesker.

Stoffer er blandt de typer objekter, der har vist sig at være mest udfordrende for robotten at interagere med. Hovedårsagerne til dette er, at stofstykker og andre stoffer kan strækkes, flyttes og foldes på forskellige måder, hvilket kan resultere i kompleks materialedynamik og selvokklusioner.

Forskere ved Carnegie Mellon Universitys Robotics Institute har for nylig foreslået en ny beregningsteknik, der kunne give robotter bedre forståelse og håndtering af stoffer. Denne teknik, introduceret i et papirsæt, der skal præsenteres på den internationale konference om intelligente robotter og systemer og præ-publiceret på arXiv, er baseret på brugen af ​​en taktil sensor og en simpel maskinlæringsalgoritme, kendt som en klassifikator.

"Vi er interesserede i stofmanipulation, fordi stoffer og deformerbare genstande generelt er udfordrende for robotter at manipulere, da deres deformerbarhed betyder, at de kan konfigureres på så mange forskellige måder," Daniel Seita, en af ​​forskerne, der har udført undersøgelsen, fortalte TechXplore. "Da vi påbegyndte dette projekt, vidste vi, at der for nylig havde været meget arbejde med robotter, der manipulerede stof, men det meste af det arbejde involverer manipulation af et enkelt stykke stof. Vores papir omhandler de relativt mindre udforskede retninger for at lære at manipulere en bunke stof ved hjælp af taktil sansning."

De fleste eksisterende tilgange til at muliggøre stofmanipulation i robotter er kun baseret på brugen af ​​synssensorer, såsom kameraer eller billedapparater, der kun indsamler visuelle data. Mens nogle af disse metoder opnåede gode resultater, kan deres afhængighed af visuelle sensorer begrænse deres anvendelighed til simple opgaver, der involverer manipulation af et enkelt stykke stof.

Den nye metode, der er udtænkt af Seita og hans kolleger Sashank Tirumala og Thomas Weng, bruger på den anden side data indsamlet af en taktil sensor kaldet ReSkin, som kan udlede information relateret til et materiales tekstur og dets interaktion med miljøet. Ved hjælp af disse taktile data trænede holdet en klassifikator til at bestemme antallet af lag stof, som en robot greb.

"Vores taktile data kom fra ReSkin-sensoren, som for nylig blev udviklet på CMU sidste år," forklarede Weng. "Vi bruger denne klassificering til at justere højden på en griber for at kunne gribe et eller to øverste stoflag fra en bunke stof."

For at evaluere deres teknik udførte holdet 180 eksperimentelle forsøg i en virkelig verden ved at bruge et robotsystem bestående af en Franka robotarm, en mini-Delta griber og en Reskin sensor (integreret på griberens "finger") for at forstå et eller to stykker stof i en bunke. Deres tilgang opnåede lovende resultater og overgik baseline-metoder, der ikke tager taktil feedback i betragtning.

"Sammenlignet med tidligere tilgange, der kun bruger kameraer, påvirkes vores taktile-sensing-baserede tilgang ikke af mønstre på stoffet, ændringer i belysningen og andre visuelle uoverensstemmelser," sagde Tirumala. "Vi var glade for at se, at taktil sansning fra elektromagnetiske enheder som ReSkin-sensoren kan give et tilstrækkeligt signal til en finkornet manipulationsopgave, som at gribe fat i et eller to stoflag. Vi tror på, at dette vil motivere fremtidig forskning i taktil sansning for stof manipulation af robotter."

I fremtiden håber Tirumala, Weng, Seita og deres kolleger, at denne manipulationstilgang kan bidrage til at forbedre kapaciteten af ​​robotter, der er designet til at blive implementeret i stoffremstillingsfaciliteter, vaskeritjenester eller i hjemmet. Specifikt kunne det forbedre disse robotters evne til at håndtere komplekse tekstiler, flere stykker klud, vasketøj, tæpper, tøj og andre stofbaserede genstande.

"Vores plan er at fortsætte med at udforske brugen af ​​taktil sansning til at forstå et vilkårligt antal stoflag i stedet for det ene eller to lag, som vi fokuserede på i dette arbejde," tilføjede Weng. "Ydermere undersøger vi multimodale tilgange, der kombinerer både syn og taktil sansning, så vi kan udnytte fordelene ved begge sensormodaliteter." + Udforsk yderligere

Generering af tværmodale sensoriske data til robotbaseret visuel-taktil perception

© 2022 Science X Network




Varme artikler