Figur, der viser strategien for visionbaseret taktil sansning introduceret af forskerne. Kredit:Sferrazza, et al., ieeexplore.ieee.org/document/8918082
For effektivt at interagere med deres omgivende miljø, robotter skal være i stand til at identificere egenskaber ved forskellige objekter bare ved at røre dem, ligesom mennesker gør. Dette ville give dem mulighed for at få fat i og håndtere objekter mere effektivt, bruge feedback indsamlet af sensorer til at justere deres greb og manipulationsstrategier.
Med det i tankerne, forskningsgrupper verden over har forsøgt at udvikle teknikker, der kunne give robotter en følelse af berøring ved at analysere data indsamlet af sensorer, hvoraf mange er baseret på brugen af deep learning-arkitekturer. Mens nogle af disse metoder er lovende, de kræver typisk store mængder træningsdata og generaliserer ikke altid godt på tværs af tidligere usynlige objekter.
Forskere ved ETH Zürich har for nylig introduceret en ny dyb læringsbaseret strategi, der kunne muliggøre taktil sansning i robotter uden at kræve store mængder data fra den virkelige verden. Deres tilgang, skitseret i et papir, der er forududgivet på arXiv, indebærer træning af dybe neurale netværk udelukkende på simuleringsdata.
"Vores teknik lærer ud fra data, hvordan man forudsiger fordelingen af de kræfter, der udøves af et objekt i kontakt med den følende overflade, "Carlo Sferrazza, en af de forskere, der har udført undersøgelsen, fortalte TechXplore. "Indtil nu, disse data (i størrelsesordenen titusinder af datapunkter) skulle indsamles i et eksperimentelt setup over flere timer, hvilket var dyrt i forhold til tid og udstyr. I dette arbejde, vi genererede vores data udelukkende i simulering, bevarer høj sansningsnøjagtighed, når vi implementerer vores teknik i den virkelige verden. "
I deres eksperimenter, Sferrazza og hans kolleger brugte en sensor, de byggede med enkle og billige komponenter. Denne sensor består af et standardkamera placeret under et blødt materiale, som indeholder en tilfældig spredning af små plastikpartikler.
Når en kraft påføres dens overflade, det bløde materiale deformeres og får plastpartiklerne til at bevæge sig. Denne bevægelse fanges derefter af sensorens kamera og optages.
"Vi udnytter billedmønstrene skabt af de bevægelige partikler til at udtrække information om de kræfter, der forårsager materialets deformation, " Sferrazza forklarede. "Ved tæt indlejring af partiklerne i materialet kan vi opnå en ekstrem høj opløsning. Da vi tager en datadrevet tilgang til at løse denne opgave, vi kan overvinde kompleksiteten ved modelleringskontakt med bløde materialer og estimere fordelingen af disse kræfter med høj nøjagtighed. "
I det væsentlige, forskerne skabte modeller af sensorens bløde materiale og kameraprojektion ved hjælp af state-of-the-art beregningsmetoder. De brugte derefter disse modeller i simuleringer, at oprette et datasæt på 13, 448 syntetiske billeder, der er ideelle til træning af taktile sansealgoritmer. Det faktum, at de var i stand til at generere træningsdata til deres taktile sansemodel i simuleringer, er yderst fordelagtig, da det forhindrede dem i at skulle indsamle og kommentere data i den virkelige verden.
"Vi udviklede også en overførselsindlæringsteknik, der giver os mulighed for at bruge den samme model på flere forekomster af de taktile sensorer, vi producerer i den virkelige verden, uden behov for yderligere data, " sagde Sferrazza. "Dette betyder, at hver sensor bliver billigere at producere, da de ikke kræver yderligere kalibreringsindsats. "
Forskerne brugte det syntetiske datasæt, de skabte til at træne en neuralt netværksarkitektur til visionbaserede taktile sanseapplikationer og evaluerede derefter dets ydeevne i en række tests. Det neurale netværk opnåede bemærkelsesværdige resultater, lave præcise sanseprognoser om virkelige data, selvom det var trænet på simuleringer.
"Den skræddersyede neurale netværksarkitektur, som vi trænede, viser også meget lovende generaliseringsmuligheder til brug i andre situationer, når de anvendes på data, der er meget anderledes end dem, der bruges i vores simuleringer, f.eks., til estimering af kontakt med enkelte eller flere objekter af vilkårlige former, " sagde Sferrazza.
I fremtiden, den dybe læringsarkitektur udviklet af Sferrazza og hans kolleger kunne give robotter en kunstig følesans, potentielt øger deres greb og manipulationsevner. Ud over, det syntetiske datasæt, de kompilerede, kunne bruges til at træne andre modeller til taktil sansning eller kan inspirere til oprettelsen af nye simulationsbaserede datasæt.
"Vi vil nu evaluere vores algoritmer i opgaver, der involverer meget generelle interaktioner med komplekse objekter, og vi arbejder også på at forbedre deres nøjagtighed, "Sferrazza sagde." Vi tror, at denne teknik vil vise sine fordele, når den anvendes på virkelige robotopgaver, såsom applikationer, der involverer fin manipulation af skrøbelige genstande - såsom et glas eller et æg."
© 2020 Science X Network
Sidste artikelMicrosoft rapporterer om ny Windows-sårbarhed
Næste artikelSociale medier ser virussolidaritet blomstre i Storbritannien