Kredit:University of California - San Diego
Et team ledet af University of California San Diego har udviklet et nyt system af algoritmer, der gør det muligt for firbenede robotter at gå og løbe i udfordrende terræn, mens de undgår både statiske og bevægelige forhindringer.
I test guidede systemet en robot til at manøvrere autonomt og hurtigt hen over sandede overflader, grus, græs og ujævne jordbakker dækket af grene og nedfaldne blade uden at støde ind i pæle, træer, buske, kampesten, bænke eller mennesker. Robotten navigerede også i et travlt kontorområde uden at støde ind i kasser, skriveborde eller stole.
Arbejdet bringer forskere et skridt tættere på at bygge robotter, der kan udføre eftersøgnings- og redningsmissioner eller indsamle information på steder, der er for farlige eller vanskelige for mennesker.
Holdet vil præsentere sit arbejde på 2022 International Conference on Intelligent Robots and Systems (IROS), som finder sted fra 23. til 27. oktober i Kyoto, Japan.
Systemet giver en robot med ben mere alsidighed på grund af den måde, det kombinerer robottens synssans med en anden sansemodalitet kaldet proprioception, som involverer robottens følelse af bevægelse, retning, hastighed, placering og berøring – i dette tilfælde følelsen af jorden under dens fødder.
I øjeblikket er de fleste tilgange til at træne robotter med ben til at gå og navigere enten afhængige af proprioception eller vision, men ikke begge dele på samme tid, siger seniorforfatter Xiaolong Wang, professor i elektro- og computerteknik ved UC San Diego Jacobs School of Engineering .
"I det ene tilfælde er det som at træne en blind robot til at gå ved blot at røre og mærke jorden. Og i det andet planlægger robotten sine benbevægelser baseret på synet alene. Den lærer ikke to ting på samme tid," sagde Wang. "I vores arbejde kombinerer vi proprioception med computersyn for at gøre det muligt for en robot med ben at bevæge sig rundt effektivt og jævnt – samtidig med at vi undgår forhindringer – i en række udfordrende miljøer, ikke kun veldefinerede."
Systemet, som Wang og hans team udviklede, bruger et særligt sæt algoritmer til at fusionere data fra realtidsbilleder taget af et dybdekamera på robottens hoved med data fra sensorer på robottens ben. Dette var ikke en simpel opgave. "Problemet er, at der under drift i den virkelige verden nogle gange er en lille forsinkelse i at modtage billeder fra kameraet," forklarede Wang, "så dataene fra de to forskellige registreringsmodaliteter ankommer ikke altid på samme tid."
Holdets løsning var at simulere denne mismatch ved at randomisere de to sæt input - en teknik, som forskerne kalder multimodal delay randomization. De fusionerede og randomiserede input blev derefter brugt til at træne en forstærkende læringspolitik på en ende-til-ende måde. Denne tilgang hjalp robotten med at træffe beslutninger hurtigt under navigation og forudse ændringer i sit miljø på forhånd, så den kunne bevæge sig og undvige forhindringer hurtigere på forskellige typer terræn uden hjælp fra en menneskelig operatør.
På vej fremad arbejder Wang og hans team på at gøre robotter med ben mere alsidige, så de kan erobre endnu mere udfordrende terræn. "Lige nu kan vi træne en robot til at udføre simple bevægelser som at gå, løbe og undgå forhindringer. Vores næste mål er at gøre det muligt for en robot at gå op og ned ad trapper, gå på sten, ændre retning og hoppe over forhindringer."
Holdet har frigivet deres kode på GitHub, og papiret er tilgængeligt på arXiv preprint server. + Udforsk yderligere