Videnskab
 science >> Videnskab >  >> Elektronik

Styrende robotter med hjernebølger og håndbevægelser

Ved at overvåge hjerneaktivitet, systemet kan registrere i realtid, hvis en person bemærker en fejl, mens en robot udfører en opgave. Kredit:MIT CSAIL

At få robotter til at gøre ting er ikke let:normalt skal videnskabsmænd enten programmere dem eksplicit eller få dem til at forstå, hvordan mennesker kommunikerer via sprog.

Men hvad nu hvis vi kunne styre robotter mere intuitivt, bruger du kun håndbevægelser og hjernebølger?

Et nyt system ledet af forskere fra MIT's Computer Science and Artificial Intelligence Laboratory (CSAIL) har til formål at gøre præcis det, giver brugerne mulighed for øjeblikkeligt at rette robotfejl med intet andet end hjernesignaler og et fingerknips.

Udbygning af teamets tidligere arbejde fokuseret på simple binære valgaktiviteter, det nye arbejde udvider omfanget til multiple choice-opgaver, åbne op for nye muligheder for, hvordan menneskelige arbejdere kunne styre teams af robotter.

Ved at overvåge hjerneaktivitet, systemet kan registrere i realtid, hvis en person bemærker en fejl, mens en robot udfører en opgave. Ved at bruge en grænseflade, der måler muskelaktivitet, personen kan derefter lave håndbevægelser for at rulle igennem og vælge den korrekte mulighed for robotten at udføre.

Holdet demonstrerede systemet på en opgave, hvor en robot flytter en boremaskine til et af tre mulige mål på kroppen af ​​et imiteret fly. Vigtigt, de viste, at systemet virker på mennesker, det aldrig har set før, hvilket betyder, at organisationer kunne implementere det i virkelige omgivelser uden at skulle træne det på brugerne.

"Dette arbejde, der kombinerer EEG- og EMG-feedback, muliggør naturlige menneske-robot-interaktioner til et bredere sæt af applikationer, end vi har været i stand til at gøre, før vi kun bruger EEG-feedback, " siger CSAIL-direktør Daniela Rus, der overvågede arbejdet. "Ved at inkludere muskelfeedback, vi kan bruge bevægelser til at kommandere robotten rumligt, med meget mere nuance og specificitet."

Ph.D. kandidat Joseph DelPreto var hovedforfatter på et papir om projektet sammen med Rus, tidligere CSAIL postdoc Andres F. Salazar-Gomez, tidligere CSAIL-forsker Stephanie Gil, forsker Ramin M. Hasani, og professor ved Boston University Frank H. Guenther. Papiret vil blive præsenteret på Robotics:Science and Systems (RSS)-konferencen, der finder sted i Pittsburgh i næste uge.

Intuitiv menneske-robot interaktion

I de fleste tidligere arbejder, systemer kunne generelt kun genkende hjernesignaler, når folk trænede sig selv til at "tænke" på meget specifikke, men vilkårlige måder, og når systemet blev trænet på sådanne signaler. For eksempel, en menneskelig operatør skal muligvis se på forskellige lysdisplays, der svarer til forskellige robotopgaver under en træningssession.

Ikke overraskende, sådanne tilgange er vanskelige for folk at håndtere pålideligt, især hvis de arbejder inden for områder som byggeri eller navigation, der allerede kræver intens koncentration.

I mellemtiden Rus' team udnyttede kraften i hjernesignaler kaldet "fejlrelaterede potentialer" (ErrPs), som forskere har fundet naturligt opstår, når folk bemærker fejl. Hvis der er en ErrP, systemet stopper, så brugeren kan rette det; hvis ikke, det fortsætter.

"Det, der er fantastisk ved denne tilgang, er, at der ikke er behov for at træne brugerne til at tænke på en foreskrevet måde, " siger DelPreto. "Maskinen tilpasser sig dig, og ikke omvendt."

Til projektet brugte holdet "Baxter", en humanoid robot fra Rethink Robotics. Med menneskelig opsyn, robotten gik fra at vælge det rigtige mål 70 procent af tiden til mere end 97 procent af tiden.

For at skabe systemet udnyttede holdet kraften i elektroencefalografi (EEG) til hjerneaktivitet og elektromyografi (EMG) til muskelaktivitet, at sætte en række elektroder på brugernes hovedbund og underarm.

Begge metrikker har nogle individuelle mangler:EEG-signaler er ikke altid pålidelige detekterbare, mens EMG-signaler nogle gange kan være svære at kortlægge til bevægelser, der er mere specifikke end "bevæg dig til venstre eller højre." Sammenlægning af de to, imidlertid, giver mulighed for mere robust bio-sensing og gør det muligt for systemet at arbejde på nye brugere uden træning.

"Ved at se på både muskel- og hjernesignaler, vi kan begynde at opfange en persons naturlige bevægelser sammen med deres hurtige beslutninger om, hvorvidt noget går galt, " siger DelPreto. "Dette hjælper med at gøre kommunikation med en robot mere som at kommunikere med en anden person."

Holdet siger, at de kunne forestille sig, at systemet en dag ville være nyttigt for ældre, eller arbejdstagere med sprogforstyrrelser eller begrænset mobilitet.

"Vi vil gerne væk fra en verden, hvor folk skal tilpasse sig maskinernes begrænsninger, " siger Rus. "Tilgange som denne viser, at det i høj grad er muligt at udvikle robotsystemer, der er en mere naturlig og intuitiv forlængelse af os."


Varme artikler