Videnskab
 science >> Videnskab >  >> Elektronik

Denne hjælperobot styres via hjerne-computer-interface

Kredit:Arrichiello et al.

Forskere ved University of Cassino og Southern Lazio, i Italien, har for nylig udviklet en banebrydende arkitektur, der muliggør betjening af en hjælperobot via en P300-baseret hjernecomputergrænseflade (BCI). Denne arkitektur, præsenteret i et papir, der er forududgivet på arXiv, endelig kunne tillade personer med alvorlige bevægelseshandicap at udføre manipulationsopgaver, og dermed forenkle deres liv.

Systemet udviklet af forskerne er baseret på en let robotmanipulator. I det væsentlige, denne manipulator modtager kommandoer på højt niveau fra brugere via en BCI baseret på P300-paradigmet. I neurovidenskab, P300-bølger er reaktioner fremkaldt af et menneskes hjerne under beslutningsprocessen.

"Hovedformålet med vores arbejde var at realisere et system, der giver brugerne mulighed for at generere direktiver på højt niveau for robotmanipulatorer gennem hjernecomputergrænseflader (BCI'er), " Filippo Arrichiello, en af ​​de forskere, der har udført undersøgelsen, fortalte TechXplore. "Sådanne direktiver oversættes derefter til bevægelseskommandoer for den robotmanipulator, der autonomt udfører den tildelte opgave, samtidig med at brugerens sikkerhed sikres."

Arkitekturen udviklet af forskerne har tre nøglekomponenter:en P300 BCI-enhed, en hjælperobot og et perceptionssystem. Arrichiello og hans kolleger integrerede disse tre elementer i et ROS-miljø, en kendt software middleware til robotikapplikationer.

Arkitekturens første komponent, P300 BCI-enheden, måler elektrisk aktivitet i hjernen via elektroencefalografi (EEG). Det oversætter derefter disse hjernesignaler til kommandoer, der kan føres til en computer.

"P300-paradigmet for BCI bruger brugerens hjernes reaktion på eksterne stimuli, dvs. blinkende ikoner på en skærm, for at give brugeren mulighed for at vælge et element på skærmen ved at reagere (f.eks. ved at tælle) hver gang det ønskede ikon blinker, " Arrichiello forklarede. "Dette giver brugeren mulighed for at udføre et sæt af valg blandt et sæt foruddefinerede elementer og opbygge meddelelser på højt niveau til robotten om den handling, der skal udføres, såsom manipulation af et objekt."

For at udføre de handlinger, brugerne ønsker, forskerne brugte en letvægts robotmanipulator kaldet Kinova Jaco. Denne hjælperobots kontrolsoftware modtager direktiver på højt niveau genereret af brugeren via BCI og oversætter dem til bevægelseskommandoer. Dens bevægelse styres via en lukket sløjfe invers kinematisk algoritme, der samtidigt kan håndtere forskellige opgaver.

  • Kredit:Arrichiello et al.

  • Kredit:Arrichiello et al.

"Den kontrolarkitektur, vi udviklede, giver robotten mulighed for at nå flere og prioriterede mål, dvs. at opnå manipulationsopgaven og samtidig undgå kollision med brugeren og/eller med eksterne forhindringer, og mens man respekterer begrænsninger som robottens mekaniske grænser, " sagde Arrichiello.

Den sidste komponent i arkitekturen udtænkt af Arrichiello og hans kolleger er et perceptionssystem, der er baseret på en RGB-D-sensor (dvs. en Microsoft Kinect One), blandt andet. Systemet bruger Kinect One-sensoren til at detektere og lokalisere objekter, der skal manipuleres af robotten i arbejdsområdet. Sensoren kan også registrere en brugers ansigt, estimere positionen af ​​hans/hendes mund og genkende forhindringer.

"De praktiske implikationer af vores undersøgelse er ret ligetil og ambitiøse, "Arrichiello sagde. "Dets endelige mål er at bevæge sig i retning af at opbygge et pålideligt og effektivt robot-set-up, der endelig kan hjælpe brugere med alvorlige mobilitetsnedsættelser til at udføre daglige operationer selvstændigt og uden konstant støtte fra en plejer."

Da forskerne begyndte at arbejde på at udvikle en hjælperobot drevet af en BCI, de eksperimenterede først med et system bestående af en enkelt fast-base manipulator, der genkender objekter gennem markører og med en prækonfigureret brugergrænseflade. De har nu avanceret denne arkitektur betydeligt, til det punkt, at det giver brugerne mulighed for at håndtere mere komplekse robotsystemer, såsom mobile robotter med dobbeltarme.

  • Kredit:Arrichiello et al.

  • Kredit:Arrichiello et al.

"Vi har også forbedret perceptionsmodulet, som nu kan genkende og lokalisere objekter baseret på deres former, " Arrichiello forklarede. "Endelig, vi arbejdede på interaktionen mellem perceptionsmodulet og den grafiske brugergrænseflade (GUI) for at skabe GUI-dynamik i overensstemmelse med perceptionsmodulets detektioner (f.eks. brugergrænsefladen opdateres på basis af antallet og typen af ​​objekter, der genkendes på et bord af opfattelsesmodulet). "

For at evaluere ydeevnen og effektiviteten af ​​deres arkitektur, Arrichiello og hans kolleger udførte en række foreløbige eksperimenter, opnå meget lovende resultater. I fremtiden, deres system kan ændre livet for personer, der er påvirket af bevægelseshandicap og fysiske skader, giver dem mulighed for at udføre en lang række manipulationsopgaver.

"Fremtidig forskning vil først og fremmest være rettet mod at forbedre robustheden og pålideligheden af ​​arkitekturen, ud over at øge systemets applikationsdomæne, " sagde Arrichiello. "Desuden, vi vil teste forskellige BCI-paradigmer, dvs. en anden måde at bruge BCI på som dem, der er baseret på motoriske billeder, for at identificere den bedst egnede til teleoperationsapplikationer, hvor brugeren kan styre robotten ved at bruge BCI som en slags joystick, uden at begrænse den bevægelseskommando, der kan overføres til robotterne, til et foruddefineret sæt."

© 2019 Science X Network




Varme artikler