Kredit:Radachynskyi Serhii, Shutterstock
Mennesker med autisme ser, høre og føle verden anderledes end andre mennesker, som påvirker, hvordan de interagerer med andre. Dette gør kommunikationscentrerede aktiviteter ret udfordrende for børn med autismespektrumtilstande (ASC'er). Terapeuter har derfor svært ved at engagere dem i disse aktiviteter under pædagogisk terapi.
For at løse denne udfordring, terapeuter begyndte for nylig at bruge humanoide robotter i terapisessioner. Imidlertid, eksisterende robotter mangler evnen til selvstændigt at engagere sig med børn, som er afgørende for at forbedre terapien. Og det faktum, at mennesker med ASC'er har atypiske og forskelligartede stile til at udtrykke deres tanker og følelser, gør brugen af sådanne robotter endnu mere udfordrende.
Forskere, der arbejder på det EU-finansierede projekt EngageME, har nu skabt en personlig maskinlæringsramme for robotter, der bruges under autismeterapi. Som de beskriver i deres papir udgivet i Videnskab robotik , denne ramme hjælper robotter med automatisk at opfatte påvirkningen – ansigtsbehandling, vokal og gestusadfærd – og engagement af børn, når de interagerer med dem.
En personlig tilgang
For at opnå dette spændende fremskridt, projektpartnere havde indset, at i tilfælde af børn med ASC'er, én størrelse passer ikke alle. Som resultat, de tilpassede deres rammer til hvert barn ved hjælp af demografiske data, adfærdsvurderingsscore og andre egenskaber, der er unikke for det pågældende barn. Den nye ramme gjorde det muligt for robotterne automatisk at tilpasse deres fortolkninger af børns reaktioner ved at tage højde for kulturelle og individuelle forskelle mellem dem.
"Udfordringen med at skabe maskinlæring og AI [kunstig intelligens], der virker i autisme, er særlig irriterende, fordi de sædvanlige AI-metoder kræver en masse data, der ligner hinanden for hver kategori, der læres. I autisme, hvor heterogenitet hersker, de normale AI-tilgange fejler, " forklarede medforfatter Prof. Rosalind Picard i en artikel udsendt på "MIT News."
Robot-assisteret terapi
Forskerne testede deres model på 35 børn fra Japan og Serbien. i alderen 3 til 13 år, børnene interagerede med robotterne i 35-minutters sessioner. De humanoide robotter formidlede forskellige følelser – vrede, frygt, lykke og tristhed - ved at ændre farven på deres øjne, tonen i deres stemme og positionen af deres lemmer.
Da det interagerede med et barn, robotten ville optage video af deres ansigtsudtryk, bevægelser og hovedstilling, samt lydoptagelser af deres tonefald og vokaliseringer. En monitor på hvert barns håndled gav også robotten data om deres kropstemperatur, puls og hudsvedrespons. Dataene blev brugt til at udtrække barnets forskellige adfærdssignaler og blev derefter ført ind i robottens perceptionsmodul.
Brug af deep learning-modeller, robotten estimerede derefter barnets påvirkning og engagement baseret på de udtrukne adfærdssignaler. Resultaterne blev brugt til at modulere barn-robot-interaktionen i efterfølgende terapisessioner.
Audiovisuelle optagelser af terapisessionerne blev også observeret af menneskelige eksperter. Deres vurderinger af børnenes svar viste en 60 % korrelation med robotternes opfattelse. Dette var et højere overensstemmelsesniveau end opnået mellem menneskelige eksperter. Undersøgelsens resultater tyder på, at trænede robotter kan spille en vigtig rolle i autismeterapi i fremtiden.
EngageME (Automated Measurement of Engagement Level of Children with Autism Spectrum Conditions during Human-Robot Interaction) arbejder på at forstærke robotter med nøgleinformation, der vil hjælpe terapeuter med at tilpasse terapier og gøre menneske-robot interaktion mere engagerende og naturlig.