Kredit:CC0 Public Domain
Forskere, der studerer menneske-robot-interaktion, fokuserer ofte på at forstå menneskelige intentioner fra en robots perspektiv, så robotten lærer at samarbejde mere effektivt med mennesker. Men menneske-robot-interaktion er en tovejs-gade, og mennesket skal også lære, hvordan robotten opfører sig.
Takket være årtiers kognitiv videnskab og pædagogisk psykologisk forskning, har videnskabsmænd ret godt styr på, hvordan mennesker lærer nye begreber. Så forskere ved MIT og Harvard University samarbejdede om at anvende veletablerede teorier om menneskelig begrebsindlæring på udfordringer i menneske-robot-interaktion.
De undersøgte tidligere undersøgelser, der fokuserede på mennesker, der forsøgte at lære robotter ny adfærd. Forskerne identificerede muligheder, hvor disse undersøgelser kunne have inkorporeret elementer fra to komplementære kognitive videnskabsteorier i deres metoder. De brugte eksempler fra disse værker til at vise, hvordan teorierne kan hjælpe mennesker med at danne konceptuelle modeller af robotter hurtigere, præcist og mere fleksibelt, hvilket kunne forbedre deres forståelse af en robots adfærd.
Mennesker, der bygger mere nøjagtige mentale modeller af en robot, er ofte bedre samarbejdspartnere, hvilket er særligt vigtigt, når mennesker og robotter arbejder sammen i situationer med stor indsats som fremstilling og sundhedspleje, siger Serena Booth, en kandidatstuderende i Interactive Robotics Group i Computer Science and Artificial Intelligence Laboratory (CSAIL), og hovedforfatter af papiret.
"Uanset om vi forsøger at hjælpe folk med at bygge konceptuelle modeller af robotter, vil de bygge dem alligevel. Og de konceptuelle modeller kan være forkerte. Dette kan bringe folk i alvorlig fare. Det er vigtigt, at vi bruger alt, hvad vi kan, for at give den person den bedste mentale model, de kan bygge," siger Booth.
Booth og hendes rådgiver, Julie Shah, en MIT-professor i luftfart og astronautik og direktør for Interactive Robotics Group, var medforfatter til denne artikel i samarbejde med forskere fra Harvard. Elena Glassman '08, MNG '11, Ph.D. '16, en assisterende professor i datalogi ved Harvard's John A. Paulson School of Engineering and Applied Sciences, med ekspertise i teorier om læring og menneske-computer interaktion, var den primære rådgiver på projektet. Harvard medforfattere omfatter også kandidatstuderende Sanjana Sharma og forskningsassistent Sarah Chung. Forskningen vil blive præsenteret på IEEE Conference on Human-Robot Interaction.
En teoretisk tilgang
Forskerne analyserede 35 forskningsartikler om menneske-robot undervisning ved hjælp af to nøgleteorier. Den "analogiske overførselsteori" antyder, at mennesker lærer ved analogi. Når et menneske interagerer med et nyt domæne eller koncept, leder de implicit efter noget velkendt, de kan bruge til at forstå den nye enhed.
"Variationsteorien om læring" hævder, at strategisk variation kan afsløre begreber, som kan være vanskelige for en person at skelne ellers. Det antyder, at mennesker gennemgår en fire-trins proces, når de interagerer med et nyt koncept:gentagelse, kontrast, generalisering og variation.
Mens mange forskningsartikler inkorporerede delvise elementer af en teori, var dette højst sandsynligt på grund af en tilfældighed, siger Booth. Havde forskerne konsulteret disse teorier i begyndelsen af deres arbejde, havde de måske været i stand til at designe mere effektive eksperimenter.
For eksempel, når forskerne lærer mennesker at interagere med en robot, viser forskerne ofte mange eksempler på, at robotten udfører den samme opgave. Men for at folk kan bygge en nøjagtig mental model af den robot, foreslår variationsteorien, at de skal se en række eksempler på, at robotten udfører opgaven i forskellige miljøer, og de skal også se, at den laver fejl.
"Det er meget sjældent i litteraturen om menneske-robotinteraktion, fordi det er kontraintuitivt, men folk er også nødt til at se negative eksempler for at forstå, hvad robotten ikke er," siger Booth.
Disse kognitive videnskabsteorier kunne også forbedre fysisk robotdesign. Hvis en robotarm ligner en menneskelig arm, men bevæger sig på måder, der er forskellige fra menneskelig bevægelse, vil folk kæmpe for at bygge nøjagtige mentale modeller af robotten, forklarer Booth. Som foreslået af analogisk overførselsteori, fordi folk kortlægger det, de kender – en menneskelig arm – til robotarmen, kan folk blive forvirrede og have svært ved at lære at interagere med robotten, hvis bevægelsen ikke stemmer overens.
Forbedrende forklaringer
Booth og hendes samarbejdspartnere undersøgte også, hvordan teorier om menneskelig begrebslæring kunne forbedre de forklaringer, der søger at hjælpe folk med at opbygge tillid til ukendte, nye robotter.
"I forklarligheden har vi et rigtig stort problem med bekræftelsesbias. Der er normalt ikke standarder omkring, hvad en forklaring er, og hvordan en person skal bruge den. Som forskere designer vi ofte en forklaringsmetode, den ser godt ud for os, og vi send det," siger hun.
I stedet foreslår de, at forskere bruger teorier fra menneskelig begrebslæring til at tænke over, hvordan folk vil bruge forklaringer, som ofte genereres af robotter til klart at kommunikere de politikker, de bruger til at træffe beslutninger. Ved at give en læseplan, der hjælper brugeren med at forstå, hvad en forklaringsmetode betyder, og hvornår den skal bruges, men også hvor den ikke gælder, vil de udvikle en stærkere forståelse af en robots adfærd, siger Booth.
På baggrund af deres analyse kommer de med en række anbefalinger til, hvordan forskning i menneske-robot undervisning kan forbedres. For det første foreslår de, at forskere inkorporerer analogisk overførselsteori ved at guide folk til at foretage passende sammenligninger, når de lærer at arbejde med en ny robot. At give vejledning kan sikre, at folk bruger passende analogier, så de ikke bliver overraskede eller forvirrede over robottens handlinger, siger Booth.
De foreslår også, at det at inkludere positive og negative eksempler på robotadfærd og udsætte brugere for, hvordan strategiske variationer af parametre i en robots "politik" påvirker dens adfærd, i sidste ende på tværs af strategisk varierede miljøer, kan hjælpe mennesker med at lære bedre og hurtigere. Robottens politik er en matematisk funktion, der tildeler sandsynligheder til hver handling, robotten kan udføre.
"Vi har kørt brugerundersøgelser i årevis, men vi har skudt fra hoften i forhold til vores egen intuition, hvad der ville eller ikke ville være nyttigt at vise mennesket. Det næste skridt ville være at være mere stringent om at basere dette arbejde i teorier om menneskelig kognition," siger Glassman.
Nu hvor denne indledende litteraturgennemgang ved hjælp af kognitive videnskabsteorier er færdig, planlægger Booth at teste deres anbefalinger ved at genopbygge nogle af de eksperimenter, hun studerede, og se, om teorierne rent faktisk forbedrer menneskelig læring.