Kredit:Rensselaer Polytekniske Institut
En storøjet, blødt-talt robot ved navn Pepper-motorer omkring Intelligent Systems Lab på Rensselaer Polytechnic Institute. En af forskerne tester Pepper, lave forskellige bevægelser, mens robotten nøjagtigt beskriver, hvad han laver. Når han krydser armene, robotten identificerer ud fra sit kropssprog, at noget er slukket.
"Hej, vær venlig mod mig, " siger Pepper.
Peppers evne til at opfange ikke-verbale signaler er et resultat af den forbedrede "vision", som laboratoriets forskere er ved at udvikle. Ved hjælp af avanceret computersyn og kunstig intelligens-teknologi, holdet forbedrer robotter som dennes evne til naturligt at interagere med mennesker.
"Det, vi har gjort indtil videre, er at tilføje visuelle forståelsesmuligheder til robotten, så det kan opfatte menneskelig handling og kan naturligt interagere med mennesker gennem denne non-verbale adfærd, som kropsbevægelser, ansigtsudtryk, og kropsholdning, " sagde Qiang Ji, professor i el, computer, og systemteknik, og direktøren for Intelligent Systems Lab.
Med støtte fra offentlige midler gennem årene, forskere ved Rensselaer har kortlagt det menneskelige ansigt og krop, så computere, ved hjælp af kameraer indbygget i robotterne og maskinlæringsteknologier, kan opfatte ikke-verbale signaler og identificere menneskelig handling og følelser.
Blandt andet, Pepper kan tælle hvor mange mennesker der er i et rum, scanne et område for at lede efter en bestemt person, estimere en persons alder, genkende ansigtsudtryk, og opretholde øjenkontakt under en interaktion.
En anden robot, ved navn Zeno, ligner mere en person og har motorer i ansigtet, der gør den i stand til tæt at spejle menneskets udtryk. Forskerholdet har finpudset Zenos evne til at efterligne menneskelig ansigtskommunikation i realtid helt ned til øjenbryn – og endda øjeæble – bevægelse.
Ji ser computersyn som det næste skridt i udviklingen af teknologier, som folk interagerer med i deres hjem hver dag. I øjeblikket, mest populære AI-aktiverede virtuelle assistenter er næsten udelukkende afhængige af vokale interaktioner.
"Der er ingen visionskomponent. Dybest set, det er kun en lydkomponent, " sagde Ji. "I fremtiden, vi tror, det bliver multimodalt, med både verbal og nonverbal interaktion med robotten."
Teamet arbejder på andre visionscentrerede udviklinger, som teknologi, der ville være i stand til at spore øjenbevægelser. Sådanne værktøjer kan bruges på smartphones og tablets.
Ji sagde, at forskningen, der udføres i hans laboratorium, i øjeblikket støttes af National Science Foundation og Defense Advanced Research Projects Agency. Ud over, Intelligent Systems Lab har modtaget finansiering gennem årene fra offentlige og private kilder, herunder det amerikanske forsvarsministerium, det amerikanske transportministerium, og Honda.
Det, Jis team udvikler, kunne også bruges til at gøre vejene sikrere, han sagde, ved at installere computer-vision-systemer i biler.
"Vi vil være i stand til at bruge denne teknologi til i sidste ende at opdage, om chaufføren er træt, eller føreren er distraheret, " sagde han. "Den forskning, vi laver, er mere menneskecentreret AI. Vi ønsker at udvikle AI, maskinlæringsteknologi, at udvide ikke kun menneskers fysiske evner, men også deres kognitive evner."
Det er her, Pepper og Zeno kommer ind i billedet. Ji forestiller sig en tid, hvor robotter kunne holde mennesker med selskab og forbedre deres liv. Han sagde, at det er det ultimative mål.
"Denne robot kan være en følgesvend for mennesker i fremtiden, "Ji sagde, peger på Pepper. "Den kunne lytte til mennesker, forstå menneskelige følelser, og reagere gennem både verbal og non-verbal adfærd for at imødekomme menneskers behov."