han nyudviklede ansigt af Affetto børne-android-robotten. Affettos ansigt blev først afsløret i offentliggjort forskning i 2011. Kredit:Osaka University
Japans kærlighed til robotter er ingen hemmelighed. Men er følelsen gensidig i landets fantastiske androider? Robotikere er nu et skridt tættere på at give androider større ansigtsudtryk at kommunikere med.
På trods af fremskridt, at fange humanistiske udtryk i et robotansigt er fortsat en uhåndgribelig udfordring. Selvom deres systemegenskaber generelt er blevet behandlet, androiders ansigtsudtryk er ikke blevet undersøgt i detaljer. Dette skyldes faktorer som det enorme udvalg og asymmetrien af naturlige menneskelige ansigtsbevægelser, restriktionerne for materialer, der bruges i android hud, og den indviklede teknik og matematik, der driver robotternes bevægelser.
En trio af forskere ved Osaka University har nu fundet en metode til at identificere og kvantitativt vurdere ansigtsbevægelser på deres android-robot-barnehoved. Ved navn Affetto, den første generations model blev rapporteret i en publikation fra 2011. Forskerne har nu udviklet et system til at gøre anden generation af Affetto mere udtryksfuld. Deres resultater giver androider en vej til at udtrykke større spændvidder af følelser, og i sidste ende have dybere interaktion med mennesker.
Forskerne rapporterede deres resultater i tidsskriftet Grænser inden for robotteknologi og kunstig intelligens .
"Overfladedeformationer er et nøgleproblem i styring af Android-ansigter, " Medforfatter af undersøgelsen Minoru Asada forklarer. "Bevægelser af deres bløde ansigtshud skaber ustabilitet, og dette er et stort hardwareproblem, vi kæmper med. Vi søgte en bedre måde at måle og kontrollere det på."
Forskerne undersøgte 116 forskellige ansigtspunkter på Affetto for at måle dens tredimensionelle bevægelse. Ansigtspunkter blev understøttet af såkaldte deformationsenheder. Hver enhed består af et sæt mekanismer, der skaber en karakteristisk ansigtsforvridning, såsom sænkning eller hævning af en del af en læbe eller øjenlåg. Målinger fra disse blev derefter underkastet en matematisk model for at kvantificere deres overfladebevægelsesmønstre.
Mens forskerne stødte på udfordringer med at balancere den anvendte kraft og justere den syntetiske hud, de var i stand til at bruge deres system til at justere deformationsenhederne for præcis kontrol af Affettos ansigtsoverfladebevægelser.
"Android-robotansigter er ved med at være et sort boks-problem:de er blevet implementeret, men er kun blevet bedømt i vage og generelle vendinger, ", siger førsteforfatter Hisashi Ishihara. "Vores præcise resultater vil give os mulighed for effektivt at kontrollere Androids ansigtsbevægelser for at introducere mere nuancerede udtryk, såsom at smile og rynke panden."