Videnskab
 science >> Videnskab >  >> Elektronik

Kan robotter nogensinde have en sand selvfølelse? Forskere gør fremskridt

Kredit:YAKOBCHUK VIACHESLAV/Shutterstock

At have en følelse af selv er kernen i, hvad det vil sige at være menneske. Uden det, vi kunne ikke navigere, interagere, empati eller i sidste ende overleve i en evigt foranderlig, andres komplekse verden. Vi har brug for en følelse af selv, når vi handler, men også når vi forudser konsekvenserne af potentielle handlinger, af os selv eller andre.

Da vi ønsker at inkorporere robotter i vores sociale verden, det er ikke underligt, at skabe en følelse af selv i kunstig intelligens (AI) er et af de ultimative mål for forskere på området. Hvis disse maskiner skal være vores plejere eller ledsagere, de må uundgåeligt have en evne til at sætte sig i vores sted. Mens videnskabsmænd stadig er langt fra at skabe robotter med en menneskelignende selvfølelse, de kommer tættere på.

Forskere bag en ny undersøgelse, udgivet i Videnskab robotik , har udviklet en robotarm med viden om dens fysiske form – en grundlæggende selvfølelse. Dette er ikke desto mindre et vigtigt skridt.

Der er ingen perfekt videnskabelig forklaring på, hvad der præcist udgør den menneskelige selvfølelse. Nye undersøgelser fra neurovidenskab viser, at kortikale netværk i de motoriske og parietale områder af hjernen aktiveres i mange sammenhænge, ​​hvor vi ikke fysisk bevæger os. For eksempel, at høre ord som "pick or kick" aktiverer de motoriske områder i hjernen. Det samme gør at observere en anden handle.

Den hypotese, der udspringer af dette, er, at vi forstår andre, som om vi selv handler – et fænomen, som videnskabsmænd omtaler som "embodied simulation". Med andre ord, vi genbruger vores egen evne til at handle med vores kropslige ressourcer for at tillægge andres handlinger eller mål betydninger. Motoren, der driver denne simuleringsproces, er en mental model af kroppen eller selvet. Og det er netop det, forskerne forsøger at gengive i maskiner.

Det fysiske jeg

Holdet bag det nye studie brugte et dybt læringsnetværk til at skabe en selvmodel i en robotarm gennem data fra tilfældige bevægelser. Vigtigt, AI'en blev ikke fodret med information om dens geometriske form eller underliggende fysik, den lærte gradvist, mens den bevægede sig og stødte ind i ting - svarende til en baby, der lærte om sig selv ved at observere sine hænder.

Den kunne så bruge denne selvmodel, der indeholder information om dens form, størrelse og bevægelse for at komme med forudsigelser relateret til fremtidige handlingstilstande, såsom at samle noget op med et værktøj. Da forskerne lavede fysiske ændringer i robotarmen, modsigelser mellem robottens forudsigelser og virkeligheden udløste læringssløjfen til at starte forfra, gør det muligt for robotten at tilpasse sin selvmodel til sin nye kropsform.

Mens den nuværende undersøgelse brugte en enkelt arm, lignende modeller udvikles også til humanoide robotter gennem processen med selvudforskning (kaldet sensorisk motorisk pludren) - inspireret af undersøgelser i udviklingspsykologi.

Vi ser ens ud, men vi ved, at vi er forskellige. Kredit:Phonlamai Photo/Shutterstock

Det komplette jeg

Ikke desto mindre, en robotfølelse af selvet kommer ikke i nærheden af ​​den menneskelige. Som et løg, vores selv har flere mystiske lag. Disse omfatter en evne til at identificere sig med kroppen, at være placeret inden for den fysiske krops grænser og opfatte verden fra den krops visuo-spatiale perspektiv. Men det involverer også processer, der går ud over dette, herunder integration af sensorisk information, kontinuitet i tid gennem minder, handlekraft og ejerskab til ens handlinger og privatliv (folk kan ikke læse vores tanker).

Mens jagten på at konstruere en robotisk selvfølelse, der omfatter alle disse mange lag, stadig er i sin vorden, byggeklodser såsom kropsskemaet, der er demonstreret i den nye undersøgelse, er ved at blive oprettet. Maskiner kan også laves til at efterligne andre og forudsige andres hensigter eller tage deres perspektiv. Sådanne udviklinger, sammen med voksende episodisk hukommelse, er også vigtige skridt i retning af at opbygge socialt kognitive robot-ledsagere.

Interessant nok, denne forskning kan også hjælpe os med at lære mere om den menneskelige selvfølelse. Vi ved nu, at robotter kan tilpasse deres fysiske selvmodel, når der sker ændringer i deres krop. En alternativ måde at tænke dette på er i forbindelse med dyrs værktøjsbrug, hvor forskellige eksterne genstande er koblet til kroppen (pinde, gafler, sværd eller smartphones).

Billedundersøgelser viser, at neuroner, der er aktive under håndgreb hos aber, også bliver aktive, når de griber ved hjælp af en tang, som om tangen nu var fingrene. Værktøjet bliver en del af kroppen, og den fysiske selvfølelse er blevet ændret. Det svarer til, hvordan vi betragter avataren på skærmen som os selv, mens vi spiller videospil.

En spændende idé, der oprindeligt blev foreslået af den japanske neurovidenskabsmand Atsushi Iriki, er, at evnen til bogstaveligt talt at inkorporere eksterne objekter i ens krop og evnen til at objektivere andre kroppe som redskaber, er to sider af samme mønt. Bemærkelsesværdigt, denne slørede skelnen kræver fremkomsten af ​​et virtuelt begreb – selvet – for at fungere som pladsholder mellem subjektet/skuespilleren og objekter/redskaber. At tilpasse selvet ved at tilføje eller fjerne værktøjer kan derfor hjælpe os med at undersøge, hvordan dette selv fungerer.

Robotter, der lærer at bruge værktøjer som en udvidelse af deres kroppe, er frugtbare testpladser til at validere sådanne nye data og teorier fra neurovidenskab og psykologi. På samme tid, forskningen vil føre til udvikling af mere intelligente, kognitive maskiner, der arbejder for og med os i forskellige domæner.

Måske er dette det vigtigste aspekt af den nye forskning. Det samler i sidste ende psykologi, neurovidenskab og teknik for at forstå et af de mest fundamentale spørgsmål i videnskaben:Hvem er jeg?

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.