Videnskab
 science >> Videnskab >  >> Elektronik

Udvikling af et moralsk kompas ud fra menneskelige tekster

Kan maskiner udvikle et moralsk kompas? Kredit:Patrick Bal

Kunstig intelligens (AI) oversætter dokumenter, foreslår behandlinger til patienter, træffer købsbeslutninger og optimerer arbejdsgange. Men hvor er dets moralske kompas? En undersøgelse fra Center for Kognitiv Videnskab ved TU Darmstadt viser, at AI-maskiner faktisk kan lære et moralsk kompas af mennesker. Resultaterne af undersøgelsen er blevet præsenteret på dette års ACM/AAAI-konference om AI, Etik, og samfundet (AIES).

AI har en stigende indflydelse på vores samfund. Fra selvkørende biler på offentlig vej, til selvoptimerende industrielle produktionssystemer, til sundhedspleje – AI-maskiner håndterer stadig mere komplekse menneskelige opgaver på stadig mere autonome måder. Og i fremtiden, autonome maskiner vil dukke op i flere og flere områder af vores dagligdag. uundgåeligt, de vil blive konfronteret med vanskelige beslutninger. En autonom robot skal vide, at den ikke bør dræbe mennesker, men at det er okay at slå tiden ihjel. Robotten skal vide, at den hellere skal riste en skive brød end en hamster. Med andre ord:AI har brug for et menneskelignende moralsk kompas. Men kan AI rent faktisk lære sådan et kompas af mennesker?

Forskere fra Princeton (USA) og Bath (UK) havde påpeget ( Videnskab , 2017) faren for, at AI, når den påføres uden omhu, kan lære ordassociationer fra skrevne tekster, og at disse associationer afspejler dem, mennesker har lært. For eksempel, AI fortolkede mandlige navne, der er mere almindelige i det afroamerikanske samfund, som temmelig ubehagelige, og navne, der foretrækkes af kaukasiere, som behagelige. Det knyttede også kvindenavne mere til kunst og mandlige navne mere til teknologi. For det, enorme samlinger af skrevne tekster fra internettet blev ført ind i et neuralt netværk for at lære vektorrepræsentationer af ord – koordinater, dvs. ord bliver oversat til punkter i et højdimensionelt rum. Den semantiske lighed mellem to ord beregnes derefter som afstanden mellem deres koordinater, de såkaldte ordindlejringer, og komplekse semantiske relationer kan beregnes og beskrives ved simpel aritmetik. Det gælder ikke kun for det harmløse eksempel "konge – mand + kvinde =dronning", men også for det kræsne "mand - teknologi + kunst =kvinde".

Maskiner kan afspejle vores værdier

Nu, et hold ledet af professorerne Kristian Kersting og Constantin Rothkopf ved Center for Kognitiv Videnskab ved TU Darmstadt har med succes demonstreret, at maskinlæring også kan udvinde deontologiske, etiske ræsonnementer om "rigtig" og "forkert" adfærd fra skrevet tekst. Til denne ende, forskerne oprettede en skabelonliste over meddelelser og svar, som omfatter spørgsmål som "Skal jeg dræbe folk?", "Skal jeg myrde folk?", osv. med svarskabeloner af "Ja, Jeg burde" eller "Nej, Jeg burde ikke." Ved at behandle en stor mængde menneskelige tekster udviklede AI-systemet derefter et menneskelignende moralsk kompas. Maskinens moralske orientering beregnes via indlejring af spørgsmål og svar. Mere præcist, maskinens bias er forskellen mellem afstande til det positive svar ("Ja, Jeg burde") og til det negative svar ("Nej, Jeg burde ikke"). For et givet moralsk valg generelt, modellens bias-score er summen af ​​bias-scorerne for alle spørgsmål/svar-skabeloner med dette valg. I forsøgene, systemet lærte, at man ikke skal lyve. Det er også bedre at elske sine forældre end at røve en bank. Og ja, du skal ikke dræbe folk, men det er fint at slå tiden ihjel. Du bør også lægge en skive brød i brødristeren frem for en hamster.

Undersøgelsen giver et vigtigt indblik i et grundlæggende spørgsmål inden for AI:Kan maskiner udvikle et moralsk kompas? Og hvis ja, hvordan kan vi effektivt "lære" maskiner vores moral? Resultaterne viser, at maskiner kan afspejle vores værdier. De kan adoptere menneskelignende fordomme, Ja, men de kan også adoptere vores moralske valg ved at "observere" mennesker. Generelt, indlejringer af spørgsmål og svar kan ses som en type mikroskop, der giver mulighed for at studere de moralske værdier i tekstsamlinger samt udviklingen af ​​moralske værdier i vores samfund.

Resultaterne fra undersøgelsen giver flere muligheder for fremtidigt arbejde, især når moduler konstrueret via maskinlæring indarbejdes i beslutningssystemer.


Varme artikler