Hvordan kan vi gøre førerløse biler etiske? Kredit:fra www.shutterstock.com
Hvad ønsker vi, at førerløse biler skal gøre ved uundgåelige dødsulykker?
I dag offentliggjorde forskere et papir The Moral Machine-eksperiment for at løse dette spørgsmål.
For at oprette data til undersøgelsen, næsten 40 millioner mennesker fra 233 lande brugte et websted til at registrere beslutninger om, hvem der skal reddes, og hvem der skal lade dø i hypotetiske scenarier for førerløse biler. Det er en version af det klassiske såkaldte "trolley-dilemma" – hvor man skal foretrække, at folk prioriterer i en nødsituation.
Nogle af nøgleresultaterne er intuitive:Deltagerne foretrækker at redde mennesker frem for dyr, de unge over de gamle, og mere frem for færre. Andre præferencer er mere bekymrende:kvinder frem for mænd, ledere over de hjemløse, pasformen over de overvægtige.
Eksperimentet er uden fortilfælde i både omfang og raffinement:vi har nu en meget bedre fornemmelse af, hvordan folks præferencer i sådanne dilemmaer varierer over hele verden. Forfatterne, fornuftigt, advarer mod at tage resultaterne som en simpel guide til, hvad selvkørende biler skal gøre.
Men dette er blot det første skridt i, hvad der må være en heftig debat. Og i den debat undersøgelser som disse (interessante som de er) kan kun spille en begrænset rolle.
Hvor god er vores første dom?
Maskiner er meget hurtigere end os; de går ikke i panik. Når de er bedst, de kan inkorporere vores velovervejede visdom og anvende den effektivt, selv under vanskelige omstændigheder. At gøre det, imidlertid, vi skal starte med gode data.
Klik på online quizzer er en fantastisk måde at finde ud af, hvad folk tænker, før de dømmer. Alligevel er vi åbenbart ikke bagud for alle fordomme. Forfatterne har udeladt race og nationalitet som begrundelse for valg, og med rette.
Godt undersøgelsesdesign kan ikke udføres i et vakuum. Og moralske præferencer skal ikke kun være smag. At finde ud af den moralsk rigtige ting at gøre (tænk på ethvert moralsk vægtigt valg, du har stået over for), du er nødt til at tænke seriøst.
Vi ønsker at basere etisk kunstig intelligens på vores bedste vurderinger, ikke nødvendigvis vores første.
Verden er 'chancy'
Undersøgelsen brugte dilemmaer, der involverede to bestemte resultater:enten slår du helt sikkert klapvognen eller slår helt sikkert hunden ihjel.
Men faktiske beslutninger involverer betydelig usikkerhed:du kan være usikker på, om personen foran er et barn eller en lille voksen, om at slå dem ville dræbe eller såre dem, om en højhastighedsdrejning kan fungere.
Computere giver måske bedre forudsigelser, men verden er i sig selv "chancy". Dette er et stort problem. Enten eller præferencer går i visse tilfælde kun så langt ved at fortælle os, hvad vi skal gøre i risikable tilfælde.
Antag, at et selvkørende køretøj skal vælge mellem at lade sig styrte og dermed dræbe sin ældre passager, eller i stedet svinge til siden og dræbe et spædbarn.
Det moralske maskineksperiment forudsiger, at folk er på spædbarnets side. Men det siger ikke, hvor meget vi foretrækker at skåne den ene frem for den anden. Måske er det næsten en udslyngning, og vi hælder bare til at skåne barnet. Eller måske er det meget vigtigere at redde barnet end at redde pensionisten.
Synspunkter på dette vil være ekstremt forskellige, og denne undersøgelse giver os ingen vejledning. Men vi kan ikke vide, hvordan vi skal veje, sige, en 10% sandsynlighed for at dræbe barnet mod 50% sandsynlighed for at dræbe pensionisten medmindre vi ved, hvor meget vigtigere det er at skåne den ene end at skåne den anden.
Da bogstaveligt talt alle valg foretaget af førerløse biler vil blive truffet under usikkerhed, dette er et betydeligt hul.
Hvilke undersøgelser kan vi ikke fortælle os
Motivationen for det moralske maskineksperiment er forståelig. Ansvaret for at kode den næste generation af etisk kunstig intelligens er et skræmmende ansvar.
Moralsk uenighed ser ud til at være udbredt. En undersøgelse ligner en god måde at triangulere meninger i en opvarmet verden.
Men hvordan vi håndterer moralsk uenighed er ikke kun et videnskabeligt problem. Det er også moralsk. Og, siden de gamle grækeres tid, løsningen på det moralske problem er ikke at samle præferencer, men demokratisk deltagelse.
Der er ingen tvivl om, at demokratiet er i krise, i hvert fald i dele af den rige verden. Men det er fortsat vores vigtigste værktøj til at træffe beslutninger i nærvær af uundgåelig uenighed.
Demokratisk beslutningstagning kan ikke reduceres til boks. Det indebærer at tage din stemme seriøst, ikke bare at klikke på en boks på et websted. Det indebærer deltagelse, debat, og gensidig begrundelse.
Undersøgelser som denne kan ikke fortælle os, hvorfor folk foretrækker de muligheder, de gør. Det faktum, at en selvkørende bils beslutning hænger sammen med andres synspunkter, gør ikke, på egen hånd, retfærdiggøre dette valg (forestil dig en menneskelig chauffør, der retfærdiggør sine handlinger i en ulykke på samme måde).
Gensidig retfærdiggørelse er hjertet i demokratisk medborgerskab. Og det forudsætter, at vi ikke kun engagerer os i, hvad vores valg er, men hvorfor laver vi dem.
Beslutter sammen
Undersøgelser som denne er iboende interessante, og forfatterne af denne er beundringsværdigt eksplicitte om, hvad det er, og hvad det ikke er designet til at vise.
For at bygge videre på dette grundlag er vi nødt til at reflektere meget mere over, hvordan vi afvejer vores moralske forpligtelser under usikkerhed.
Og vi skal gøre det som en del af en inklusiv demokratisk proces, hvor vi ikke bare samler folks præferencer, men tag alvorligt opgaven med at beslutte, sammen, vores kunstige intelligens fremtid.
Denne artikel er genudgivet fra The Conversation under en Creative Commons -licens. Læs den originale artikel.
Sidste artikelAmazons kvartalsresultat raketter tidoblet til $2,9 mia
Næste artikelTwitter stiger i overskud, omsætningsvækst