Kredit:CC0 Public Domain
I HBO-showet Westworld , robotter designet til at vise følelser, føle smerte, og dø som mennesker befolker en vidtstrakt forlystelsespark i western-stil for velhavende gæster, der betaler for at udfolde deres fantasier. Efterhånden som showet skrider frem, og robotterne lærer mere om den verden, de lever i, de begynder at indse, at de er legetøj for den person, der har programmeret dem.
Seerne kan konkludere, at mennesker har brug for råd til robotter med så sofistikeret kunstig intelligens - som dem i Westworld — den samme etiske beskyttelse, vi giver hinanden. Men Westworld er et fiktivt tv-program. Og robotter med menneskers kognitive sofistikerede findes ikke.
Alligevel betyder fremskridt inden for kunstig intelligens fra universiteter og teknologivirksomheder, at vi er tættere end nogensinde på at skabe maskiner, der er "omtrent lige så kognitivt sofistikerede som mus eller hunde, " siger John Basl, der er adjunkt i filosofi ved Northeastern University. Han hævder, at disse maskiner fortjener den samme etiske beskyttelse, som vi giver dyr, der er involveret i forskning.
"Mareridtsscenariet er, at vi skaber et maskinsind, og uden at vide, gør noget ved det, der er smertefuldt, "Basl siger." Vi skaber et bevidst væsen og får det derefter til at lide. "
Dyrepleje- og brugsudvalg undersøger omhyggeligt den videnskabelige forskning for at sikre, at dyrene ikke lider unødigt, og standarderne er endnu højere for forskning, der involverer menneskelige stamceller, siger Basl.
Efterhånden som videnskabsmænd og ingeniører kommer tættere på at skabe kunstigt intelligente maskiner, der er bevidste, det videnskabelige samfund er nødt til at opbygge en lignende ramme til beskyttelse af disse intelligente maskiner mod lidelse og smerte, også, siger Basl.
"Normalt venter vi, indtil vi har en etisk katastrofe, og derefter oprette regler bagefter for at forhindre, at det sker igen, " siger Basl. "Vi siger, at vi skal begynde at tænke på det her nu, før vi har en katastrofe."
Basl og hans kollega ved University of California, Riverside, foreslå oprettelse af tilsynsudvalg – sammensat af kognitive videnskabsmænd, kunstig intelligens designere, filosoffer, og etikere - for omhyggeligt at evaluere forskning, der involverer kunstig intelligens. Og de siger, at det er sandsynligt, at sådanne udvalg vil bedømme al nuværende kunstig intelligensforskning tilladt.
Men et filosofisk spørgsmål er kernen i alt dette:Hvordan vil vi vide, når vi har skabt en maskine, der er i stand til at opleve glæde og lidelse, især hvis den maskine ikke kan kommunikere disse følelser til os?
Der er ikke noget let svar på dette spørgsmål, Basl siger, dels fordi videnskabsmænd ikke er enige om, hvad bevidsthed egentlig er.
Nogle mennesker har et "liberalt" syn på bevidsthed, siger Basl. De mener, at alt, hvad der kræves for at bevidstheden eksisterer, er "velorganiseret informationsbehandling, "og et middel til at være opmærksom og planlægge på lang sigt. Folk, der har mere" konservative "synspunkter, han siger, kræver, at robotter har specifikke biologiske egenskaber, såsom en hjerne, der ligner et pattedyrs.
På dette tidspunkt, Basl siger, det er ikke klart, hvilken opfattelse der kan vise sig at være korrekt, eller om der er en anden måde at definere bevidsthed på, som vi ikke har overvejet endnu. Men, hvis vi bruger den mere liberale definition af bevidsthed, Forskere vil måske snart være i stand til at skabe intelligente maskiner, der kan føle smerte og lidelse, og som fortjener etisk beskyttelse, siger Basl.
"Vi kunne være meget langt væk fra at skabe en bevidst AI, eller vi kunne være kunne være tæt på, "Siger Basl." Vi bør være forberedte, hvis vi er tæt på. "