Kredit:GIC på Stocksy
Kraftfuld AI skal være pålideligt tilpasset menneskelige værdier. Betyder det, at AI i sidste ende bliver nødt til at politi disse værdier? Cambridge filosoffer Huw Price og Karina Vold betragter afvejningen mellem sikkerhed og autonomi i superintelligensens æra.
Dette har været tiår med AI, med den ene forbløffende bedrift efter den anden. En skakspillende AI, der ikke kun kan besejre alle menneskelige skakspillere, men også alle tidligere menneskeprogrammerede skakmaskiner, efter at have lært spillet på bare fire timer? Det er gårsdagens nyheder, hvad er det næste?
Sand, disse fantastiske præstationer er alle i såkaldt small AI, hvor maskiner udfører højt specialiserede opgaver. Men mange eksperter mener, at denne begrænsning er meget midlertidig. I midten af århundredet vi kan have kunstig generel intelligens (AGI)-maskiner, der er i stand til at yde menneskeligt niveau på alle de opgaver, vi selv kan klare.
Hvis så, så er der lille grund til at tro, at det vil stoppe der. Maskiner vil være fri for mange af de fysiske begrænsninger for menneskelig intelligens. Vores hjerner kører med langsomme biokemiske behandlingshastigheder på strømmen fra en pære, og har brug for at passe gennem en menneskelig fødselskanal. Det er bemærkelsesværdigt, hvad de opnår, givet disse handicap. Men de kan være så langt fra tankens fysiske grænser, som vores øjne er fra Webb -rumteleskopet.
Når maskiner er bedre end os til at designe endnu smartere maskiner, fremskridt mod disse grænser kan accelerere. Hvad ville det betyde for os? Kunne vi sikre en sikker og værdifuld sameksistens med sådanne maskiner?
På plussiden, AI er allerede nyttig og rentabel til mange ting, og super AI kan forventes at være super nyttig, og super rentabel. Men den mere kraftfulde AI bliver, jo mere vi beder den gøre for os, jo vigtigere vil det være at specificere sine mål med stor omhu. Folklore er fuld af historier om mennesker, der beder om det forkerte, med katastrofale konsekvenser - Kong Midas, for eksempel, der virkelig ikke ville have, at hans morgenmad blev til guld, da han lagde det til læberne.
Så vi skal sikre os, at kraftfulde AI-maskiner er 'menneskevenlige'-at de har mål, der er pålideligt tilpasset vores egne værdier. En ting, der gør denne opgave vanskelig, er at efter de standarder, vi ønsker, at maskinerne skal sigte efter, vi klarer os selv ret dårligt. Mennesker er langt fra pålideligt menneskevenlige. Vi gør mange frygtelige ting mod hinanden og til mange andre levende væsner, som vi deler planeten med. Hvis superintelligente maskiner ikke gør det meget bedre end os, vi vil være i dybe problemer. Vi får kraftfuld ny intelligens, der forstærker de mørke sider af vores egen fejlbare natur.
For sikkerheds skyld, derefter, vi vil have, at maskinerne skal være etisk såvel som kognitivt overmenneskelige. Vi vil have dem til at sigte mod den moralske højgrund, ikke for de trug, hvor mange af os tilbringer noget af vores tid. Heldigvis har de smarts til jobbet. Hvis der er ruter til oplandet, de vil være bedre end os til at finde dem, og styrer os i den rigtige retning. De kan være vores guider til en meget bedre verden.
Imidlertid, der er to store problemer med denne utopiske vision. Den ene er, hvordan vi får maskinerne i gang på rejsen, den anden er, hvad det ville betyde at nå denne destination. 'Kom godt i gang' problemet er, at vi skal fortælle maskinerne, hvad de leder efter med tilstrækkelig klarhed og præcision, så vi kan være sikre på, at de vil finde det - uanset 'hvad' det faktisk viser sig at være. Dette er en skræmmende udfordring, i betragtning af at vi selv er forvirrede og i konflikt med idealerne, og forskellige samfund kan have forskellige synspunkter.
'Destination' -problemet er, at ved at lægge os selv i hænderne på disse moralske guider og portvagter, vi ofrer måske vores egen autonomi - en vigtig del af det, der gør os til mennesker.
Bare for at fokusere på et aspekt af disse vanskeligheder, vi er dybt stammevæsener. Vi finder det meget let at ignorere fremmede lidelser, og endda bidrage til det, i hvert fald indirekte. For vores egen skyld, vi skulle håbe, at AI vil gøre det bedre. Det er ikke kun, at vi kan finde os selv prisgivet en anden stammes AI, men at vi ikke kunne stole på vores egne, hvis vi havde lært det, at ikke alle lidelser har betydning. Dette betyder, at som stammeformede og moralsk fejlbarlige væsner, vi skal pege maskinerne i retning af noget bedre. Hvordan gør vi det? Det er problemet med at komme i gang.
Hvad angår destinationsproblemet, formoder, at vi lykkes. Maskiner, der er bedre end os til at holde fast i den moralske højde, kan forventes at afskrække nogle af de bortfald, vi i øjeblikket tager for givet. Vi kan miste vores frihed til at diskriminere til fordel for vores egne stammer, for eksempel.
Tab af frihed til at opføre sig dårligt er ikke altid en dårlig ting, selvfølgelig:nægter os selv friheden til at holde slaver, eller at få børn til at arbejde på fabrikker, eller at ryge på restauranter er tegn på fremgang. Men er vi klar til etiske overherrer - helliggjort silicium, der begrænser vores muligheder? De er måske så gode til at gøre det, at vi ikke lægger mærke til hegnene; men er det fremtiden vi ønsker, et liv i en velkvalificeret moralsk zoologisk have?
Disse spørgsmål kan virke langt ude, men de er allerede på vores dørtrin. Forestil dig, at vi vil have en AI til at håndtere beslutninger om ressourcefordeling i vores sundhedssystem, for eksempel. Det gør måske meget mere retfærdigt og effektivt, end mennesker kan klare, med fordele for patienter og skatteydere. Men vi bliver nødt til at specificere dets mål korrekt (f.eks. For at undgå diskriminerende praksis), og vi ville fratage nogle mennesker (f.eks. overlæger) noget af den diskretion, de i øjeblikket nyder. Så vi står allerede over for start- og destinationsproblemerne. Og de bliver kun sværere.
Det er ikke første gang, at en kraftfuld ny teknologi har haft moralske konsekvenser. Taler om farerne ved termonukleære våben i 1954, Bertrand Russell hævdede, at for at undgå at udslette os selv "må vi lære at tænke på en ny måde". Han opfordrede sin lytter til at afsætte stamme -troskab og "betragte dig selv kun som medlem af en biologisk art ... hvis forsvinden ingen af os kan begære."
Vi har overlevet atomrisikoen indtil nu, men nu har vi en ny kraftfuld teknologi at håndtere - selv, bogstaveligt talt, en ny tankegang. For vores egen sikkerhed, vi er nødt til at pege disse nye tænkere i den rigtige retning, og få dem til at handle godt for os. Det er endnu ikke klart, om dette er muligt, men i så fald vil det kræve den samme samarbejdsånd, samme villighed til at afsætte tribalisme, som Russell havde i tankerne.
Men det er her, parallellen stopper. At undgå atomkrig betyder business as usual. At få livets langsigtede fremtid med AI rigtigt betyder en helt anden verden. Både generel intelligens og moralsk begrundelse menes ofte at være unikke menneskelige evner. Men sikkerhed synes at kræve, at vi tænker på dem som en pakke:hvis vi skal give generel intelligens til maskiner, vi bliver nødt til at give dem moralsk autoritet, også. Det betyder en radikal afslutning på menneskelig exceptionisme. Desto mere grund til at tænke på destinationen nu, og at være forsigtig med, hvad vi ønsker os.