Kredit:University of Western Ontario
Da David Bowman – det overlevende besætningsmedlem ombord på Discovery One-rumfartøjet i Stanley Kubricks 2001:A Space Odyssey – skiller HAL 9000 ad, den følende computer bønfalder i en affektløs, monoton stemme:
"Jeg er bange, Dave."
"Dave, mit sind går. Jeg kan føle det."
Som HALs bevidsthed – eller rettere, hans logik - falmer, han dør mens han synger Daisy Bell, den første sang 'sunget' af en computer i den virkelige verden. Med truslen fjernet, alt er tilsyneladende rigtigt igen.
fejrer sit 50 års jubilæum i denne måned, Kubricks mesterværk har kastet en skygge over genren siden premieren. Dens indflydelse strækker sig ud over skildringer af rum og rumrejser, rører mere end Star Wars, Alien eller Blade Runner.
For eksempel, dens effekt på vores vision om kunstig intelligens (AI) er til at tage og føle på.
Tænk på Amazons Alexa, WHO, ligesom HAL, lytter til hvad du siger.
Men nu, fem årtier senere, har vi udviklet os forbi Kubricks mareridt om en sansende, truende maskine? Hvordan har vores forståelse af, og forhold til, AI ændret? Har vi en grund til at frygte de maskiner, vi programmerer?
Til Catherine Stinson, som for nylig afsluttede et postdoc-stipendium ved Westerns Rotman Institute of Philosophy, Kubricks vision, mens meget forskellig fra den nuværende tilstand af AI, er stadig en truende trussel. Truslen, imidlertid, er ikke maskinen.
"Folk tænkte meget anderledes om AI dengang, faren er, at det ville være en agent, der ville handle anderledes end os, med andre prioriteter end vi har, " hun sagde.
"Det er mindre bekymringen nu. Det bliver ikke en-til-en-interaktionerne (med en sansende maskine), som vi ikke ved, hvordan vi skal håndtere. Det bliver noget, vi har lagt al vores ondskab i , og nu er det ude at gøre ting, der er en forlængelse af menneskers problemer – men i større skala kunne vi ikke have forestillet os. Det er ikke så meget, at maskiner er forskellige fra os – det er de reproducerer menneskers problemer."
En del af problemet, Stinson forklarede, er mennesker, der programmerer AI. Hvordan kan mennesker programmere etiske maskiner? Kan maskiner være etiske? Vi ser os selv som værende kompetente til at træffe etiske beslutninger, fordi vi regelmæssigt beslutter mellem rigtigt og forkert, hun sagde. Vi stoler på et instinkt, vi kender rigtigt og forkert i daglige situationer.
"Men i mere komplicerede situationer, der opstår - som selvkørende biler - er det virkelig svært, selv for nogen, der har uddannelse i etik, at designe, hvad det rigtige at bygge ind i det er, " bemærkede Stinson.
For eksempel, hvis bilen undgår at støde ind i en fodgænger, selvom det vil føre til førerens død? Hvordan vejer du de to forskellige liv i fare? Programmerer du bilen til at redde passagererne i køretøjet eller dem, som den kan kollidere med?
"Jeg ved ikke, hvordan man træffer den slags beslutninger. Jeg ved ikke, at den beslutning er noget, den gennemsnitlige person ved, hvordan man træffer. Det kræver en mere omhyggelig tilgang, og nogen med mere ekspertise skal involveres. Men det er svært at se, at der er det behov, fordi alle tror, de er eksperter, " tilføjede Stinson.
Personer, der tager ingeniør- og teknologikurser, bør uddannes i etik, tilføjede hun. Bortset fra det, virksomheder, der arbejder med kunstig intelligens, kan drage fordel af en intern etiker. Akademiske institutioner kræver i stigende grad, at ingeniører og dataloger tager kurser, der berører emnet. Selvom spørgsmålet om 'etiske maskiner' er til debat, det simple faktum, at vi kan programmere dem til at udføre handlinger, der er rigtige eller forkerte, involverer dem i et "etisk spil, " sagde Stinson.
"Måske kunne vi programmere en maskine til at gøre det rigtige oftere, end vi ville. Men er der grund til at frygte? Selvfølgelig. Der er maskiner, der bliver brugt i retssystemet i USA, træffe beslutninger, der måske ikke er de rigtige. Vi er ikke sikre på, hvordan de træffer disse beslutninger, og der er ingen ansvarlighed over for, hvis skyld det er, hvis de træffer den forkerte beslutning. " bemærkede hun.
Især til strafudmåling, der er AI-programmer, der hjælper dommere med at beslutte, hvad den rigtige straf skal være for en, der er dømt for en forbrydelse. Algoritmen er designet til at gøre strafudmåling mindre forudindtaget ved at tage hensyn til faktorer fra personens fortid, hvilken slags kvarter de voksede op i, hvilken slags mennesker de kendte, tidligere anholdelser, alder for første involvering med politiet, etc.
Alle disse ting er ikke neutrale oplysninger, sagde Stinson. Sådanne kunstig intelligens-programmer er blevet kritiseret for at forstærke de stereotyper, de var designet til at undgå.
"Vi ved ikke, hvad farerne er. En del af bekymringen om farerne er at forsøge at forudsige, hvad de kan være, og beslutte, hvad vi værdsætter, og hvilke ting vi gerne vil have skal ske, for nemheds skyld, " sagde Stinson.
Tim Blackmore, professor ved Det Informations- og Medievidenskabelige Fakultet, har undervist i 2001:A Space Odyssey til studerende i mere end et årti. Han gentog Stinson, at bemærke, at farerne ved kunstig intelligens ligger i det menneskelige element, der spiller. For ham, uanset hvilken form det tager i film eller bøger, AI har altid været en forlængelse af mennesket.
"Tænkemaskiner bliver ofte fremstillet som bevidste om deres egen eksistens og bevidste om eksistentielle problemer. De er et af de mange spejle mennesker bruger til at afspejle, hvad det er at være menneske, " sagde Blackmore.
Og det er mareridtet.
"Indtil nu, det har været et mareridt af 'maskine, der styrer verden'. Det kommer ud af 1960'erne og er formet meget af Vietnam, samt ideen til disse mainframes, disse store maskiner, var en del af et verdensbillede, der løb os ind i et umenneskeligt, deterministisk måde at leve på, der ville føre til folkedrab, " forklarede han.
Men truslen i dag ligger ikke i vores vision om kunstig intelligens som en maskine fra fremtiden, der kan overgå eller erobre os.
"Vi forestiller os meget mindre WALL-E – hjælpemaskinen. Men det er meget mere det. Det er ikke maskinerne, der er et problem; det er menneskerne. Folk gør dårlige ting, "Blackmore bemærkede, tilføjer, at han er nervøs for de "hjælper"-maskiner, vi blindt omfavner.
"Jeg er bekymret for disse diske og cylindre eller hvad Amazon nu er, Google eller Facebook ønsker at komme ind i vores hjem næste gang. Folk ønsker dette; det er en gadget, og det er fedt, fordi det er så svært at tage sin mobiltelefon op og skrive noget i den eller tale ind i den. Vi går ned i truget og suger de ting op, og så vil vi have terabyte af data, der flyver ind i pools, hvor de kan skrubbes for alt. Disse data kan manipuleres af AI-agenter, som bliver bedre og bedre til at lede efter, hvordan man spiller mennesker, " fortsatte han.
"Hvordan denne teknologi vil udvikle sig, så folk kan skubbe folk rundt – det er det, der plejer at være dårlige nyheder for os. Robotoprøret er lavere på min liste."
Sidste artikelSpecialdesignet legering øger nuklear sikkerhed
Næste artikelForskere arbejder på algoritmer, der afslører ansigtsbytte