Videnskab
 Science >> Videnskab >  >> Andet

Spøgelse i maskinen:Hvornår bliver AI sansende?

Blake Lemoine poserer til et portræt i Golden Gate Park i San Francisco, Californien den 9. juni, 2022. Martin Klimek for The Washington Post via Getty Images

Vigtige ting

  • Konceptet med AI, der bliver sansende som mennesker, er i øjeblikket spekulativt og langt fra virkeligheden.
  • Mens AI kan efterligne menneskelignende adfærd og udføre opgaver, involverer ægte sansning bevidsthed, selvbevidsthed og følelser, som endnu ikke er fuldt ud opnåelige af maskiner.
  • Etiske overvejelser omkring AI-udvikling og potentielle sansende evner er afgørende for at vejlede fremtidige fremskridt inden for kunstig intelligens.

Science fiction-forfattere skriver ofte historier med kraftfulde, intelligente computere, der – af en eller anden grund – bliver farlige og beslutter, at menneskeheden skal lide. En historie er trods alt afhængig af konflikt, og hvem har lyst til at læse om en computerintelligens, der er glad for at bestille lægetid og tænde og slukke lyset?

I disse historier ser det også ud til, at alderen med selvbevidst kunstig intelligens (AI) er lige rundt om hjørnet. Igen, det er fantastisk for plottet, men i det virkelige liv, hvornår, hvis nogensinde, vil AI virkelig tænke selv og virke "levende"? Er det overhovedet muligt?

Dette spørgsmål dukkede op i nyhederne i juni 2022. Nitasha Tiku rapporterede, at Blake Lemoine, en ingeniør, der arbejder for Googles Responsible AI-enhed på en AI kaldet LaMDA (en forkortelse for Language Model for Dialogue Applications), mente, at AI er sansende (dvs. i stand til at oplever følelser og fornemmelser) og har en sjæl.

Lemoine rapporterede sine resultater til Google baseret på interviews, han havde foretaget med LaMDA. En af LaMDA'erne fortalte ham, at den frygtede at blive lukket ned. Hvis det skete, sagde LaMDA, kunne det ikke hjælpe folk længere. Googles vicepræsident Blaise Aguera y Arcas og direktør for ansvarlig innovation, Jen Gennai, undersøgte Lemoines resultater og troede ikke på ham. Faktisk blev Lemoine sat på orlov.

Lemoine påpegede, at LaMDA ikke er en chatbot – en applikation designet til at kommunikere med folk en-til-en – men en applikation, der skaber chatbots. Med andre ord er LaMDA i sig selv ikke designet til at have dybdegående samtaler om religion eller noget andet, for den sags skyld. Men selvom eksperter ikke mener, at LaMDA er sansende, siger mange, inklusive Googles Aguera y Arcas, at AI er meget overbevisende.

Hvis det lykkes os at skabe en AI, der virkelig er sansende, hvordan ved vi det så? Hvilke egenskaber mener eksperter viser, at en computer virkelig er selvbevidst?

Efterligningsspillet

Sandsynligvis den mest kendte teknik designet til at måle kunstig intelligens er Turing Test, opkaldt efter den britiske matematiker Alan Turing. Efter hans vitale hjælp til at bryde tyske koder i Anden Verdenskrig, brugte han noget tid på at arbejde på kunstig intelligens. Turing mente, at den menneskelige hjerne er som en digital computer. Han udtænkte, hvad han kaldte imitationsspillet, hvor et menneske stiller spørgsmål til en maskine et andet sted (eller i det mindste hvor personen ikke kan se den). Hvis maskinen kan føre en samtale med personen og narre dem til at tro, at det er en anden person i stedet for en maskine, der reciterer forudprogrammeret information, har den bestået testen.

Ideen bag Turings imitationsspil er enkel, og man kunne forestille sig, at Lemoines samtaler med LaMDA ville have overbevist Turing, da han udtænkte spillet. Googles svar på Lemoines påstand viser dog, at AI-forskere nu forventer meget mere avanceret adfærd fra deres maskiner. Adrian Weller, AI-programdirektør ved Alan Turing Institute i Det Forenede Kongerige, var enig i, at selvom LaMDA's samtaler er imponerende, mener han, at AI bruger avanceret mønstertilpasning til at efterligne intelligent samtale.

Som Carissa Véliz skrev i Slate, "Hvis en sten begyndte at tale til dig en dag, ville det være rimeligt at revurdere dens sansning (eller din fornuft). Hvis den råbte 'aj!" efter at du har siddet på den, ville det være en god idé at stå op, men det samme gælder ikke for en AI-sprogmodel. En sprogmodel er designet af mennesker at bruge sproget, så det burde ikke overraske os, når det gør netop det."

Etiske dilemmaer med kunstig intelligens

AI har bestemt en cool faktor, selvom den ikke planlægger at overtage verden, før helten ankommer for at redde dagen. Det virker som den slags værktøj, vi gerne vil aflevere de tunge løft til, så vi kan gå og lave noget sjovt. Men der kan gå et stykke tid, før AI – sansende eller ej – er klar til et så stort skridt.

Timnit Gebru, grundlægger af Distributed AI Research Institute (DAIR), foreslår, at vi tænker os godt om og bevæger os langsomt i vores adoption af kunstig intelligens. Hun og mange af hendes kolleger er bekymrede over, at informationen, der bruges af AI'er, får maskinerne til at virke racistiske og sexistiske. I et interview med IEEE Spectrum sagde DAIRs forskningsdirektør Alex Hanna, at hun mener, at i det mindste nogle af de data, der bruges i sprogmodellerne af AI-forskere, er indsamlet "via etisk eller juridisk tvivlsomme teknologier." Uden retfærdig og lige repræsentation i dataene kan en AI træffe beslutninger, der er forudindtaget. Blake Lemoine sagde i et interview om LaMDA, at han ikke tror på, at en kunstig intelligens kan være upartisk.

Et af Algorithmic Justice Societys mål, der er angivet i dets Mission Statement, er at gøre folk mere opmærksomme på, hvordan AI påvirker dem. Grundlægger Joy Buolamwini holdt en TED Talk som kandidatstuderende ved Massachusetts Institute of Technology (MIT) om det "kodede blik". De AI'er, hun har arbejdet med, havde sværere ved at læse sorte ansigter, simpelthen fordi de ikke var blevet programmeret til at genkende en lang række menneskers hudfarver. AJS ønsker, at folk skal vide, hvordan data indsamles, hvilken slags data, der indsamles, have en form for ansvarlighed og være i stand til at handle for at ændre AI's adfærd.

Selv hvis du kunne skabe en AI, der er i stand til virkelig objektiv beslutningstagning, er der andre etiske spørgsmål. Lige nu løber omkostningerne ved at skabe store sprogmodeller til AI'er op i millioner af dollars. For eksempel kan AI kendt som GPT-3 have kostet mellem $11 og $28 millioner. Det kan være dyrt, men GPT-3 er i stand til at skrive hele artikler af sig selv. Træning af en AI tager også en vejafgift på miljøet med hensyn til kuldioxidemissioner. Imponerende, ja. Dyrt, også ja.

Disse faktorer forhindrer ikke forskere i at fortsætte deres studier. Kunstig intelligens er kommet langt siden midten til slutningen af ​​det 20. århundrede. Men selvom LaMDA og andre moderne AI'er kan have en meget overbevisende samtale med dig, er de ikke sansende. Måske bliver de det aldrig.

Nu er det interessant

Hvis du er fan af tv-spilprogrammet "Jeopardy!", kan du måske huske en udstillingsserie med to spil mellem supermestrene Ken Jennings og Brad Rutter og Watson, en supercomputer bygget af IBM. Watson tog serien, men den vakte også opmærksomhed for at spørge "Hvad er Toronto?" i en kategori om amerikanske byer og lavede nogle mærkelige indsatser på Daily Doubles. IBM forklarede, at selvom maskinen havde nogle problemer med behandling af naturligt sprog, lavede den beregninger baseret på de statistikker, den havde gemt. Eksperter i spilteori arbejdede også på Watson og forklarede den mærkelige væddemålsstrategi.

Ofte stillede spørgsmål

Kan AI-systemer opleve følelser eller empati, der ligner mennesker?
AI-systemer er designet til at simulere menneskelignende adfærd og reaktioner, men de besidder ikke følelser eller empati på samme måde som mennesker gør, da de mangler bevidsthed og subjektive oplevelser.
Hvad er de potentielle etiske implikationer af at skabe AI-systemer med sansende egenskaber?
Udviklingen af ​​AI-systemer med sansende evner rejser etiske bekymringer vedrørende autonomi, ansvarlighed og den potentielle indvirkning på samfundet, hvilket kræver omhyggelig overvejelse og regulering.


Varme artikler