Videnskab
 science >> Videnskab >  >> Elektronik

For at beskytte os mod risiciene ved avanceret kunstig intelligens, vi er nødt til at handle nu

Hvad ville kunstig generel intelligens gøre om den menneskelige verden? Kredit:Shutterstock/Nathapol Kongseang

Kunstig intelligens kan spille skak, køre bil og diagnosticere medicinske problemer. Eksempler inkluderer Google DeepMinds AlphaGo, Teslas selvkørende køretøjer, og IBM's Watson.

Denne type kunstig intelligens omtales som Artificial Narrow Intelligence (ANI) – ikke-menneskelige systemer, der kan udføre en bestemt opgave. Vi møder denne type dagligt, og dets brug vokser hurtigt.

Men mens mange imponerende egenskaber er blevet demonstreret, vi begynder også at se problemer. Det værste tilfælde var en selvkørende testbil, der ramte en fodgænger i marts. Fodgængeren døde, og hændelsen er stadig under efterforskning.

Den næste generation af AI

Med den næste generation af kunstig intelligens vil indsatsen næsten helt sikkert være meget højere.

Artificial General Intelligence (AGI) vil have avancerede beregningsevner og intelligens på menneskeligt niveau. AGI-systemer vil være i stand til at lære, løse problemer, tilpasse sig og forbedre sig selv. De vil endda udføre opgaver ud over dem, de er designet til.

Vigtigt, deres forbedringshastighed kan være eksponentiel, da de bliver langt mere avancerede end deres menneskelige skabere. Introduktionen af ​​AGI kunne hurtigt skabe kunstig superintelligens (ASI).

Mens fuldt fungerende AGI-systemer endnu ikke eksisterer, det er blevet anslået, at de vil være med os overalt mellem 2029 og slutningen af ​​århundredet.

Det, der virker næsten sikkert, er, at de kommer til sidst. Når de gør det, der er en stor og naturlig bekymring for, at vi ikke vil være i stand til at kontrollere dem.

Risici forbundet med AGI

Der er ingen tvivl om, at AGI-systemer kan transformere menneskeheden. Nogle af de mere kraftfulde applikationer inkluderer helbredelse af sygdomme, løse komplekse globale udfordringer såsom klimaændringer og fødevaresikkerhed, og sætter gang i et verdensomspændende teknologiboom.

Men manglende gennemførelse af passende kontrol kan føre til katastrofale konsekvenser.

På trods af hvad vi ser i Hollywood-film, eksistentielle trusler involverer sandsynligvis ikke dræberrobotter. Problemet vil ikke være ondsindet, men snarere en intelligens, skriver MIT-professor Max Tegmark i sin bog fra 2017 Life 3.0:Being Human in the Age of Artificial Intelligence.

Det er her, videnskaben om menneske-maskine-systemer - kendt som menneskelige faktorer og ergonomi - vil komme i forgrunden. Der vil opstå risici fra det faktum, at superintelligente systemer vil identificere mere effektive måder at gøre tingene på, sammensætte deres egne strategier for at nå mål, og endda udvikle deres egne mål.

Forestil dig disse eksempler:

  • et AGI-system, der har til opgave at forhindre HIV, beslutter at udrydde problemet ved at dræbe alle, der bærer sygdommen, eller en, der har til opgave at helbrede kræft, beslutter at dræbe alle, der har nogen genetisk disposition for det
  • en autonom AGI militær drone beslutter, at den eneste måde at sikre, at et fjendemål bliver ødelagt, er at udslette et helt samfund
  • en miljøbeskyttende AGI beslutter, at den eneste måde at bremse eller vende klimaændringer på er at fjerne teknologier og mennesker, der fremkalder dem.

Disse scenarier rejser spektret af forskellige AGI-systemer, der kæmper mod hinanden, ingen af ​​dem tager menneskelige bekymringer som deres centrale mandat.

Forskellige dystopiske fremtider er blevet fremme, inklusive dem, hvor mennesker til sidst bliver forældede, med den efterfølgende udryddelse af menneskeheden.

Andre har fremsendt mindre ekstrem, men stadig betydelig forstyrrelse, herunder ondsindet brug af AGI til terror- og cyberangreb, fjernelse af behovet for menneskeligt arbejde, og masseovervågning, for blot at nævne nogle få.

Så der er behov for menneskecentrerede undersøgelser af de sikreste måder at designe og styre AGI på for at minimere risici og maksimere fordelene.

Sådan kontrollerer du AGI

At kontrollere AGI er ikke så ligetil som blot at anvende de samme slags kontroller, der har tendens til at holde mennesker i skak.

Mange kontroller af menneskelig adfærd afhænger af vores bevidsthed, vores følelser, og anvendelsen af ​​vores moralske værdier. AGI'er behøver ikke nogen af ​​disse egenskaber for at forårsage os skade. De nuværende former for kontrol er ikke nok.

Formodentlig, der er tre sæt kontroller, der kræver udvikling og test med det samme:

  1. de kontroller, der kræves for at sikre, at AGI-systemdesignere og -udviklere skaber sikre AGI-systemer
  2. de kontroller, der skal indbygges i selve AGI'erne, såsom "sund fornuft", moral, driftsprocedurer, beslutningsregler, og så videre
  3. de kontroller, der skal tilføjes til de bredere systemer, som AGI vil operere i, såsom regulering, adfærdskodekser, Standard driftsprocedurer, overvågningssystemer, og infrastruktur.

Human Factors and Ergonomics tilbyder metoder, der kan bruges til at identificere, design og test sådanne kontroller i god tid før AGI-systemer ankommer.

For eksempel, det er muligt at modellere de kontroller, der findes i et bestemt system, at modellere den sandsynlige adfærd af AGI-systemer inden for denne kontrolstruktur, og identificere sikkerhedsrisici.

Dette vil give os mulighed for at identificere, hvor nye kontroller er nødvendige, designe dem, og derefter ombygge for at se, om risiciene er fjernet som følge heraf.

Ud over, vores modeller for kognition og beslutningstagning kan bruges til at sikre, at AGI'er opfører sig hensigtsmæssigt og har humanistiske værdier.

Slå til, ikke senere

Denne form for forskning er i gang, men der er ikke nær nok af det, og der er ikke nok discipliner involveret.

Selv den højprofilerede tech-iværksætter Elon Musk har advaret om den "eksistentielle krise" menneskeheden står over for fra avanceret AI og har talt om behovet for at regulere AI, før det er for sent.

Det næste årti eller deromkring repræsenterer en kritisk periode. Der er mulighed for at skabe sikre og effektive AGI-systemer, der kan have vidtrækkende fordele for samfundet og menneskeheden.

På samme tid, en "business-as-usual"-tilgang, hvor vi følger de hurtige teknologiske fremskridt, kunne bidrage til at uddø menneskeheden. Bolden er på vores bane, men det varer ikke længe.

Denne artikel er genudgivet fra The Conversation under en Creative Commons -licens. Læs den originale artikel.




Varme artikler