Regeringerne kunne tilskynde til integration af menneskelig og kunstig intelligens. Kredit:sdecoret/Shutterstock
Opfindelsen af en kunstig superintelligens har været et centralt tema i science fiction siden mindst det 19. århundrede. Fra E.M. Forsters novelle The Machine Stops (1909) til den seneste HBO tv -serie Westworld, forfattere har haft en tendens til at fremstille denne mulighed som en uforløst katastrofe. Men dette spørgsmål er ikke længere fiktion. Fremtrædende samtidige forskere og ingeniører er nu også bekymrede for, at super-AI en dag kan overgå menneskelig intelligens (en begivenhed kendt som "singulariteten") og blive menneskehedens "værste fejl."
Aktuelle tendenser tyder på, at vi er klar til at deltage i et internationalt våbenkapløb om en sådan teknologi. Uanset hvilket højteknologisk firma eller regeringslaboratorium, der lykkes med at opfinde den første super-AI, vil det opnå en potentielt verdensdominerende teknologi. Det er en vinder-tager-alt-præmie. Så for dem, der ønsker at stoppe en sådan begivenhed, Spørgsmålet er, hvordan man fraråder denne form for våbenkapløb, eller i det mindste tilskynde konkurrerende hold til ikke at skære hjørner med AI -sikkerhed.
En super-AI rejser to grundlæggende udfordringer for sine opfindere, som filosoffen Nick Bostrom og andre har påpeget. Den ene er et kontrolproblem, hvilket er, hvordan man sikrer, at super-AI har de samme mål som menneskeheden. Uden dette, intelligensen kunne bevidst, ved et uheld eller ved forsømmelse ødelægge menneskeheden - en "AI-katastrofe."
Det andet er et politisk problem, sådan kan man sikre, at fordelene ved en superintelligens ikke kun går til en lille elite, forårsager massive sociale og velstandsmæssige uligheder. Hvis der opstår et super-AI-våbenkapløb, det kan få konkurrerende grupper til at ignorere disse problemer for hurtigere at udvikle deres teknologi. Dette kan føre til en dårlig kvalitet eller uvenlig super-AI.
En foreslået løsning er at bruge offentlig politik til at gøre det sværere at deltage i løbet for at reducere antallet af konkurrerende grupper og forbedre mulighederne for dem, der deltager. Jo færre der konkurrerer, jo mindre pres vil der være for at skære hjørner for at vinde. Men hvordan kan regeringer mindske konkurrencen på denne måde?
Min kollega Nicola Dimitri og jeg offentliggjorde for nylig et papir, der forsøgte at besvare dette spørgsmål. Vi viste først, at i et typisk vinder-tager hele løb, som den, der byggede den første super-AI, kun de mest konkurrencedygtige hold vil deltage. Dette skyldes, at sandsynligheden for faktisk at opfinde super-AI er meget lille, og at deltage i løbet er meget dyrt på grund af den store investering i forskning og udvikling, der er nødvendig.
Ja, dette ser ud til at være den nuværende situation med udviklingen af enklere "smal" AI. Patentansøgninger for denne form for kunstig intelligens er domineret af nogle få firmaer, og størstedelen af AI-forskning udføres i kun tre regioner (USA, Kina og Europa). Der synes også at være meget få, hvis nogen, grupper, der i øjeblikket investerer i at bygge en super-AI.
Dette tyder på, at reduktion af antallet af konkurrerende grupper ikke er den vigtigste prioritet i øjeblikket. Men selv med et mindre antal konkurrenter i løbet, konkurrenceintensiteten kan stadig føre til ovennævnte problemer. Så for at reducere intensiteten af konkurrencen mellem grupper, der stræber efter at bygge en super-AI og øge deres evner, regeringer kunne henvende sig til offentlige indkøb og skatter.
Offentlige indkøb refererer til alle de ting, regeringer betaler private virksomheder for at levere, fra software til brug i offentlige instanser til kontrakter om drift af tjenester. Regeringer kunne pålægge enhver super-AI-leverandør begrænsninger, der krævede, at de skulle løse de potentielle problemer, og understøtter komplementære teknologier til at forbedre menneskelig intelligens og integrere den med AI.
Men regeringer kunne også tilbyde at købe en mindre end bedste version af super-AI, effektivt at skabe en "andenpræmie" i våbenkapløbet og forhindre det i at være en vinder-tager-alt-konkurrence. Med en mellempræmie, som kunne være til at opfinde noget tæt på (men ikke ligefrem) en super-AI, konkurrerende grupper vil have et incitament til at investere og samarbejde mere, at reducere konkurrenceintensiteten. En anden præmie ville også reducere risikoen for fiasko og retfærdiggøre flere investeringer, med til at øge de konkurrerende holds kapacitet.
Hvad angår skatter, regeringer kunne fastsætte skattesatsen på gruppen, der opfinder super-AI i henhold til hvor venlig eller uvenlig AI er. En høj nok skattesats ville i det væsentlige betyde nationaliseringen af super-AI. Dette ville kraftigt afskrække private virksomheder fra at skære ned af frygt for at miste deres produkt til staten.
Offentligt gode ikke privat monopol
Denne idé kan kræve bedre global koordinering af beskatning og regulering af super-AI. Men det behøver ikke alle regeringer at være involveret. I teorien, et enkelt land eller en region (f.eks. EU) kan bære de omkostninger og kræfter, der er forbundet med at tackle problemer og etik ved super-AI. Men alle lande ville gavne, og super-AI ville blive et offentligt gode snarere end et ustoppeligt privat monopol.
Alt dette afhænger selvfølgelig af, at super-AI faktisk er en trussel mod menneskeheden. Og nogle forskere tror ikke, at det bliver det. Vi kan naturligvis fjerne risiciene ved super-AI over tid. Nogle tror, at mennesker endda kan fusionere med AI.
Uanset hvad der er tilfældet, vores planet og dens indbyggere vil have stor gavn af at sikre, at vi får det bedste ud af AI, en teknologi, der stadig er i sin vorden. For det, vi har brug for en bedre forståelse af, hvilken rolle regeringen kan spille.
Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.