Videnskab
 science >> Videnskab >  >> Elektronik

AI er allerede blevet bevæbnet – og det viser, hvorfor vi bør forbyde dræberrobotter

Kredit:Oleg Yarko/Shutterstock

En skillelinje tegner sig i debatten om såkaldte dræberrobotter. Mange lande ønsker at se ny international lov om autonome våbensystemer, der kan målrette og dræbe mennesker uden menneskelig indblanding. Men de lande, der allerede udvikler sådanne våben, forsøger i stedet at fremhæve deres formodede fordele.

Jeg var vidne til denne voksende kløft på et nyligt FN-møde med mere end 70 lande i Genève, hvor dem, der går ind for autonome våben, inklusive USA, Australien og Sydkorea, var mere vokale end nogensinde. Til mødet, USA hævdede, at sådanne våben faktisk kunne gøre det lettere at følge international humanitær lov ved at gøre militæraktion mere præcis.

Alligevel er det meget spekulativt at sige, at "dræberrobotter" overhovedet nogensinde vil være i stand til at følge humanitær lov. Og mens politikerne fortsætter med at skændes om dette, spredningen af ​​autonomi og kunstig intelligens i eksisterende militærteknologi sætter allerede effektivt uønskede standarder for dens rolle i brugen af ​​magt.

En række åbne breve fra fremtrædende forskere, der taler imod at våben kunstig intelligens, har været med til at bringe debatten om autonome militærsystemer til offentlighedens opmærksomhed. Problemet er, at debatten er indrammet, som om denne teknologi er noget fra fremtiden. Faktisk, de spørgsmål, det rejser, behandles allerede effektivt af eksisterende systemer.

De fleste luftforsvarssystemer har allerede betydelig autonomi i målretningsprocessen, og militærfly har stærkt automatiserede funktioner. Det betyder, at "robotter" allerede er involveret i at identificere og engagere mål.

I mellemtiden et andet vigtigt spørgsmål, som den nuværende teknologi rejser, mangler i den igangværende diskussion. Fjernbetjente droner bruges i øjeblikket af flere landes militære til at kaste bomber på mål. Men vi ved fra hændelser i Afghanistan og andre steder, at dronebilleder ikke er nok til klart at skelne mellem civile og kombattanter. Vi ved også, at den nuværende AI-teknologi kan indeholde betydelige skævheder, der påvirker dens beslutningstagning, ofte med skadelige virkninger.

Mennesker trykker stadig på aftrækkeren, men hvor længe? Kredit:Burlingham/Shutterstock

Da fremtidige fuldt autonome fly sandsynligvis vil blive brugt på lignende måder som droner, de vil sandsynligvis følge dronernes praksis. Alligevel udelukker stater, der bruger eksisterende autonome teknologier, dem fra den bredere debat ved at omtale dem som "semi-autonome" eller såkaldte "legacy-systemer". Igen, dette får spørgsmålet om "dræberrobotter" til at virke mere futuristisk, end det i virkeligheden er. Dette forhindrer også det internationale samfund i at se nærmere på, om disse systemer er grundlæggende passende under humanitær ret.

Flere nøgleprincipper i international humanitær ret kræver bevidste menneskelige domme, som maskiner ikke er i stand til. For eksempel, den juridiske definition af, hvem der er civil, og hvem der er kombattant, er ikke skrevet på en måde, der kunne programmeres ind i kunstig intelligens, og maskiner mangler situationsbevidsthed og evne til at udlede ting, der er nødvendige for at træffe denne beslutning.

Usynlig beslutningstagning

Mere dybtgående, jo mere mål er valgt og potentielt angrebet af maskiner, jo mindre ved vi om, hvordan disse beslutninger træffes. Droner er allerede stærkt afhængige af intelligensdata, der behandles af "black box"-algoritmer, der er meget vanskelige at forstå for at vælge deres foreslåede mål. Dette gør det sværere for de menneskelige operatører, der faktisk trykker på aftrækkeren, at stille spørgsmålstegn ved målforslag.

Mens FN fortsætter med at diskutere dette spørgsmål, det er værd at bemærke, at de fleste lande, der går ind for at forbyde autonome våben, er udviklingslande, som typisk er mindre tilbøjelige til at deltage i internationale nedrustningsforhandlinger. Så det faktum, at de er villige til at udtale sig kraftigt imod autonome våben, gør, at de gør det endnu mere betydningsfuldt. Deres historie med at opleve interventioner og invasioner fra rigere, mere magtfulde lande (såsom nogle af dem, der går ind for autonome våben) minder os også om, at de er mest udsat for denne teknologi.

I betragtning af hvad vi ved om eksisterende autonome systemer, vi bør være meget bekymrede over, at "dræberrobotter" vil gøre brud på humanitær lov mere, ikke mindre, sandsynligt. Denne trussel kan kun forhindres ved at forhandle ny international lov, der begrænser deres brug.

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.




Varme artikler