Algoritmer vil snart være i stand til at beslutte, hvem der skal målrettes mod. Kredit:US Air Force
Den amerikanske hær annoncerede for nylig, at den udvikler de første droner, der kan spotte og målrette mot køretøjer og personer, der bruger kunstig intelligens (AI). Dette er et stort skridt fremad. Mens de nuværende militære droner stadig kontrolleres af mennesker, denne nye teknologi vil afgøre, hvem der skal dræbes, næsten uden menneskelig involvering.
Når den er færdig, disse droner vil repræsentere den ultimative militarisering af AI og udløse enorme juridiske og etiske implikationer for et bredere samfund. Der er en chance for, at krigsførelse vil bevæge sig fra kamp til udryddelse, mister enhver form for menneskelighed i processen. På samme tid, det kunne udvide krigsfeltet, så virksomhederne, ingeniører og forskere, der bygger AI, bliver gyldige militære mål.
Eksisterende dødelige militære droner som MQ-9 Reaper styres og piloteres omhyggeligt via satellit. Hvis en pilot taber en bombe eller affyrer et missil, en menneskelig sensoroperatør fører den aktivt ind på det valgte mål ved hjælp af en laser.
Ultimativt, besætningen har den sidste etiske, juridisk og operationelt ansvar for at dræbe udpegede menneskelige mål. Som en Reaper -operatør siger:"Jeg er meget af den tankegang, at jeg ville tillade en oprør, uanset hvor vigtigt et mål er, at komme væk i stedet for at tage et risikabelt skud, der kan dræbe civile. "
Selv med disse dronedrab, menneskelige følelser, domme og etik har altid været i centrum af krigen. Eksistensen af psykisk traume og posttraumatisk stresslidelse (PTSD) blandt drone-operatører viser den psykologiske virkning af fjernt drab.
En MQ-9 Reaper Pilot. Kredit:US Air Force
Og dette peger faktisk på et muligt militært og etisk argument af Ronald Arkin, til støtte for autonome dræbende droner. Måske hvis disse droner smider bomberne, psykiske problemer blandt besætningsmedlemmer kan undgås. Svagheden i dette argument er, at du ikke behøver at være ansvarlig for drab for at blive traumatiseret af det. Efterretningsspecialister og andet militært personel analyserer regelmæssigt grafiske optagelser fra droneangreb. Forskning viser, at det er muligt at lide psykisk skade ved hyppigt at se billeder af ekstrem vold.
Da jeg interviewede over 100 Reaper -besætningsmedlemmer til en kommende bog, hver person, jeg talte med, der gennemførte dødelige droneangreb, mente, at, ultimativt, det burde være et menneske, der trykker på den sidste aftrækker. Tag mennesket ud, og du fjerner også menneskeheden i beslutningen om at dræbe.
Alvorlige konsekvenser
Udsigten til totalt autonome droner ville radikalt ændre de komplekse processer og beslutninger bag militære drab. Men det juridiske og etiske ansvar forsvinder på en eller anden måde ikke bare, hvis man fjerner menneskelig tilsyn. I stedet, ansvar vil i stigende grad falde på andre mennesker, herunder kunstige intelligensforskere.
De juridiske konsekvenser af denne udvikling er allerede ved at blive tydelige. I henhold til gældende international humanitær ret, "dual-use" faciliteter - dem, der udvikler produkter til både civil og militær anvendelse - kan angribes under de rette omstændigheder. For eksempel, i Kosovo -krigen 1999, olieraffinaderiet i Pancevo blev angrebet, fordi det kunne brænde jugoslaviske tanke samt brænde civile biler.
En MQ-9 Reaper. Kredit:US Air Force
Med et autonomt drone våbensystem, visse linjer med computerkode ville næsten helt sikkert blive klassificeret som dual-use. Virksomheder som Google, dets medarbejdere eller dets systemer kunne blive udsat for angreb fra en fjendestat. For eksempel, hvis Googles Project Maven billedgenkendelse AI-software er inkorporeret i en amerikansk militær autonom drone, Google kan finde sig selv involveret i drone "dræbende" forretning, ligesom enhver anden civil bidragyder til sådanne dødelige autonome systemer.
Etisk set, der er endnu mørkere problemer. Hele pointen med de selvlærende algoritmer – programmer, der uafhængigt lærer af de data, de kan indsamle – som teknologien bruger, er, at de bliver bedre til den opgave, de får. Hvis en dødelig autonom drone skal blive bedre til sit arbejde gennem selvlæring, nogen bliver nødt til at tage stilling til et acceptabelt udviklingsstadium - hvor meget det stadig skal lære - hvor det kan indsættes. I militariseret maskinlæring, det betyder politisk, militær- og industriledere bliver nødt til at specificere, hvor mange civile dødsfald, der vil tælle som acceptabelt, efterhånden som teknologien raffineres.
Nylige erfaringer med autonom AI i samfundet bør tjene som en advarsel. Ubers fatale eksperiment med en selvkørende Tesla garanterer stort set, at der vil ske utilsigtede autonome dronedødsfald, efterhånden som computerfejl bliver udbedret.
Hvis der er maskiner tilbage til at afgøre, hvem der dør, især i stor skala, så er det vi er vidne til udryddelse. Enhver regering eller militær, der udløste sådanne styrker, ville krænke de værdier, den hævdede at forsvare. Sammenlignet med, en dronepilot, der kæmper med en "kill or no kill" -beslutning, bliver menneskehedens sidste rest i den ofte umenneskelige krigssag.
Denne artikel blev oprindeligt publiceret på The Conversation. Læs den originale artikel.