Kredit:Mykola Holyutyak/Shutterstock
Mennesker vil altid træffe den endelige beslutning om, hvorvidt bevæbnede robotter kan skyde, ifølge en erklæring fra det amerikanske forsvarsministerium. Deres præcisering kommer midt i frygt for et nyt avanceret målretningssystem, kendt som ATLAS, der vil bruge kunstig intelligens i kampkøretøjer til at målrette og udføre trusler. Mens offentligheden kan føle sig urolig over såkaldte "dræberrobotter", konceptet er ikke noget nyt-maskingevær med "SWORDS" robotter blev indsat i Irak allerede i 2007.
Vores forhold til militære robotter går endnu længere tilbage end det. Det er fordi, når folk siger "robot, "de kan betyde enhver teknologi med en eller anden form for" autonomt "element, der gør det muligt at udføre en opgave uden behov for direkte menneskelig indgriben.
Disse teknologier har eksisteret i meget lang tid. Under Anden Verdenskrig, nærhedssikringen blev udviklet til at eksplodere artilleri -skaller i en forudbestemt afstand fra deres mål. Dette gjorde skallerne langt mere effektive, end de ellers ville have været ved at øge menneskelig beslutningstagning og, i nogle tilfælde, tager mennesket helt ud af løkken.
Så spørgsmålet er ikke så meget, om vi skal bruge autonome våbensystemer i kamp - vi bruger dem allerede, og de antager mange former. Hellere, vi bør fokusere på, hvordan vi bruger dem, hvorfor vi bruger dem, og hvilken form - hvis nogen - menneskelig intervention bør have.
Cybernetics fødsel
Min forskning udforsker filosofien om relationer mellem mennesker og maskiner, med særlig fokus på militær etik, og den måde, vi skelner mellem mennesker og maskiner. Under Anden Verdenskrig, matematiker Norbert Wiener lagde grunden til cybernetik - studiet af grænsefladen mellem mennesker, dyr og maskiner-i sit arbejde med bekæmpelse af luftfartsbrand. Ved at studere afvigelserne mellem et flys forudsagte bevægelse, og dens faktiske bevægelse, Wiener og hans kollega Julian Bigelow kom med begrebet "feedback loop, "hvor afvigelser kunne føres tilbage til systemet for at korrigere yderligere forudsigelser.
Autonome målretningssystemer opstod med innovationer inden for luftværnsvåben under anden verdenskrig. Kredit:Zef Art/Shutterstock
Wieners teori gik derfor langt ud over ren forstørrelse, for cybernetisk teknologi kunne bruges til at foregribe menneskelige beslutninger-fjerne det fejlbarlige menneske fra sløjfen, for at gøre det bedre, hurtigere beslutninger og gøre våbensystemer mere effektive.
I årene siden Anden Verdenskrig, computeren har vist sig at sidde sammen med kybernetisk teori for at danne en central søjle i militær tænkning, fra de laserstyrede "smarte bomber" i Vietnamtiden til krydstogtsraketter og Reaper-droner.
Det er ikke længere nok bare at forstærke den menneskelige kriger, som den var i de tidlige dage. Den næste fase er at fjerne det menneskelige fuldstændigt - "maksimere" militære resultater, samtidig med at de politiske omkostninger forbundet med tab af allierede liv minimeres. Dette har ført til udbredt brug af militære droner fra USA og dets allierede. Selvom disse missioner er meget kontroversielle, i politisk henseende har de vist sig at være langt foretrukne frem for det offentlige ramaskrig forårsaget af militære dødsfald.
Den menneskelige maskine
Et af de mest omstridte spørgsmål vedrørende dronekrig er rollen som dronepiloten eller "operatøren". Som alt personale, disse operatører er bundet af deres arbejdsgivere til at "gøre et godt stykke arbejde." Imidlertid, vilkårene for succes er langt fra klare. Som filosof og kulturkritiker Laurie Calhoun bemærker:"UCAV [drone] operatørers forretning er at dræbe."
På denne måde, deres opgave er ikke så meget at træffe en menneskelig beslutning, men snarere at udføre det job, de er ansat til at udføre. Hvis computeren fortæller dem at dræbe, er der virkelig nogen grund til at de ikke skulle det?
En moderne militær drone. Kredit:Alex LMX/Shutterstock
Et lignende argument kan fremsættes med hensyn til den moderne soldat. Fra GPS -navigation til video -uplinks, soldater bærer adskillige enheder, der binder dem til et stort netværk, der overvåger og kontrollerer dem ved hver tur.
Dette fører til et etisk gåde. Hvis soldatens formål er at følge ordrer til punkt og prikke - med kameraer, der bruges til at sikre overholdelse - hvorfor gider vi overhovedet med menneskelige soldater? Trods alt, maskiner er langt mere effektive end mennesker og lider ikke af træthed og stress på samme måde som et menneske gør. Hvis soldater forventes at opføre sig i en programmatisk, robotmode alligevel, hvad er så meningen med at udgive unødigt allieret blod?
Svaret, her, er, at mennesket fungerer som et alibi eller en form for "etisk dækning" for det, der er i virkeligheden, en næsten helt mekanisk, robotakt. Ligesom droneoperatørens opgave er at føre tilsyn med den computerstyrede drone, så menneskets rolle i forsvarsministeriets nye ATLAS -system er blot at fungere som etisk dækning, hvis ting går galt.
Mens Predator og Reaper -droner kan stå i spidsen for den offentlige fantasi om militær autonomi og "dræberrobotter, "Disse nyskabelser er i sig selv ikke noget nyt. De er blot de seneste i en lang række udviklinger, der går mange årtier tilbage.
Selvom det kan trøste nogle læsere at forestille sig, at maskinens autonomi altid vil være underordnet menneskelig beslutningstagning, dette savner virkelig pointen. Autonome systemer har længe været integreret i militæret, og vi bør forberede os på konsekvenserne.
Denne artikel er genudgivet fra The Conversation under en Creative Commons -licens. Læs den originale artikel.