Videnskab
 science >> Videnskab >  >> Elektronik

Forbyd dræberrobotter for at beskytte grundlæggende moralske og juridiske principper

Det amerikanske militær tester allerede et modulært avanceret bevæbnet robotsystem. Kredit:Lance Cpl. Julien Rodarte, U.S. Marine Corps

Ved udarbejdelsen af ​​en traktat om krigens love i slutningen af ​​det 19. århundrede, diplomater kunne ikke forudse fremtiden for våbenudvikling. Men de vedtog en juridisk og moralsk standard for at bedømme ny teknologi, der ikke er dækket af eksisterende traktatsprog.

Denne standard, kendt som Martens-paragraffen, har overlevet generationer af international humanitær lov og fået fornyet relevans i en verden, hvor autonome våben er på randen af ​​at træffe deres egne beslutninger om, hvem de skal skyde og hvornår. Martens-paragraffen opfordrer lande til ikke at bruge våben, der afviger "fra menneskehedens principper og fra den offentlige samvittigheds diktater."

Jeg var hovedforfatter til en ny rapport fra Human Rights Watch og Harvard Law School International Human Rights Clinic, der forklarer, hvorfor fuldt autonome våben ville være i modstrid med menneskehedens principper og den offentlige samvittigheds diktater. Vi fandt, at for at overholde Martens-paragraffen, lande bør vedtage en traktat, der forbyder udvikling, produktion og brug af disse våben.

Repræsentanter for mere end 70 nationer vil samles fra 27. til 31. august i FN i Genève for at diskutere, hvordan man kan løse problemerne med det, de kalder dødelige autonome våbensystemer. Disse lande, som er parter i konventionen om konventionelle våben, har diskuteret spørgsmålet i fem år. Mine medforfattere og jeg mener, at det er på tide, at de skrider til handling og bliver enige om at begynde at forhandle et forbud næste år.

At lave regler for det uvidende

Martens-klausulen giver en grundlæggende beskyttelse for civile og soldater i mangel af specifik traktatlovgivning. Klausulen opstiller også en standard for evaluering af nye situationer og teknologier, som ikke tidligere var forudset.

Fuldstændig autonome våben, nogle gange kaldet "dræberrobotter, " ville udvælge og engagere mål uden meningsfuld menneskelig kontrol. De ville være et farligt skridt ud over de nuværende bevæbnede droner, fordi der ikke ville være noget menneske i løkken til at bestemme, hvornår der skal skydes og mod hvilket mål. Selvom fuldt autonome våben endnu ikke eksisterer, Kina, Israel, Rusland, Sydkorea, Storbritannien og USA arbejder alle på at udvikle dem. De hævder, at teknologien ville behandle information hurtigere og holde soldater væk fra slagmarken.

Muligheden for, at fuldt autonome våben snart kan blive en realitet, gør det bydende nødvendigt for disse og andre lande at anvende Martens-paragraffen og vurdere, om teknologien ville krænke den grundlæggende menneskelighed og den offentlige samvittighed. Vores analyse finder, at fuldt autonome våben ville fejle testen på begge punkter.

Menneskehedens principper

Martensklausulens historie viser, at den er et grundlæggende princip i international humanitær ret. Med oprindelse i Haagerkonventionen af ​​1899, versioner af den findes i alle fire Genève-konventioner og tillægsprotokol I. Den er citeret i adskillige nedrustningstraktater. I 1995, bekymringer i henhold til Martens-klausulen motiverede lande til at vedtage et forebyggende forbud mod blændende lasere.

Menneskehedens principper kræver human behandling af andre og respekt for menneskeliv og værdighed. Fuldt autonome våben kunne ikke opfylde disse krav, fordi de ikke ville være i stand til at føle medfølelse, en følelse, der inspirerer mennesker til at minimere lidelse og død. Våbnene ville også mangle den juridiske og etiske dømmekraft, der er nødvendig for at sikre, at de beskytter civile i komplekse og uforudsigelige konfliktsituationer.

Under menneskelig opsyn - indtil videre. Kredit:Pfc. Rhita Daniel, U.S. Marine Corps

Ud over, som livløse maskiner, disse våben kunne ikke rigtig forstå værdien af ​​et individuelt liv eller betydningen af ​​dets tab. Deres algoritmer ville oversætte menneskeliv til numeriske værdier. Ved at træffe dødelige beslutninger baseret på sådanne algoritmer, de ville reducere deres menneskelige mål – hvad enten de er civile eller soldater – til genstande, underminere deres menneskelige værdighed.

Den offentlige samvittigheds diktater

Den voksende modstand mod fuldt autonome våben viser, at de også er i konflikt med den offentlige samvittigheds diktat. regeringer, eksperter og offentligheden har alle protesteret mod ofte på moralske grunde, til muligheden for at miste menneskelig kontrol over magtanvendelse.

Til dato, 26 lande har udtrykkeligt støttet et forbud, inklusive Kina. De fleste lande, der har talt ved FN's møder om konventionelle våben, har opfordret til at opretholde en form for meningsfuld menneskelig kontrol over magtanvendelse. At kræve en sådan kontrol er faktisk det samme som at forbyde våben, der fungerer uden en person, der bestemmer, hvornår de skal dræbe.

Tusindvis af videnskabsmænd og eksperter i kunstig intelligens har godkendt et forbud og krævet handling fra FN. I juli 2018, de afgav et løfte om ikke at bistå med udvikling eller brug af fuldt autonome våben. Store virksomheder har også opfordret til forbuddet.

Mere end 160 trosledere og mere end 20 modtagere af Nobels fredspris har på samme måde fordømt teknologien og støttet et forbud. Adskillige internationale og nationale meningsmålinger har fundet ud af, at et flertal af de mennesker, der svarede, var imod udvikling og brug af fuldt autonome våben.

Kampagnen for at stoppe dræberrobotter, en koalition af 75 ikke-statslige organisationer fra 42 lande, har ledet opposition fra ikke-statslige grupper. Human Rights Watch, som jeg arbejder for, var med til at stifte og koordinere kampagnen.

Andre problemer med dræberrobotter

Fuldstændigt autonome våben ville true mere end menneskeheden og den offentlige samvittighed. De ville sandsynligvis overtræde andre nøgleregler i international ret. Their use would create a gap in accountability because no one could be held individually liable for the unforeseeable actions of an autonomous robot.

Desuden, the existence of killer robots would spark widespread proliferation and an arms race – dangerous developments made worse by the fact that fully autonomous weapons would be vulnerable to hacking or technological failures.

Bolstering the case for a ban, our Martens Clause assessment highlights in particular how delegating life-and-death decisions to machines would violate core human values. Our report finds that there should always be meaningful human control over the use of force. We urge countries at this U.N. meeting to work toward a new treaty that would save people from lethal attacks made without human judgment or compassion. A clear ban on fully autonomous weapons would reinforce the longstanding moral and legal foundations of international humanitarian law articulated in the Martens Clause.

Denne artikel blev oprindeligt publiceret på The Conversation. Læs den originale artikel.




Varme artikler