Demonstranter i Berlin deltager i en "Stop Killer Robots"-kampagne organiseret af den tyske NGO "Facing Finance" for at forbyde, hvad de kalder dræberrobotter, i marts 2019
Amazon, Microsoft og Intel er blandt førende teknologivirksomheder, der sætter verden i fare gennem udvikling af dræberrobotter, ifølge en rapport, der undersøgte store aktører fra sektoren om deres holdning til dødelige autonome våben.
Den hollandske NGO Pax rangerede 50 virksomheder efter tre kriterier:om de udviklede teknologi, der kunne være relevant for dødbringende kunstig intelligens, om de arbejdede på relaterede militære projekter, og hvis de havde forpligtet sig til at afholde sig fra at bidrage i fremtiden.
"Hvorfor benægter virksomheder som Microsoft og Amazon ikke, at de i øjeblikket udvikler disse meget kontroversielle våben, som kunne beslutte at dræbe mennesker uden direkte menneskelig involvering?" sagde Frank Slijper, hovedforfatter af rapporten offentliggjort i denne uge.
Brugen af kunstig intelligens til at give våbensystemer mulighed for selvstændigt at udvælge og angribe mål har udløst etiske debatter i de seneste år, med kritikere, der advarer om, at de ville bringe international sikkerhed i fare og varsle en tredje revolution i krigsførelse efter krudt og atombomben.
Et panel af regeringseksperter diskuterede politiske muligheder vedrørende dødelige autonome våben på et møde i FN's konvention om visse konventionelle våben i Genève onsdag.
Google, som sidste år udgav vejledende principper, der undlader AI til brug i våbensystemer, var blandt syv virksomheder, der fandtes at engagere sig i "best practice" i analysen, der spændte over 12 lande, ligesom Japans Softbank, bedst kendt for sin humanoide Pepper-robot.
22 virksomheder var af "medium bekymring, " mens 21 faldt i kategorien "høj bekymring", især Amazon og Microsoft, der begge byder på en Pentagon-kontrakt på 10 milliarder dollar for at levere cloud-infrastrukturen til det amerikanske militær.
Andre i gruppen "høj bekymring" omfatter Palantir, en virksomhed med rødder i en CIA-støttet venturekapitalorganisation, der blev tildelt en kontrakt på $800 millioner om at udvikle et AI-system, "der kan hjælpe soldater med at analysere en kampzone i realtid."
"Autonome våben vil uundgåeligt blive skalerbare masseødelæggelsesvåben, fordi hvis mennesket ikke er i løkken, så kan en enkelt person affyre en million våben eller hundrede millioner våben, " Stuart Russell, en professor i datalogi ved University of California, Det fortalte Berkeley onsdag til AFP.
"Faktum er, at autonome våben vil blive udviklet af virksomheder, og i form af en kampagne for at forhindre autonome våben i at blive udbredt, de kan spille en meget stor rolle, " han tilføjede.
Udviklingen af kunstig intelligens til militære formål har udløst debatter og protester i industrien:sidste år afviste Google at forny en Pentagon-kontrakt kaldet Project Maven, som brugte maskinlæring til at skelne mellem mennesker og objekter i dronevideoer.
Det faldt også ud af opløbet til Joint Enterprise Defence Infrastructure (JEDI), cloud-kontrakten, som Amazon og Microsoft håber på at få.
Rapporten bemærkede, at Microsoft-medarbejdere også havde udtrykt deres modstand mod en kontrakt fra den amerikanske hær om et augmented reality-headset, HoloLens, der sigter mod at "øge dødeligheden" på slagmarken.
Hvordan de kan se ud
Ifølge Russell, "alt, der i øjeblikket er et våben, folk arbejder på autonome versioner, uanset om det er tanks, kampfly, eller ubåde."
Israels Harpy er en autonom drone, der allerede eksisterer, "svæver" i et målområde og vælger steder at ramme.
Endnu mere bekymrende er nye kategorier af autonome våben, som endnu ikke eksisterer - disse kunne omfatte bevæbnede minidroner som dem, der blev vist i 2017-kortfilmen "Slaughterbots."
"Med den type våben, du kunne sende en million af dem i en container eller fragtfly - så de har en ødelæggende kapacitet som en atombombe, men efterlader alle bygningerne bag sig, " sagde Russell.
Brug af ansigtsgenkendelsesteknologi, dronerne kunne "udslette én etnisk gruppe eller ét køn, eller ved at bruge information på sociale medier kan du udslette alle mennesker med et politisk synspunkt."
Den Europæiske Union offentliggjorde i april retningslinjer for, hvordan virksomheder og regeringer bør udvikle kunstig intelligens, herunder behovet for menneskelig tilsyn, arbejder hen imod samfundsmæssig og miljømæssig velfærd på en ikke-diskriminerende måde, og respektere privatlivets fred.
Russell argumenterede for, at det var vigtigt at tage det næste skridt i form af et internationalt forbud mod dødelig AI, der kunne opsummeres som "maskiner, der kan beslutte at dræbe mennesker, skal ikke udvikles, indsat, eller brugt."
© 2019 AFP