Videnskab
 Science >> Videnskab >  >> Andet

Israel anklaget for at bruge kunstig intelligens til at målrette tusinder i Gaza, da dræberalgoritmer overgår international lov

Kredit:Pixabay/CC0 Public Domain

Den israelske hær brugte et nyt kunstig intelligens (AI) system til at generere lister over titusindvis af menneskelige mål for potentielle luftangreb i Gaza, ifølge en rapport offentliggjort i sidste uge. Rapporten kommer fra nonprofit-forretningen +972 Magazine, som drives af israelske og palæstinensiske journalister.



Rapporten citerer interviews med seks unavngivne kilder i den israelske efterretningstjeneste. Kilderne hævder, at systemet, kendt som lavendel, blev brugt sammen med andre kunstig intelligens-systemer til at målrette og myrde formodede militante - mange i deres egne hjem - og forårsage et stort antal civile ofre.

Ifølge en anden rapport i Guardian, baseret på de samme kilder som +972-rapporten, sagde en efterretningsofficer, at systemet "gjorde det nemmere" at udføre et stort antal angreb, fordi "maskinen gjorde det koldt".

Mens militærer rundt om i verden kæmper for at bruge kunstig intelligens, viser disse rapporter os, hvordan det kan se ud:krigsførelse i maskinhastighed med begrænset nøjagtighed og lidt menneskeligt tilsyn, med høje omkostninger for civile.

Militær kunstig intelligens i Gaza er ikke ny

Den israelske forsvarsstyrke afviser mange af påstandene i disse rapporter. I en erklæring til Guardian sagde den, at den "ikke bruger et kunstig intelligenssystem, der identificerer terrorister". Det sagde, at Lavender ikke er et kunstig intelligens-system, men "simpelthen en database, hvis formål er at krydsreferencer efterretningskilder".

Men i 2021 rapporterede Jerusalem Post en efterretningstjenestemand, der sagde, at Israel lige havde vundet sin første "AI-krig" - en tidligere konflikt med Hamas - ved at bruge en række maskinlæringssystemer til at gennemsøge data og producere mål. Samme år blev en bog kaldet The Human–Machine Team, som skitserede en vision om AI-drevet krigsførelse, udgivet under et pseudonym af en forfatter, der for nylig blev afsløret som leder af en central israelsk hemmelig efterretningsenhed.

Sidste år sagde en anden +972-rapport, at Israel også bruger et AI-system kaldet Habsora til at identificere potentielle militante bygninger og faciliteter til at bombe. Ifølge rapporten genererer Habsora mål "næsten automatisk", og en tidligere efterretningsofficer beskrev det som "en massemordsfabrik".

Den nylige +972-rapport hævder også, at et tredje system, kaldet Where's Daddy?, overvåger mål identificeret af lavendel og advarer militæret, når de vender hjem, ofte til deres familie.

Død efter algoritme

Flere lande henvender sig til algoritmer i jagten på en militær fordel. Det amerikanske militærs Project Maven leverer AI-målretning, der er blevet brugt i Mellemøsten og Ukraine. Kina skynder sig også at udvikle AI-systemer til at analysere data, udvælge mål og hjælpe med beslutningstagning.

Tilhængere af militær kunstig intelligens hævder, at det vil muliggøre hurtigere beslutningstagning, større nøjagtighed og færre tab i krigsførelse.

Alligevel rapporterede Middle East Eye sidste år, at et israelsk efterretningskontor sagde, at det "slet ikke var muligt" at have en menneskelig gennemgang af hvert AI-genereret mål i Gaza. En anden kilde fortalte +972, at de personligt "ville investere 20 sekunder for hvert mål", hvilket blot er et "gummistempel" for godkendelse.

Den israelske forsvarsstyrkes svar på den seneste rapport siger "analytikere skal udføre uafhængige undersøgelser, hvor de verificerer, at de identificerede mål opfylder de relevante definitioner i overensstemmelse med international lov".

Hvad angår nøjagtighed, hævder den seneste +972-rapport, at Lavendel automatiserer processen med identifikation og krydstjek for at sikre, at et potentielt mål er en højtstående Hamas-militærfigur. Ifølge rapporten løsnede Lavender målretningskriterierne til at inkludere lavere rangerende personale og svagere bevisstandarder og lavede fejl i "ca. 10 % af tilfældene".

Rapporten hævder også, at en israelsk efterretningsofficer sagde, at på grund af Hvor er far? system, ville mål blive bombet i deres hjem "uden tøven, som en første mulighed", hvilket fører til civile tab. Den israelske hær siger, at den "direkte afviser påstanden om enhver politik om at dræbe titusindvis af mennesker i deres hjem".

Regler for militær AI?

Efterhånden som militær brug af kunstig intelligens bliver mere almindelig, har etiske, moralske og juridiske bekymringer stort set været en eftertanke. Der er indtil videre ingen klare, universelt accepterede eller juridisk bindende regler om militær AI.

FN har diskuteret "dødelige autonome våbensystemer" i mere end ti år. Disse er enheder, der kan træffe målretnings- og affyringsbeslutninger uden menneskelig input, nogle gange kendt som "dræberrobotter". Sidste år var der fremskridt.

FN's Generalforsamling stemte for et nyt udkast til resolution, der skal sikre, at algoritmer "ikke må have fuld kontrol over beslutninger, der involverer drab". I oktober sidste år udgav USA også en erklæring om ansvarlig militær brug af kunstig intelligens og autonomi, som siden er blevet godkendt af 50 andre stater. Det første topmøde om ansvarlig brug af militær AI blev også afholdt sidste år, med Holland og Republikken Korea som vært.

Samlet set kæmper internationale regler for brugen af ​​militær AI for at holde trit med staters og våbenvirksomheders iver for højteknologisk, AI-aktiveret krigsførelse.

Få det 'ukendte' over for

Nogle israelske startups, der fremstiller AI-aktiverede produkter, gør efter sigende et salgsargument for deres brug i Gaza. Alligevel antyder rapportering om brugen af ​​AI-systemer i Gaza, hvor langt kort AI falder i drømmen om præcisionskrigsførelse, i stedet for at skabe alvorlige humanitære skader.

Den industrielle skala, hvor AI-systemer som Lavendel kan generere mål, "fortrænger også effektivt mennesker som standard" i beslutningstagningen.

Viljen til at acceptere AI-forslag med næsten ingen menneskelig kontrol udvider også omfanget af potentielle mål, hvilket påfører større skade.

At skabe præcedens

Rapporterne om Lavender og Habsora viser os, hvad den nuværende militære AI allerede er i stand til at gøre. Fremtidige risici ved militær AI kan stige endnu mere.

Den kinesiske militæranalytiker Chen Hanghui har forestillet sig en fremtidig "battlefield singularity", for eksempel, hvor maskiner træffer beslutninger og foretager handlinger i et tempo, der er for hurtigt til, at et menneske kan følge. I dette scenarie er vi tilbage som lidt mere end tilskuere eller ofre.

En undersøgelse offentliggjort tidligere i år lød endnu en advarselsnote. Amerikanske forskere gennemførte et eksperiment, hvor store sprogmodeller som GPT-4 spillede rollen som nationer i en wargaming-øvelse. Modellerne blev næsten uundgåeligt fanget i våbenkapløb og eskalerede konflikter på uforudsigelige måder, herunder ved at bruge atomvåben.

Den måde verden reagerer på nuværende brug af militær AI – som vi ser i Gaza – vil sandsynligvis skabe præcedens for den fremtidige udvikling og brug af teknologien.

Leveret af The Conversation

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.




Varme artikler