Videnskab
 science >> Videnskab >  >> Elektronik

AI, der bruges af humanitære organisationer, kan uddybe neokoloniale tendenser

Kredit:Liu zishan/Shutterstock.com

Kunstig intelligens, eller AI, gennemgår en periode med massiv ekspansion. Dette er ikke fordi computere har opnået menneskelignende bevidsthed, men på grund af fremskridt inden for maskinlæring, hvor computere lærer af enorme databaser, hvordan man klassificerer nye data. På forkant er de neurale netværk, der har lært at genkende menneskelige ansigter eller spille Go.

Genkendelse af mønstre i data kan også bruges som et forudsigelsesværktøj. AI anvendes på ekkokardiogrammer for at forudsige hjertesygdomme, til arbejdspladsdata for at forudsige, om medarbejderne vil forlade, og til sociale medier feeds til at opdage tegn på begyndende depression eller selvmordstendenser. Enhver livsstil, hvor der er rigelige data - og det betyder stort set alle aspekter af livet - bliver øjnet af regering eller virksomhed for anvendelse af AI.

En aktivitet, der i øjeblikket synes fjernt fra AI, er humanitarisme; tilrettelæggelse af hjælp på jorden til medmennesker i krise på grund af krig, hungersnød eller anden katastrofe. Men humanitære organisationer vil også vedtage AI. Hvorfor? Fordi det ser ud til at kunne besvare spørgsmål i hjertet af humanitarisme - spørgsmål som hvem vi skal redde, og hvordan man kan være effektiv i stor skala. AI resonerer også stærkt med eksisterende former for humanitær tænkning og handling, især principperne om neutralitet og universalitet. Humanitarisme (menes det) tager ikke parti, er upartisk i sin ansøgning og tilbyder bistand uanset detaljerne i en lokal situation.


Den måde, maskinlæring forbruger big data og producerer forudsigelser, tyder bestemt på, at det både kan fatte den enorme humanitære udfordring og give et datadrevet svar. Men karakteren af ​​maskinlæringsoperationer betyder, at de rent faktisk vil uddybe nogle af problemerne med humanitarisme, og introducere deres egne.

Matematikken

At undersøge disse spørgsmål kræver en kort omvej til de konkrete operationer ved maskinlæring, hvis vi skal omgå den misinformation og mystifikation, der knytter sig til udtrykket AI. Fordi der ikke er nogen intelligens i kunstig intelligens. Det lærer heller ikke rigtigt, selvom dets tekniske navn er maskinlæring.

AI er simpelthen matematisk minimering. Husk, hvordan du i skolen ville passe en lige linje til et sæt punkter, vælge den linje, der minimerer forskellene generelt? Maskinlæring gør det samme for komplekse mønstre, tilpasning af inputfunktioner til kendte resultater ved at minimere en omkostningsfunktion. Resultatet bliver en model, der kan anvendes på nye data til at forudsige resultatet.

Alle data kan skubbes igennem maskinlæringsalgoritmer. Alt, hvad der kan reduceres til tal og mærkes med et resultat, kan bruges til at oprette en model. Ligningerne ved ikke eller er ligeglade med, om tallene repræsenterer Amazon -salg eller ofre for jordskælv.

Denne banalitet i maskinlæring er også dens magt. Det er en generaliseret numerisk komprimering af spørgsmål, der betyder noget - der er ingen forståelser i beregningen; mønstrene angiver korrelation, ikke årsagssammenhæng. Den eneste intelligens kommer i samme betydning som militær efterretning; det er, rettet mod. Operationerne er dem til at minimere omkostningsfunktionen for at optimere resultatet.

Og de modeller, der produceres af maskinlæring, kan være svære at vende om til menneskelig ræsonnement. Hvorfor valgte den denne person som en dårlig parole -risiko? Hvad repræsenterer dette mønster? Vi kan ikke nødvendigvis sige. Så der er en uigennemsigtighed i kernen af ​​metoderne. Det forøger ikke menneskelig handlefrihed, men forvrænger det.

De mægtiges logik

Maskinlæring tager ikke bare beslutninger uden at give grunde, det ændrer vores idé om fornuften. Det er, det ændrer, hvad der er kendt, og hvad der forstås som virkeligt.

For eksempel, i nogle jurisdiktioner i USA, hvis en algoritme frembringer en forudsigelse om, at en anholdt sandsynligvis vil fornærme igen, denne person vil blive nægtet kaution. Mønsterfinding i data bliver en beregningsmyndighed, der udløser væsentlige konsekvenser.

Maskinelæring, derefter, er ikke bare en metode, men en maskinel filosofi, hvor abstrakt beregning forstås for at få adgang til en sandhed, der ses som overlegen i forhold til sansning af almindelig opfattelse. Og som sådan, beregningerne af datavidenskab kan ende med at tælle mere end vidnesbyrd.

Selvfølgelig, det humanitære område er ikke naivt med hensyn til farerne ved datafikering. Det er velkendt, at maskinlæring kan udbrede diskrimination, fordi den lærer af sociale data, som i sig selv ofte er forudindtaget. Og så vil humanitære institutioner naturligvis være mere forsigtige end de fleste med at sikre alle mulige beskyttelsesforanstaltninger mod forudindtaget træningsdata.

Men problemet går ud over eksplicitte fordomme. Den dybere effekt af maskinlæring er at producere de kategorier, gennem hvilke vi vil tænke om os selv og andre. Maskinlæring giver også et skifte til forberedelse:afskærmning af futures på grundlag af korrelation snarere end årsagssammenhæng. Dette konstruerer risiko på samme måde som Twitter bestemmer trendende emner, allokering og tilbageholdelse af ressourcer på en måde, der algoritmisk afgrænser det fortjente og det ufortjente.

Vi burde måske være særligt bekymrede over disse tendenser, for på trods af dens bedste hensigter, udøvelsen af ​​humanitarisme viser ofte neokoloniale tendenser. Ved at hævde neutralitet og universalitet, algoritmer hævder overlegenheden af ​​abstrakt viden genereret andre steder. Ved at indlejre de mægtiges logik til at bestemme, hvad der sker med mennesker i periferien, humanitær AI bliver en neokolonial mekanisme, der virker i stedet for direkte kontrol.

Som tingene står, maskinlæring og såkaldt AI vil ikke være nogen form for frelse for humanitarisme. I stedet, det vil uddybe den allerede dybe neokoloniale og neoliberale dynamik i humanitære institutioner gennem algoritmisk forvrængning.

Men intet apparat er et lukket system; virkningen af ​​maskinlæring er betinget og kan ændres. Dette er lige så vigtigt for humanitær AI som for AI generelt - for, hvis en alternativ teknik ikke mobiliseres af tilgange som f.eks. folks råd, den næste generation af humanitære skandaler vil blive drevet af AI.

Denne artikel blev oprindeligt offentliggjort på The Conversation. Læs den originale artikel.




Varme artikler