Kredit:Pixabay/CC0 Public Domain
I 2020 arresterede Detroit-politiet en sort mand for butikstyveri for næsten 4.000 USD i ure fra en eksklusiv butik. Han blev lagt i håndjern foran sin familie og tilbragte en nat indespærret. Efter nogle afhøringer stod det dog klart, at de havde den forkerte mand. Så hvorfor arresterede de ham i første omgang?
Årsagen:en ansigtsgenkendelsesalgoritme havde matchet billedet på hans kørekort med kornede optagelser fra sikkerhedskameraer.
Ansigtsgenkendelsesalgoritmer – som gentagne gange har vist sig at være mindre nøjagtige for mennesker med mørkere hud – er blot et eksempel på, hvordan racemæssige skævheder bliver replikeret indeni og videreført af nye teknologier.
"Det haster, da AI bruges til at træffe beslutninger med meget høje indsatser," siger MLK-gæsteprofessor S. Craig Watkins, hvis akademiske hjem for sin tid på MIT er Institute for Data, Systems, and Society (IDSS). "Indsatsen er højere, fordi nye systemer kan replikere historiske skævheder i stor skala."
Watkins, professor ved University of Texas i Austin og stiftende direktør for Institute for Media Innovation, forsker i mediernes og databaserede systemers indvirkning på menneskelig adfærd, med en specifik koncentration på spørgsmål relateret til systemisk racisme. "Et af de grundlæggende spørgsmål i arbejdet er:hvordan bygger vi AI-modeller, der håndterer systemisk ulighed mere effektivt?"
Etisk AI
Ulighed videreføres af teknologi på mange måder på tværs af mange sektorer. Et bredt domæne er sundhedspleje, hvor Watkins siger, at ulighed viser sig i både kvaliteten af og adgangen til pleje. Efterspørgslen efter mental sundhedspleje overgår for eksempel langt kapaciteten for tjenester i USA. Denne efterspørgsel er blevet forværret af pandemien, og adgang til pleje er sværere for farvede samfund.
For Watkins er det at fjerne skævheden fra algoritmen blot en komponent i at opbygge mere etisk kunstig intelligens. Han arbejder også på at udvikle værktøjer og platforme, der kan adressere ulighed uden for teknologien direkte. I tilfælde af adgang til mental sundhed indebærer dette udvikling af et værktøj til at hjælpe udbydere af mental sundhed med at levere pleje mere effektivt.
"Vi bygger en dataindsamlingsplatform i realtid, der ser på aktiviteter og adfærd og forsøger at identificere mønstre og sammenhænge, hvori visse mentale tilstande opstår," siger Watkins. "Målet er at give data-informeret indsigt til plejeudbydere for at kunne levere mere effektive tjenester."
Watkins er ikke fremmed for de bekymringer om privatlivets fred, som sådan en app ville rejse. Han tager en brugercentreret tilgang til udviklingen, der er funderet i dataetik. "Datarettigheder er en væsentlig komponent," argumenterer han. "Du skal give brugeren fuldstændig kontrol over, hvordan deres data deles og bruges, og hvilke data en plejeudbyder ser. Ingen andre har adgang."
Bekæmpelse af systemisk racisme
Her på MIT har Watkins tilsluttet sig det nyligt lancerede Initiative on Combatting Systemic Racism (ICSR), et IDSS-forskningssamarbejde, der samler fakulteter og forskere fra MIT Stephen A. Schwarzman College of Computing og videre. Formålet med ICSR er at udvikle og udnytte beregningsværktøjer, der kan hjælpe med at bevirke strukturelle og normative ændringer i retning af racelighed.
ICSR-samarbejdet har separate projekthold, der forsker i systemisk racisme i forskellige samfundssektorer, herunder sundhedsvæsenet. Hver af disse "vertikaler" behandler forskellige, men indbyrdes forbundne problemer, fra bæredygtighed til beskæftigelse til spil. Watkins er en del af to ICSR-grupper, politi og bolig, som har til formål bedre at forstå de processer, der fører til diskriminerende praksis i begge sektorer. "Diskriminering af boliger bidrager væsentligt til racemæssig velstandskløft i USA," siger Watkins.
Polititeamet undersøger mønstre i, hvordan forskellige befolkningsgrupper bliver politibetjent. "Der er åbenbart en betydelig og ladet historie til politiarbejde og race i Amerika," siger Watkins. "Dette er et forsøg på at forstå, identificere mønstre og bemærke regionale forskelle."
Watkins og polititeamet bygger modeller ved hjælp af data, der beskriver politiets indgreb, reaktioner og race, blandt andre variabler. ICSR passer godt til denne form for forskning, siger Watkins, der bemærker det tværfaglige fokus for både IDSS og SCC.
"Systemisk forandring kræver en samarbejdsmodel og anden ekspertise," siger Watkins. "Vi forsøger at maksimere indflydelse og potentiale på beregningssiden, men vi kommer ikke dertil med beregning alene."
Muligheder for forandring
Modeller kan også forudsige resultater, men Watkins er omhyggelig med at påpege, at ingen algoritme alene vil løse racemæssige udfordringer.
"Modeller i min optik kan informere politik og strategi, som vi som mennesker skal skabe. Beregningsmodeller kan informere og generere viden, men det er ikke lig med forandring." Det kræver yderligere arbejde – og yderligere ekspertise inden for politik og fortalervirksomhed – at bruge viden og indsigt til at stræbe mod fremskridt.
En vigtig løftestang for forandring, hævder han, vil være at opbygge et mere AI-kyndig samfund gennem adgang til information og muligheder for at forstå AI og dens indvirkning på en mere dynamisk måde. Han håber at se større datarettigheder og større forståelse for, hvordan samfundssystemer påvirker vores liv.
"Jeg blev inspireret af yngre menneskers reaktion på mordene på George Floyd og Breonna Taylor," siger han. "Deres tragiske dødsfald kaster et klart lys over de virkelige konsekvenser af strukturel racisme og har tvunget det bredere samfund til at være mere opmærksom på dette spørgsmål, hvilket skaber flere muligheder for forandring."