Det er muligt at opnå nøjagtighed og retfærdighed i maskinlæringssystemer, der er beregnet til brug i social beslutningstagning, men at designe disse systemer kræver, at man begiver sig væk fra de enkle og indlysende veje. Kredit:Falaah Arif Khan
Carnegie Mellon University-forskere udfordrer en langvarig antagelse om, at der er en afvejning mellem nøjagtighed og retfærdighed, når man bruger maskinlæring til at træffe offentlige politiske beslutninger.
Efterhånden som brugen af maskinlæring er steget inden for områder som strafferet, ansættelser, levering af sundhedsydelser og sociale ydelser, er bekymringerne vokset over, hvorvidt sådanne applikationer introducerer nye eller forstærker eksisterende uligheder, især blandt racemæssige minoriteter og mennesker med økonomiske ulemper. For at beskytte mod denne skævhed foretages der justeringer af data, etiketter, modeltræning, scoringssystemer og andre aspekter af maskinlæringssystemet. Den underliggende teoretiske antagelse er, at disse justeringer gør systemet mindre præcist.
Et CMU-team sigter mod at aflive denne antagelse i en ny undersøgelse, der for nylig blev offentliggjort i Nature Machine Intelligence . Rayid Ghani, professor ved School of Computer Sciences maskinindlæringsafdeling og Heinz College of Information Systems and Public Policy; Kit Rodolfa, en forsker i ML; og Hemank Lamba, en post-doc forsker i SCS, testede denne antagelse i applikationer fra den virkelige verden og fandt ud af, at afvejningen var ubetydelig i praksis på tværs af en række politiske domæner.
"Du kan faktisk få begge dele. Du behøver ikke at ofre nøjagtighed for at bygge systemer, der er fair og retfærdige," sagde Ghani. "Men det kræver, at du bevidst designer systemer, så de er retfærdige og retfærdige. Hyldesystemer virker ikke."
Ghani og Rodolfa fokuserede på situationer, hvor efterspurgte ressourcer er begrænsede, og maskinlæringssystemer bruges til at hjælpe med at allokere disse ressourcer. Forskerne så på systemer inden for fire områder:prioritering af begrænset udbredelse af mental sundhedspleje baseret på en persons risiko for at vende tilbage til fængsel for at reducere genfængsling; forudsige alvorlige overtrædelser af sikkerheden for bedre at indsætte en bys begrænsede boliginspektører; modellering af risikoen for, at elever ikke dimitterer fra gymnasiet i tide for at identificere dem, der har størst behov for yderligere støtte; og hjælpe lærere med at nå crowdfunding-mål for klasseværelsesbehov.
I hver sammenhæng fandt forskerne, at modeller optimeret til nøjagtighed - standardpraksis for maskinlæring - effektivt kunne forudsige resultaterne af interesse, men udviste betydelige forskelle i anbefalinger til interventioner. Men da forskerne anvendte justeringer til outputtet af modellerne, der havde til formål at forbedre deres retfærdighed, opdagede de, at forskelle baseret på race, alder eller indkomst – afhængigt af situationen – kunne fjernes uden tab af nøjagtighed.
Ghani og Rodolfa håber, at denne forskning vil begynde at ændre mening hos andre forskere og politikere, når de overvejer brugen af maskinlæring i beslutningstagning.
"Vi ønsker, at kunstig intelligens, datalogi og maskinlæringsfællesskaber holder op med at acceptere denne antagelse om en afvejning mellem nøjagtighed og retfærdighed og begynder bevidst at designe systemer, der maksimerer begge dele," sagde Rodolfa. "Vi håber, at politikere vil omfavne maskinlæring som et værktøj i deres beslutningstagning for at hjælpe dem med at opnå retfærdige resultater."