Videnskab
 Science >> Videnskab >  >> Natur

Beviser afslører risikovurderingsalgoritmer viser skævhed mod latinamerikansk befolkning

En undersøgelse udført af University of California, Berkeley, offentliggjort i tidsskriftet Science, fandt, at risikovurderingsalgoritmer, der bruges i det strafferetlige system, viser skævhed mod den latinamerikanske befolkning. Undersøgelsen analyserede data fra over 20 millioner straffesager og fandt ud af, at algoritmerne var mere tilbøjelige til at forudsige, at spansktalende tiltalte ville begå fremtidige forbrydelser end hvide tiltalte, selv når de havde lignende kriminel historie og andre risikofaktorer.

Undersøgelsens resultater har rejst bekymringer om retfærdigheden og nøjagtigheden af ​​risikovurderingsalgoritmer, som i stigende grad bliver brugt til at træffe beslutninger om løsladelse forud for retssagen, domsafsigelse og prøveløsladelse. Kritikere hævder, at disse algoritmer kan fastholde racemæssige og etniske uligheder i det strafferetlige system ved systematisk at overvurdere risikoen for recidiv for visse grupper af mennesker.

Som svar på disse bekymringer er nogle jurisdiktioner begyndt at tage skridt til at adressere algoritmisk skævhed. For eksempel vedtog Californien for nylig en lov, der kræver, at risikovurderingsalgoritmer skal revideres for bias, og som forbyder brugen af ​​algoritmer, der diskriminerer baseret på race eller etnicitet. Andre jurisdiktioner overvejer lignende foranstaltninger for at sikre, at risikovurderingsalgoritmer bruges retfærdigt og retfærdigt.

Undersøgelsens resultater er en påmindelse om de potentielle farer ved at bruge algoritmer til at træffe beslutninger om menneskers liv. Det er vigtigt nøje at overveje potentialet for skævhed og diskrimination, når man udvikler og bruger disse algoritmer, og at tage skridt til at afbøde disse risici.

Varme artikler