Videnskab
 science >> Videnskab >  >> Elektronik

Hvordan kan vi sikre, at algoritmerne er retfærdige?

Når algoritmer træffer beslutninger med konsekvenser i den virkelige verden, de skal være retfærdige. Kredit:R-Type/Shutterstock.com

At bruge maskiner til at øge menneskelig aktivitet er ikke noget nyt. Egyptiske hieroglyffer viser brugen af ​​hestevogne allerede før 300 f.Kr. Gammel indisk litteratur som "Silapadikaram" har beskrevet dyr, der bliver brugt til landbrug. Og et blik udenfor viser, at folk i dag bruger motoriserede køretøjer til at komme rundt.

Hvor mennesker i fortiden har udvidet os selv på fysiske måder, nu er forstærkningens natur også mere intelligent. Igen, alt, man skal gøre, er at se på biler - ingeniører er tilsyneladende på nippet til selvkørende biler styret af kunstig intelligens. Andre enheder er i forskellige stadier af at blive mere intelligente. Langs vejen, samspillet mellem mennesker og maskiner er under forandring.

Maskin- og menneskelig intelligens bringer forskellige styrker til bordet. Forskere som mig arbejder på at forstå, hvordan algoritmer kan komplementere menneskelige færdigheder, mens de samtidig minimerer forpligtelserne ved at stole på maskinintelligens. Som maskinlæringsekspert, Jeg forudser, at der snart vil være en ny balance mellem menneskelig og maskinel intelligens, et skift, som menneskeheden ikke har mødt før.

Sådanne ændringer fremkalder ofte frygt for det ukendte, og i dette tilfælde, en af ​​de ukendte er, hvordan maskiner træffer beslutninger. Dette er især tilfældet, når det kommer til retfærdighed. Kan maskiner være retfærdige på en måde, som folk forstår?

Når folk er ulogiske

Til mennesker, retfærdighed er ofte kernen i en god beslutning. Beslutningstagning har en tendens til at stole på både de følelsesmæssige og rationelle centre i vores hjerne, det, nobelpristageren Daniel Kahneman kalder System 1 og System 2 tænkning. Beslutningsteoretikere mener, at hjernens følelsesmæssige centre er blevet ret veludviklet gennem tiderne, mens hjerneområder involveret i rationel eller logisk tænkning udviklede sig for nylig. Den rationelle og logiske del af hjernen, hvad Kahneman kalder System 2, har givet mennesker en fordel i forhold til andre arter.

Imidlertid, fordi System 2 blev udviklet for nylig, menneskelig beslutningstagning er ofte buggy. Derfor er mange beslutninger ulogiske, inkonsekvent og suboptimalt.

For eksempel, præferencevending er et velkendt, men ulogisk fænomen, som folk udviser:I det, en person, der foretrækker valg A frem for B og B frem for C, foretrækker ikke nødvendigvis A frem for C. Eller mener, at forskere har fundet ud af, at straffedommere har en tendens til at være mere lempelige med afgørelser om prøveløsladelse lige efter frokostpausen end ved dagens lukning.

En del af problemet er, at vores hjerner har problemer med præcist at beregne sandsynligheder uden passende træning. Vi bruger ofte irrelevant information eller er påvirket af uvedkommende faktorer. Det er her maskinintelligens kan være nyttig.

Maskiner er logiske … til en fejl

Veldesignet maskinintelligens kan være konsekvent og nyttig til at træffe optimale beslutninger. Af deres natur, de kan være logiske i matematisk forstand – de afviger simpelthen ikke fra programmets instruktion. I en veldesignet maskinlæringsalgoritme, man ville ikke støde på de ulogiske præferencevendinger, som folk ofte udviser, for eksempel. Inden for grænserne for statistiske fejl, beslutningerne fra maskinintelligens er konsekvente.

Problemet er, at maskinintelligens ikke altid er godt designet.

Efterhånden som algoritmer bliver mere kraftfulde og inkorporeres i flere dele af livet, videnskabsmænd som mig forventer denne nye verden, en med en anden balance mellem maskine og menneskelig intelligens, at være fremtidens norm.

I det strafferetlige system, Dommere bruger algoritmer under prøveløsladelse til at beregne recidivrisici. I teorien, denne praksis kan overvinde enhver skævhed, der indføres ved frokostpauser eller udmattelse sidst på dagen. Men da journalister fra ProPublica foretog en undersøgelse, de fandt, at disse algoritmer var uretfærdige:Hvide mænd med tidligere domfældelser om væbnet røveri blev vurderet som lavere risiko end afroamerikanske kvinder, der blev dømt for forseelser.

Der er mange flere sådanne eksempler på maskinlæringsalgoritmer, der senere har vist sig at være uretfærdige, inklusive Amazon og dets rekruttering og Googles billedmærkning.

Forskere har været opmærksomme på disse problemer og har arbejdet på at indføre restriktioner, der sikrer retfærdighed fra starten. For eksempel, en algoritme kaldet CB (farveblind) pålægger den begrænsning, at enhver diskriminerende variable, såsom race eller køn, bør ikke bruges til at forudsige resultaterne. En anden, kaldet DP (demografisk paritet), sikrer, at grupperne er forholdsmæssigt retfærdige. Med andre ord, andelen af ​​gruppen, der modtager et positivt resultat, er lige eller rimelig på tværs af både diskriminerende og ikke-diskriminerende grupper.

Forskere og politikere begynder at tage kappen op. IBM har åbnet mange af deres algoritmer og udgivet dem under "AI Fairness 360"-banneret. Og National Science Foundation accepterede for nylig forslag fra videnskabsmænd, der ønsker at styrke det forskningsgrundlag, der understøtter retfærdighed i AI.

Forbedring af retfærdigheden af ​​maskinernes beslutninger

Jeg mener, at eksisterende fair maskinalgoritmer er svage på mange måder. Denne svaghed stammer ofte fra de kriterier, der bruges til at sikre retfærdighed. De fleste algoritmer, der pålægger "retfærdighedsbegrænsninger", såsom demografisk paritet (DP) og farveblindhed (CB), er fokuseret på at sikre retfærdighed på resultatniveau. Hvis der er to personer fra forskellige underpopulationer, de pålagte restriktioner sikrer, at resultatet af deres beslutninger er konsistent på tværs af grupperne.

Selvom dette er et godt første skridt, forskere skal se ud over resultaterne alene og også fokusere på processen. For eksempel, når en algoritme bruges, de delpopulationer, der er berørt, vil naturligvis ændre deres indsats som reaktion. Disse ændringer skal tages i betragtning, også. Fordi de ikke er blevet taget i betragtning, mine kolleger og jeg fokuserer på det, vi kalder "best respons fairness."

Hvis underpopulationerne i sagens natur er ens, deres indsatsniveau for at opnå det samme resultat bør også være det samme, selv efter at algoritmen er implementeret. Denne simple definition af retfærdighed i bedste svar opfyldes ikke af DP- og CB-baserede algoritmer. For eksempel, DP kræver, at de positive rater er ens, selvom en af ​​delpopulationerne ikke gør en indsats. Med andre ord, mennesker i én delpopulation ville skulle arbejde betydeligt hårdere for at opnå det samme resultat. Mens en DP-baseret algoritme ville betragte det som rimeligt - trods alt, begge delpopulationer opnåede det samme resultat - de fleste mennesker ville ikke.

Der er en anden retfærdighedsbegrænsning kendt som udlignede odds (EO), som opfylder begrebet bedste respons retfærdighed – den sikrer retfærdighed, selvom du tager hensyn til responsen fra underpopulationerne. Imidlertid, at indføre begrænsningen, Algoritmen skal kende de diskriminerende variabler (f.eks. sort hvid), og det vil ende med at sætte eksplicit forskellige tærskler for underpopulationer - så, tærsklerne vil være eksplicit forskellige for hvide og sorte prøveløsladelseskandidater.

Selvom det ville bidrage til at øge retfærdigheden af ​​resultaterne, en sådan procedure kan krænke begrebet ligebehandling, der kræves i Civil Rights Act af 1964. Af denne grund, en artikel i California Law Review har opfordret politiske beslutningstagere til at ændre lovgivningen, så fair algoritmer, der anvender denne tilgang, kan bruges uden potentielle juridiske konsekvenser.

Disse begrænsninger motiverer mine kolleger og mig til at udvikle en algoritme, der ikke kun er "bedste svar fair", men som heller ikke eksplicit bruger diskriminerende variabler. Vi demonstrerer ydeevnen af ​​vores algoritmer teoretisk ved hjælp af simulerede datasæt og rigtige eksempeldatasæt fra nettet. Da vi testede vores algoritmer med de meget brugte eksempeldatasæt, vi var overraskede over, hvor godt de klarede sig i forhold til open source-algoritmer, der er samlet af IBM.

Vores arbejde tyder på, at trods udfordringerne, maskiner og algoritmer vil fortsat være nyttige for mennesker - til fysiske jobs såvel som videnjobs. Vi skal forblive på vagt over, at alle beslutninger truffet af algoritmer er retfærdige, og det er bydende nødvendigt, at alle forstår deres begrænsninger. Hvis vi kan gøre det, så er det muligt, at menneskelig og maskinel intelligens vil supplere hinanden på værdifulde måder.

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.