Videnskab
 science >> Videnskab >  >> Elektronik

Ny algoritme begrænser bias i maskinlæring

Kredit:CC0 Public Domain

Maskinlæring – en form for kunstig intelligens baseret på ideen om, at computere kan lære af data og træffe beslutninger med lidt hjælp fra mennesker – har potentialet til at forbedre vores liv på utallige måder. Fra selvkørende biler til mammografiscanninger, der kan læse sig selv, maskinlæring transformerer det moderne liv.

Det er let at antage, at brug af algoritmer til beslutningstagning fjerner menneskelig skævhed fra ligningen. Men forskere har fundet ud af, at maskinlæring kan producere uretfærdige beslutninger i visse sammenhænge, såsom at ansætte nogen til et job. For eksempel, hvis dataene tilsluttet algoritmen tyder på, at mænd er mere produktive end kvinder, maskinen vil sandsynligvis "lære" den forskel og favorisere mandlige kandidater frem for kvindelige, mangler bias af input. Og ledere kan undlade at opdage maskinens diskrimination, tænker, at en automatiseret beslutning er en iboende neutral beslutning, resulterer i urimelig ansættelsespraksis.

I et nyt papir offentliggjort i Proceedings of the 35th Conference on Machine Learning, SFI postdoc-stipendiat Hajime Shimao og Junpei Komiyama, en forskningsmedarbejder ved University of Tokyo, tilbyde en måde at sikre retfærdighed i maskinlæring. De har udtænkt en algoritme, der pålægger en retfærdighedsbegrænsning, der forhindrer bias.

"Så sig, at kreditkortgodkendelsesprocenten for sort-hvide [kunder] ikke kan variere mere end 20 procent. Med denne form for begrænsning, vores algoritme kan tage det og give den bedste forudsigelse for at opfylde begrænsningen, " siger Shimao. "Hvis du vil have en forskel på 20 procent, fortæl det til vores maskine, og vores maskine kan opfylde denne begrænsning."

Denne evne til præcist at kalibrere begrænsningen gør det muligt for virksomheder at sikre, at de overholder føderale ikke-diskrimineringslove, tilføjer Komiyama. Teamets algoritme "gør os i stand til strengt at kontrollere det retfærdighedsniveau, der kræves i disse juridiske sammenhænge, " siger Komiyama.

Korrigering for bias indebærer en afvejning, selvom, Shimao og Komiyama noterer sig i undersøgelsen. Fordi begrænsningen kan påvirke, hvordan maskinen læser andre aspekter af dataene, det kan ofre noget af maskinens forudsigelseskraft.

Shimao siger, at han gerne vil se virksomheder bruge algoritmen til at hjælpe med at udrydde den skjulte diskrimination, der kan lure i deres maskinlæringsprogrammer. "Vores håb er, at det er noget, der kan bruges, så maskiner kan forhindres i at diskriminere, når det er nødvendigt."


Varme artikler