Videnskab
 science >> Videnskab >  >> Elektronik

Er ansættelsesalgoritmer fair? De er for uigennemsigtige til at fortælle, undersøgelse finder

Kredit:CC0 Public Domain

Tid er penge, og desværre for virksomheder, ansættelse af nye medarbejdere tager betydelig tid - mere end en måned i gennemsnit, viser forskning.

Ansættelsesbeslutninger er også fyldt med menneskelig skævhed, får nogle organisationer til at videregive i det mindste en del af deres medarbejdersøgninger til eksterne teknologivirksomheder, som screener ansøgere med maskinlæringsalgoritmer. Hvis mennesker har så svært ved at finde den, der passer bedst til deres virksomheder, tankerne går, måske kan en maskine gøre det bedre og mere effektivt.

Men ny forskning fra et team af forskere i computer- og informationsvidenskab ved Cornell University rejser spørgsmål om disse algoritmer og de teknologiske virksomheder, der udvikler og bruger dem:Hvor upartisk er den automatiserede screeningsproces? Hvordan er algoritmerne bygget op? Og af hvem, til hvilken ende, og med hvilke data?

De fandt, at virksomheder har en tendens til at foretrække uklarhed frem for gennemsigtighed på dette nye område, hvor der mangler konsensus om grundlæggende punkter - formelle definitioner af "bias" og "retfærdighed, "til at begynde med - har gjort det muligt for teknologivirksomheder at definere og adressere algoritmisk bias på deres egne præmisser.

"Jeg tror, ​​vi begynder at se en voksende anerkendelse blandt skabere af algoritmiske beslutningstagningsværktøjer, at de skal være særligt opmærksomme på, hvordan deres værktøjer påvirker mennesker, " sagde Manish Raghavan, en doktorand i datalogi og førsteforfatter til "Mitigating Bias in Algorithmic Employment Screening:Evaluating Claims and Practices, ", der skal præsenteres i januar på Association for Computing Machinery Conference on Fairness, Ansvarlighed og gennemsigtighed.

"Mange af de leverandører, vi stødte på i vores arbejde, anerkender dette (påvirkning), og de tager skridt til at imødegå partiskhed og diskrimination, " sagde Raghavan. "Men, der er en bemærkelsesværdig mangel på konsensus eller retning om præcis, hvordan dette skal gøres."

Forskerne gennemsøgte tilgængelig offentlig information for at begynde at forstå disse værktøjer og hvilke foranstaltninger, hvis nogen, virksomheder har på plads for at evaluere og afbøde algoritmiske skævheder. Beskyttet af intellektuel ejendomsret, Teknologivirksomheder behøver ikke at afsløre nogen information om deres algoritmiske modeller for screeninger før ansættelse – selvom nogle virksomheder valgte at tilbyde indsigt.

Forskerne sleb ind på 19 leverandører, der specialiserer sig i algoritmiske screeninger før ansættelse, hvilken, de fandt, inkludere spørgsmål, videointerviewanalyse og spil. De finkæmmede firmaets hjemmesider, webinarer og alle tilgængelige dokumenter for indsigt i leverandørers krav og praksis.

Meget få leverandører tilbyder konkrete oplysninger om, hvordan de validerer deres vurderinger eller afslører detaljer om, hvordan de afbøder algoritmisk bias, fandt forskere.

"Masser af leverandører nævner ikke bestræbelserne på at bekæmpe bias, hvilket er særligt bekymrende, da de enten slet ikke tænker over det, eller de er ikke gennemsigtige omkring deres praksis, " sagde Raghavan.

Selv hvis de bruger sådanne udtryk som "bias" og "fairness, " disse kan være vage. En leverandør kan hævde, at dens vurderingsalgoritme er "fair" uden at afsløre, hvordan virksomheden definerer fairness.

Det er ligesom "fritgående" æg, Raghavan sagde:Der er et sæt betingelser, hvorunder æg kan mærkes som fritgående, men vores intuitive forestilling om frit område stemmer måske ikke overens med disse forhold.

"På samme måde, at kalde en algoritme 'fair' appellerer til vores intuitive forståelse af begrebet, mens det kun opnår et meget snævrere resultat, end vi kunne håbe på, " han sagde.

Holdet håber, at papiret vil tilskynde til gennemsigtighed og samtale omkring, hvad det vil sige at handle etisk inden for dette område af vurderinger før ansættelse gennem maskinlæring.

I lyset af udfordringerne, kan det være, at algoritmer bare ikke er op til jobbet med at screene ansøgere? Ikke så hurtigt, sagde Raghavan.

"Vi ved fra mange års empiriske beviser, at mennesker lider af en række skævheder, når det kommer til at vurdere ansættelseskandidater, " sagde han. "Det virkelige spørgsmål er ikke, om algoritmer kan gøres perfekte; i stedet, den relevante sammenligning er, om de kan forbedres i forhold til alternative metoder, eller i dette tilfælde, den menneskelige status quo.

"På trods af deres mange fejl, " han sagde, "Algorithmer har potentialet til at bidrage til et mere retfærdigt samfund, og der er behov for yderligere arbejde for at sikre, at vi kan forstå og afbøde de skævheder, de medfører."

Avisens medforfattere er Solon Barocas, adjunkt i informationsvidenskab, i øjeblikket hos Microsoft Research; Jon Kleinberg, Tisch University professor i datalogi og midlertidig dekan for CIS; og Karen Levy, adjunkt i informationsvidenskab.


Varme artikler