Algoritmer hjælper folk med at se og rette deres skævheder, viser undersøgelse
Algoritmer er en fast bestanddel af det moderne liv. Folk er afhængige af algoritmiske anbefalinger for at vade gennem dybe kataloger og finde de bedste film, ruter, information, produkter, mennesker og investeringer. Fordi folk træner algoritmer i deres beslutninger – for eksempel algoritmer, der giver anbefalinger om e-handel og sociale medier – lærer algoritmer og kodificerer menneskelige forudindtagethed.
Algoritmiske anbefalinger udviser skævhed over for populære valg og information, der fremkalder forargelse, såsom partipolitiske nyheder. På et samfundsniveau bevarer og forstærker algoritmiske skævheder strukturel racemæssig skævhed i retssystemet, kønsbias i de mennesker, virksomheder ansætter, og ulighed i rigdom i byudvikling.
Algoritmisk bias kan også bruges til at reducere menneskelig bias. Algoritmer kan afsløre skjulte strukturelle skævheder i organisationer. I et papir offentliggjort i Proceedings of the National Academy of Science , fandt mine kolleger og jeg ud af, at algoritmisk bias kan hjælpe folk til bedre at genkende og korrigere skævheder i sig selv.
Forspændingen i spejlet
I ni eksperimenter fik Begum Celikitutan, Romain Cadario og jeg forskningsdeltagere til at vurdere Uber-chauffører eller Airbnb-fortegnelser ud fra deres køreevner, troværdighed eller sandsynligheden for, at de ville leje boligen. Vi gav deltagerne relevante detaljer, såsom antallet af ture, de havde kørt, en beskrivelse af ejendommen eller en stjernebedømmelse. Vi inkluderede også en irrelevant oplysning:Et fotografi afslørede chaufførernes alder, køn og tiltrækningskraft eller et navn, der antydede, at værterne var hvide eller sorte.
Efter at deltagerne havde lavet deres vurderinger, viste vi dem en af to vurderingsoversigter:en, der viser deres egne vurderinger, eller en, der viser vurderingerne af en algoritme, der blev trænet på deres vurderinger. Vi fortalte deltagerne om den skævhed, der kunne have påvirket disse vurderinger; for eksempel at Airbnb-gæster er mindre tilbøjelige til at leje af værter med udpræget afroamerikanske navne. Vi bad dem derefter vurdere, hvor stor indflydelse bias havde på vurderingerne i resuméerne.
Uanset om deltagerne vurderede den skæve indflydelse af race, alder, køn eller tiltrækningskraft, så de mere skævhed i vurderinger lavet af algoritmer end dem selv. Denne algoritmiske spejleffekt afspejlede, om deltagerne bedømte vurderingerne af rigtige algoritmer, eller om vi viste deltagerne deres egne vurderinger og på vildledende vis fortalte dem, at en algoritme lavede disse vurderinger.