Kredit:Pixabay/CC0 Public Domain
Menneskelige kønsbiaser, der begrænser rekrutteringsmuligheder for kvinder, efterlignes og forværres af kunstig intelligens (AI), der bruges til at sortere CV'er, ifølge ny forskning.
Studiet, bestilt af UniBank, analyseret, hvordan et panel på 40 menneskelige rekrutterere reagerede, da de nøjagtigt samme CV'er blev præsenteret med ombyttede mandlige og kvindelige køn. Processen blev derefter anvendt på forskellige ansættelsesalgoritmer for at se, om AI'en replikerede menneskelige skævheder.
Forskningen fandt, at det menneskelige rekrutteringspanel viste de stærkeste eksempler på utilsigtet bias, konsekvent foretrækker CV'er af de mandlige kandidater frem for kvindelige ækvivalenter.
Rapport medforfatter og kønspolitisk forsker fra Universitetets Policy Lab, Lektor Leah Ruppanner sagde, at vi ved, at flere kvinder end mænd har mistet deres arbejde under pandemien.
"Desværre, til data- og finansroller, kvinders CV'er blev rangeret lavere end mænd af vores menneskelige paneldeltagere, selvom de havde de samme kvalifikationer og erfaring, " sagde professor Ruppanner.
Rapportens medforfatter og digital etikforsker fra Center for AI og Digital Ethics (CAIDE), Dr. Marc Cheong sagde, at algoritmer derefter blev udviklet af forskerne for at kopiere præferencerne for det menneskelige panel.
Forskningen viste, at selv grundlæggende algoritmer kunne efterligne underbevidst menneskelig kønsbias uden at tage hensyn til en kandidats fordele.
"Selv når navnene på kandidaterne blev fjernet, AI vurderede CV'er baseret på historiske ansættelsesmønstre, hvor præferencer lænede sig mod mandlige kandidater. For eksempel, at give fordele til kandidater med mange års uafbrudt tjeneste ville automatisk stille kvinder, der har taget fri fra arbejde, dårligere på grund af omsorgsopgaver, " sagde Dr. Cheong.
"Også, i tilfælde af mere avancerede AI'er, der opererer inden for en "sort boks" uden gennemsigtighed eller menneskeligt tilsyn, der er fare for, at en hvilken som helst mængde af initial bias vil blive forstærket."
UniBank General Manager, Mike Lanzing, efterhånden som brugen af kunstig intelligens bliver mere almindelig, det er vigtigt at forstå, hvordan eksisterende skævheder føjes ind i formodet upartiske modeller.
"Vi skal passe på, at vi ikke vender årtiers fremskridt hen imod kvinders økonomiske uafhængighed og sikkerhed ved at styrke forældede holdninger til den slags arbejde, kvinder er egnede til, " sagde hr. Lanzing.
Rapporten foreslog en række tiltag, der kunne reducere skævhed i disse processer, herunder træningsprogrammer for personale inden for menneskelige ressourcer og skabe gennemsigtige ansættelsesalgoritmer designet til at reducere kønsbias.