Kredit:Pixabay/CC0 Public Domain
Forskere har fundet en bedre måde at reducere kønsbias i naturlige sprogbehandlingsmodeller og samtidig bevare vital information om betydningen af ord, ifølge en nylig undersøgelse, der kunne være et vigtigt skridt i retning af at løse problemet med menneskelige skævheder, der kryber ind i kunstig intelligens.
Mens en computer i sig selv er en upartisk maskine, er meget af de data og programmering, der flyder gennem computere, genereret af mennesker. Dette kan være et problem, når bevidste eller ubevidste menneskelige skævheder ender med at blive afspejlet i de teksteksempler, AI-modeller bruger til at analysere og "forstå" sprog.
Computere er ikke umiddelbart i stand til at forstå tekst, forklarer Lei Ding, førsteforfatter på studiet og kandidatstuderende ved Institut for Matematiske og Statistiske Videnskaber. De har brug for ord, der skal konverteres til et sæt tal for at forstå dem – en proces, der kaldes ordindlejring.
"Naturlig sprogbehandling er dybest set at lære computerne at forstå tekster og sprog," siger Bei Jiang, lektor ved Institut for Matematiske og Statistiske Videnskaber.
Når forskerne har taget dette skridt, er de i stand til at plotte ord som tal på en 2D-graf og visualisere ordenes forhold til hinanden. Dette giver dem mulighed for bedre at forstå omfanget af kønsbias og senere afgøre, om skævheden effektivt blev elimineret.
Al betydningen, ingen af skævheden
Selvom andre forsøg på at reducere eller fjerne kønsbias i tekster har været vellykkede til en vis grad, er problemet med disse tilgange, at kønsbias ikke er det eneste, der fjernes fra teksterne.
"I mange kønsnedbrydende metoder, når de reducerer skævheden i en ordvektor, reducerer eller eliminerer de også vigtig information om ordet," forklarer Jiang. Denne type information er kendt som semantisk information, og den tilbyder vigtige kontekstuelle data, der kan være nødvendige i fremtidige opgaver, der involverer disse ordindlejringer.
For eksempel, når de overvejer et ord som "sygeplejerske", ønsker forskerne, at systemet fjerner alle kønsoplysninger, der er forbundet med det pågældende udtryk, mens de stadig beholder information, der forbinder det med relaterede ord såsom læge, hospital og medicin.
"Vi er nødt til at bevare den semantiske information," siger Ding. "Uden den ville indlejringerne have en meget dårlig ydeevne [i naturlige sprogbehandlingsopgaver og -systemer]."
Hurtigt, præcist – og retfærdigt
Den nye metodologi overgik også førende debiasing-metoder i forskellige opgaver, der blev evalueret baseret på ordindlejring.
Efterhånden som den bliver raffineret, kan metoden tilbyde en fleksibel ramme, som andre forskere kan anvende på deres egne ordindlejringer. Så længe en forsker har vejledning om den rigtige gruppe ord at bruge, kan metoden bruges til at reducere bias forbundet med en bestemt gruppe.
Selvom metoden på nuværende tidspunkt stadig kræver input fra forskere, forklarer Ding, at det i fremtiden kan være muligt at have en form for indbygget system eller filter, der automatisk kan fjerne kønsbias i en række forskellige sammenhænge.
Udgivet i Proceedings of the AAAI Conference on Artificial Intelligence , er den nye metode en del af et større projekt med titlen BIAS:Responsible AI for Gender and Ethnic Labour Market Equality, der søger at løse problemer i den virkelige verden.
For eksempel kan folk, der læser den samme stillingsannonce, reagere forskelligt på bestemte ord i beskrivelsen, som ofte har en kønssammenhæng. Et system, der bruger metoden, som Ding og hans samarbejdspartnere har oprettet, ville være i stand til at markere de ord, der kan ændre en potentiel ansøgers opfattelse af jobbet eller beslutning om at søge på grund af opfattet kønsbias, og foreslå alternative ord for at reducere denne skævhed.
Selvom mange AI-modeller og -systemer er fokuseret på at finde måder at udføre opgaver med større hastighed og nøjagtighed, bemærker Ding, at teamets arbejde er en del af et voksende felt, der søger at gøre fremskridt med hensyn til et andet vigtigt aspekt af disse modeller og systemer.
"Folk fokuserer mere på ansvarlighed og retfærdighed inden for kunstige intelligenssystemer." + Udforsk yderligere