Hvis et billede tegner mere end tusind ord, ansigtsgenkendelse maler to:Det er forudindtaget.
Du husker måske for et par år siden, at Google Fotos automatisk mærkede billeder af sorte mennesker som "gorillaer, " eller Flickr (ejet af Yahoo på det tidspunkt) gør det samme og tagger folk som "aber" eller "dyr."
Tidligere i år, det New York Times rapporteret om en undersøgelse af Joy Buolamwini, en forsker ved MIT Media Lab, om kunstig intelligens, Algoritmer og bias:Hun fandt ud af, at ansigtsgenkendelse er mest præcis for hvide mænd, og mindst præcis for personer med mørkere hud, især kvinder.
Nu – da ansigtsgenkendelse overvejes til brug eller bliver brugt af politiet, lufthavne, immigrationsmyndigheder og andre – Microsoft siger, at det har forbedret sin ansigtsgenkendelsesteknologi til det punkt, hvor det har reduceret fejlprocenten for mørkere mænd og kvinder med op til 20 gange. For kvinder alene, selskabet siger, at det har reduceret fejlprocenten med ni gange.
Microsoft lavede forbedringer ved at indsamle flere data og udvide og revidere de datasæt, det brugte til at træne sin AI.
Fra et nyligt firmablogindlæg:"De højere fejlprocenter hos kvinder med mørkere hud fremhæver en brancheomspændende udfordring:Kunstig intelligens-teknologier er kun så gode som de data, der bruges til at træne dem. Hvis et ansigtsgenkendelsessystem skal fungere godt på tværs af alle mennesker, træningsdatasættet skal repræsentere en mangfoldighed af hudfarver såvel som faktorer såsom frisure, smykker og briller."
Med andre ord, virksomheden, der bragte os Tay, den sexgale og nazi-elskende chatbot, vil have os til at vide, at det prøver, det prøver virkelig. (Du husker måske også, at Microsoft tog sit AI-eksperiment Tay offline i 2016, efter at hun hurtigt begyndte at udspy skøre og racistiske ting på Twitter, afspejler de ting, hun lærte online. Virksomheden gav et "koordineret angreb fra en undergruppe af mennesker" skylden for Tays korruption.)
I relaterede nyheder, IBM annoncerede, at det vil frigive verdens største ansigtsdatasæt til teknologer og forskere, at hjælpe med at studere bias. Det frigiver faktisk to datasæt til efteråret:et, der har mere end 1 million billeder, og en anden, der har 36, 000 ansigtsbilleder ligeligt fordelt efter etnicitet, køn og alder.
Big Blue sagde også, at det forbedrede sin Watson Visual Recognition-tjeneste til ansigtsanalyse, reducere sin fejlrate med næsten tidoblet, tidligere i år.
"AI har betydelig magt til at forbedre den måde, vi lever og arbejder på, men kun hvis AI-systemer udvikles og trænes ansvarligt, og producere resultater, vi stoler på, " sagde IBM i et blogindlæg. "Sørg for, at systemet er trænet i balancerede data, og slippe af med skævheder, er afgørende for at opnå en sådan tillid."
©2018 The Mercury News (San Jose, Californien)
Distribueret af Tribune Content Agency, LLC.