Kredit:CC0 Public Domain
Accenture, en professionel servicevirksomhed, vil snart lancere et nyt værktøj, der har til formål at hjælpe sine kunder med at finde unfair bias i AI-algoritmer. Når en sådan uretfærdig skævhed er opdaget, repræsentanter for virksomheden har fortalt pressen, de kan fjernes.
Mens videnskabsmænd og ingeniører fortsætter med at forbedre AI-teknologi, flere virksomheder bruger AI-baserede værktøjer til at drive forretning. At bruge AI-applikationer til at behandle kreditansøgninger er ved at blive rutine, for eksempel. Men der har været en bekymring for, at sådanne applikationer kan have indbyggede fordomme, som giver resultater, der kan opfattes som uretfærdige. Sådanne applikationer kan evt. for eksempel, har en indbygget racemæssig eller kønsmæssig skævhed, hvilket kan skævvride resultaterne. Som svar på sådanne påstande, mange store virksomheder er begyndt at tilføje bias screeners til deres suite af applikationer. Men som repræsentanter for Accenture har påpeget, mindre virksomheder har sandsynligvis ikke ressourcerne til at gøre det. Det nye værktøj, de har udviklet, vil blive markedsført med disse virksomheder i tankerne.
En prototype af det nye værktøj (som nogle er begyndt at kalde Fairness Tool) er i øjeblikket ved at blive felttestet med en ukendt partner om kreditrisikoapplikationer. Virksomheden har meddelt, at de planlægger en blød lancering i den nærmeste fremtid. De har også annonceret, at værktøjet vil være en del af et større program, der tilbydes af firmaet kaldet AI Launchpad. Ud over AI-værktøjer, programmet omfatter også træning i etik og ansvarlighed for medarbejdere.
For at finde ud af, hvilke slags data, der bruges af en AI-applikation, der kan repræsentere bias, værktøjet bruger statistiske metoder designet til at sammenligne foruddefinerede variabler som fair eller unfair. Den vil også se på andre variabler, der kan indeholde skjult bias. Data, der inkluderer indkomst, for eksempel, kan repræsentere en skjult bias mod kvinder eller minoriteter, selvom der ikke er data, der specificerer køn eller race. Værktøjet kan også bruges til at implementere ændringer i en kundes algoritme, forhåbentlig gør det mindre partisk. Men repræsentanter for Accenture bemærker, at dette har vist sig at forårsage, at nogle algoritmer generelt er mindre nøjagtige.
© 2018 Tech Xplore
Sidste artikelComputerprogram ser fem minutter ud i fremtiden
Næste artikelAT&T antitrust-sejr kan varsle en ny bølge af mediefusioner