Kredit:CC0 Public Domain
Forskere siger, at de har udviklet en ramme til at gøre computeralgoritmer "mere sikre" at bruge uden at skabe skævhed baseret på race, køn eller andre faktorer. Tricket, de siger, er at gøre det muligt for brugerne at fortælle algoritmen, hvilke former for faldgruber de skal undgå - uden at skulle vide meget om statistik eller kunstig intelligens.
Med denne beskyttelse på plads, hospitaler, virksomheder og andre potentielle brugere, der kan være forsigtige med at bruge maskinlæring til at bruge, kunne finde det et mere velsmagende værktøj til at hjælpe dem med at løse problemer, ifølge en rapport i denne uges udgave af tidsskriftet Videnskab .
Computeralgoritmer bruges til at træffe beslutninger i en række indstillinger, fra retslokaler til skoler til online shoppingsteder. Programmerne sorterer store mængder data på jagt efter nyttige mønstre, der kan anvendes på fremtidige beslutninger.
Men forskere har kæmpet med et problem, der er blevet sværere at ignorere:Selvom programmerne er automatiserede, de giver ofte partiske resultater.
For eksempel, en algoritme, der blev brugt til at bestemme fængselsstraffe, forudsagde højere tilbagefaldsprocent for sorte tiltalte, der blev fundet skyldige i forbrydelser og en lavere risiko for hvide. Disse forudsigelser viste sig at være forkerte, ifølge en ProPublica -analyse.
Biaser som denne stammer ofte fra den virkelige verden. En algoritme, der blev brugt til at bestemme, hvilke patienter der var berettiget til et koordineringsprogram for sundhedsplejen, var at underregistrere sorte patienter, hovedsageligt fordi koden var afhængig af faktiske sundhedsudgifter-og sorte patienter havde færre dollars brugt på dem end hvide gjorde.
Selvom informationen i sig selv ikke er forudindtaget, algoritmer kan stadig producere uretfærdige eller andre "uønskede resultater, "sagde Philip Thomas, en kunstig intelligensforsker ved University of Massachusetts Amherst og hovedforfatter af det nye studie.
Sortering af, hvilke processer der kan drive disse uretfærdige resultater, og derefter reparere dem, kan være en overvældende opgave for læger, hospitaler eller andre potentielle brugere, der bare vil have et værktøj, der hjælper dem med at træffe bedre beslutninger.
"De er eksperterne inden for deres område, men måske ikke i maskinlæring - så vi bør ikke forvente, at de har detaljeret viden om, hvordan algoritmer fungerer for at kontrollere algoritmernes adfærd, "Thomas sagde." Vi vil give dem en enkel grænseflade til at definere uønsket adfærd for deres applikation og derefter sikre, at algoritmen med stor sandsynlighed vil undgå denne adfærd. "
Så computerforskerne udviklede en anden type algoritme, der gjorde det muligt for brugerne lettere at definere, hvilken dårlig opførsel de ønskede, at deres program skulle undgå.
Det her, selvfølgelig, gør algoritmedesignernes job vanskeligere, Thomas sagde, fordi de er nødt til at opbygge deres algoritme uden at vide, hvilke forspændinger eller anden problematisk adfærd den eventuelle bruger ikke vil have i programmet.
"I stedet, de skal gøre algoritmen smart nok til at forstå, hvad brugeren siger, er uønsket adfærd, og derefter ræsonnere helt alene om, hvad der ville forårsage denne adfærd, og undgå det med stor sandsynlighed, "sagde han." Det gør algoritmen lidt mere kompliceret, men meget lettere for folk at bruge ansvarligt. "
For at teste deres nye rammer, forskerne prøvede det på et datasæt med optagelseseksamen score for 43, 303 brasilianske studerende og de karaktergennemsnit, de optjente i løbet af deres første tre semestre på college.
Standardalgoritmer, der forsøgte at forudsige en studerendes GPA baseret på hans eller hendes optagelseseksamen, var forudindtaget mod kvinder:Karaktererne, de forudsagde for kvinder, var lavere end faktisk var tilfældet, og de karakterer, de forudsagde for mænd, var højere. Dette forårsagede en fejlkløft mellem mænd og kvinder med et gennemsnit på 0,3 GPA -point - nok til at gøre en stor forskel i en studerendes optagelsesudsigter.
Den nye algoritme, på den anden side, skrumpede dette fejlinterval til inden for 0,05 GPA -point - hvilket gør det til en meget mere retfærdig forudsigelse af elevernes succes.
Computerforskerne prøvede også deres rammer om simulerede data for diabetespatienter. De fandt ud af, at det kunne justere en patients insulindoser mere effektivt end en standardalgoritme, resulterer i langt færre uønskede episoder med hypoglykæmi.
Men andre satte spørgsmålstegn ved den nye tilgang.
Dr. Leo Anthony Celi, en intensivist på Beth Israel Deaconess Medical Center og forsker ved MIT, hævdede, at den bedste måde at undgå bias og andre problemer er at holde maskinlæringseksperter i løkken gennem hele processen frem for at begrænse deres input til de indledende designfaser. På den måde kan de se, om en algoritme opfører sig dårligt og foretage de nødvendige rettelser.
"Det er der bare ingen vej uden om, "sagde Celi, der hjalp med at udvikle et kunstigt intelligensprogram til forbedring af behandlingsstrategier for patienter med sepsis.
Ligeledes, frontlinjebrugere såsom læger, sygeplejersker og farmaceuter bør tage en mere aktiv rolle i udviklingen af de algoritmer, de stoler på, han sagde.
Forfatterne til den nye undersøgelse var hurtige til at påpege, at deres ramme var vigtigere end de algoritmer, de genererede ved at bruge den.
"Vi siger ikke, at det er de bedste algoritmer, "sagde Emma Brunskill, en datalog ved Stanford University og papirets seniorforfatter. "Vi håber, at andre forskere på deres egne laboratorier fortsat vil lave bedre algoritmer."
Brunskill tilføjede, at hun gerne ville se, at de nye rammer opmuntrer folk til at anvende algoritmer til en bredere vifte af sundhedsmæssige og sociale problemer.
Det nye arbejde vil helt sikkert vække debat - og måske mere nødvendige samtaler mellem sundhedsvæsenet og maskinlæringsfællesskaber, Sagde Celi.
"Hvis det får folk til at have flere diskussioner, så synes jeg, det er værdifuldt, " han sagde.
© 2019 Los Angeles Times
Distribueret af Tribune Content Agency, LLC.