Nogle gange bliver spørgsmålene for meget for kunstige intelligenssystemer. Kredit:sdecoret/Shutterstock.com
Kunstig intelligens-systemer er kraftfulde værktøjer for virksomheder og regeringer til at behandle data og reagere på skiftende situationer, om det er på børsen eller på en slagmark. Men der er stadig nogle ting, AI ikke er klar til.
Vi er forskere i datalogi, der arbejder på at forstå og forbedre de måder, hvorpå algoritmer interagerer med samfundet. AI-systemer fungerer bedst, når målet er klart, og der er data af høj kvalitet, som når de bliver bedt om at skelne mellem forskellige ansigter efter at have lært af mange billeder af korrekt identificerede personer.
Nogle gange klarer AI-systemer sig så godt, at brugere og observatører bliver overraskede over, hvor indsigtsfuld teknologien er. Imidlertid, nogle gange er succes svær at måle eller defineret forkert, eller træningsdataene stemmer ikke overens med opgaven. I disse tilfælde, AI-algoritmer har en tendens til at fejle på uforudsigelige og spektakulære måder, selvom det ikke altid umiddelbart er tydeligt, at noget overhovedet er gået galt. Som resultat, det er vigtigt at være på vagt over for hypen og spændingen omkring, hvad AI kan, og ikke antage, at den løsning, den finder, altid er korrekt.
Når algoritmer er på arbejde, der bør være et menneskeligt sikkerhedsnet for at forhindre at skade mennesker. Vores forskning viste, at i nogle situationer kan algoritmer genkende problemer i, hvordan de fungerer, og bede om menneskelig hjælp. Specifikt, vi viser, at bede om menneskelig hjælp kan hjælpe med at lindre algoritmisk skævhed i nogle indstillinger.
Hvor sikker er algoritmen?
Kunstig intelligens-systemer bliver brugt i straffedom, ansigtsbaseret personlighedsprofilering, genoptage screening, sundhedsindskrivning og andre svære opgaver, hvor menneskers liv og trivsel er på spil. Amerikanske regeringsorganer begynder at øge deres udforskning og brug af AI-systemer, som svar på en nylig bekendtgørelse fra præsident Donald Trump.
Det er vigtigt at huske, selvom, at AI kan cementere misforståelser i, hvordan en opgave løses, eller forstørre eksisterende uligheder. Dette kan ske, selv når ingen har fortalt algoritmen eksplicit at behandle nogen anderledes.
For eksempel, mange virksomheder har algoritmer, der forsøger at bestemme træk ved en person ved deres ansigt - for eksempel for at gætte deres køn. De systemer, der er udviklet af amerikanske virksomheder, har en tendens til at gøre det væsentligt bedre til at kategorisere hvide mænd, end de gør kvinder og mørkere i huden; de har det værst ved mørkhudede kvinder. Systemer udviklet i Kina, imidlertid, har tendens til at gøre det værre på hvide ansigter.
Forskellen skyldes ikke, at én gruppe har ansigter, der er nemmere at klassificere end andre. Hellere, begge algoritmer er typisk trænet på en stor samling af data, der ikke er så forskelligartet som den samlede menneskelige befolkning. Hvis datasættet er domineret af en bestemt type ansigt - hvide mænd i USA, og kinesiske ansigter i Kina – så vil algoritmen nok klare sig bedre til at analysere de ansigter end andre.
Forudsete træningsdata kan gøre systemerne bedre, eller værre, til at genkende bestemte slags ansigter. Kredit:Andrey_Popov/Shutterstock.com
Uanset hvordan forskellen opstår, resultatet er, at algoritmer kan være forudindtaget ved at være mere nøjagtige på én gruppe end på en anden.
Holde et menneskeligt øje med AI
For situationer med høj indsats, algoritmens tillid til sit eget resultat – dens vurdering af, hvor sandsynligt det er, at systemet kom med det rigtige svar – er lige så vigtig som selve resultatet. De mennesker, der modtager output fra algoritmer, skal vide, hvor seriøst de skal tage resultaterne, snarere end at antage, at det er korrekt, fordi det involverede en computer.
Først for nylig er forskere begyndt at udvikle måder at identificere, meget mindre forsøg på at rette, uligheder i algoritmer og data. Algoritmer kan programmeres til at genkende deres egne mangler – og følge denne erkendelse med en anmodning om en person om at hjælpe med opgaven.
Mange typer AI-algoritmer beregner allerede et internt konfidensniveau - en forudsigelse af, hvor godt den klarede sig til at analysere et bestemt input. I ansigtsanalyse, mange AI-algoritmer har lavere tillid til mørkere ansigter og kvindeansigter end for hvide mandlige ansigter. Det er uklart, hvor meget dette er blevet taget i betragtning af retshåndhævelsen for høj-satsede brug af disse algoritmer.
Målet er, at AI'en selv skal lokalisere de områder, hvor den ikke opnår samme nøjagtighed for forskellige grupper. På disse input, AI kan udsætte sin beslutning til en menneskelig moderator. Denne teknik er især velegnet til kontekst-tunge opgaver som indholdsmoderering.
Menneskelige indholdsmoderatorer kan ikke holde trit med den strøm af billeder, der bliver lagt ud på sociale medier. Men moderering af AI-indhold er berømt for at undlade at tage højde for konteksten bag et indlæg – fejlidentifikation af diskussioner om seksuel orientering som eksplicit indhold, eller identificere uafhængighedserklæringen som hadefulde ytringer. Dette kan ende med at censurere én demografisk eller politisk gruppe unøjagtigt frem for en anden.
For at få det bedste fra begge verdener, vores forskning tyder på at score alt indhold på en automatiseret måde, ved at bruge de samme AI-metoder, der allerede er almindelige i dag. Derefter bruger vores tilgang ny foreslåede teknikker til automatisk at lokalisere potentielle uligheder i nøjagtigheden af algoritmen på forskellige beskyttede grupper af mennesker, og at overdrage beslutningerne om bestemte individer til et menneske. Som resultat, algoritmen kan være fuldstændig upartisk omkring de mennesker, som den faktisk beslutter sig for. Og mennesker bestemmer over de individer, hvor algoritmisk beslutning uundgåeligt ville have skabt skævhed.
Denne tilgang eliminerer ikke bias:Den "koncentrerer" blot potentialet for bias om et mindre sæt beslutninger, som så håndteres af mennesker, ved at bruge menneskelig sund fornuft. AI'en kan stadig udføre hovedparten af beslutningstagningsarbejdet.
Dette er en demonstration af en situation, hvor en AI-algoritme, der arbejder sammen med et menneske, kan høste fordelene og effektiviteten af AI's gode beslutninger, uden at blive låst fast i sine dårlige. Mennesker vil så have mere tid til at arbejde på det uklare, vanskelige beslutninger, der er afgørende for at sikre retfærdighed og retfærdighed.
Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.