Kredit:Unsplash/CC0 Public Domain
I kapløbet om at udkonkurrere andre virksomheder – mangler kunstig intelligens (AI) design en dyb forståelse af, hvad data om mennesker betyder og dets relation til egenkapital. To Drexel University sociologer foreslår, at vi er mere opmærksomme på den samfundsmæssige påvirkning af AI, da den optræder hyppigere end nogensinde før.
"Coronavirus-pandemien har fremskyndet brugen af kunstig intelligens og automatisering til at erstatte menneskelige arbejdere, som en del af bestræbelserne på at minimere de risici, der er forbundet med ansigt-til-ansigt interaktioner, " sagde Kelly Joyce, Ph.d., en professor i College of Arts and Sciences og stiftende direktør for Center for Videnskab, Teknologi og samfund hos Drexel. "Vi ser i stigende grad eksempler på algoritmer, der forstærker eksisterende uligheder. Som institutioner som uddannelse, sundhedspleje, krigsførelse, og arbejde vedtage disse systemer, vi skal afhjælpe denne ulighed."
I et nyligt offentliggjort blad i Socius , Joyce, Susan Bell, Ph.d., professor ved College of Arts and Sciences, og kolleger giver udtryk for bekymring over presset for hurtigt at accelerere AI-udvikling i USA uden at accelerere den træning og udviklingspraksis, der er nødvendig for at lave etisk teknologi. Artiklen foreslår en forskningsdagsorden for en sociologi af AI.
"Sociologiens forståelse af forholdet mellem menneskelige data og langvarige uligheder er nødvendig for at lave AI-systemer, der fremmer lighed, " forklarede Joyce.
Hvordan definerer vi AI?
Begrebet AI er blevet brugt på mange forskellige måder, og tidlige fortolkninger forbinder begrebet med software, der er i stand til at lære og handle på egen hånd. For eksempel, selvkørende biler lærer og identificerer ruter og forhindringer – ligesom robotstøvsugere gør omkredsen eller layoutet af et hjem, og smarte assistenter (Alexa eller Google Assistant) identificerer deres brugers tonefald og præferencer.
"AI har et flydende definitionsomfang, der hjælper med at forklare dets appel, " sagde Joyce. "Den er ekspansiv, endnu uspecificeret betydning gør det muligt for initiativtagerne at gøre fremtidsorienterede, empirisk ubegrundet, lovpligtige krav om dets potentielle positive samfundsmæssige indvirkning."
Joyce, Bell og kolleger forklarer, at i de seneste år, programmeringsfællesskaber har i høj grad fokuseret på at udvikle machine learning (ML) som en form for AI. Begrebet ML er mere almindeligt brugt blandt forskere end begrebet AI, selvom kunstig intelligens fortsat er det offentligt vendte udtryk, der bruges af virksomheder, institutter, og initiativer. "ML lægger vægt på træning af computersystemer til at genkende, sortere, og forudsige resultater fra analyse af eksisterende datasæt, " forklarede Joyce.
AI-udøvere, dataloger, datavidenskabsmænd og ingeniører træner systemer til at genkende, sortere og forudsige resultater fra analyse af eksisterende datasæt. Mennesker indtaster eksisterende data for at hjælpe med at træne AI-systemer til at træffe selvstændige beslutninger. Problemet her er, at AI-udøvere typisk ikke forstår, hvordan data om mennesker næsten altid også er data om ulighed.
"AI-udøvere er muligvis ikke klar over, at data om X (f.eks. postnumre, sundhedsjournaler, placering af motorveje) kan også være data om Y (f.eks. klasse, køns- eller raceuligheder, socioøkonomisk status), " sagde Joyce, hvem er hovedforfatter på papiret. "De tænker måske, for eksempel, at postnumre er et neutralt stykke data, der gælder for alle mennesker på en lige måde i stedet for at forstå, at postnumre ofte også giver information om race og klasse på grund af adskillelse. Denne mangel på forståelse har resulteret i acceleration og intensivering af uligheder, efterhånden som ML-systemer udvikles og implementeres."
"Identifikation af sammenhænge mellem sårbare grupper og livsmuligheder, AI-systemer accepterer disse korrelationer som årsagssammenhæng, og bruge dem til at træffe beslutninger om interventioner fremadrettet. På denne måde, AI-systemer skaber ikke nye fremtider, men snarere replikere de varige uligheder, der findes i en bestemt social verden, " forklarer Joyce.
Er AI truet af systemisk racisme og menneskelig skævhed?
Der er politik knyttet til algoritmer, data og kode. Overvej søgemaskinen Google. Selvom Googles søgeresultater kan se ud til at være neutrale eller enkeltstående output, Googles søgemaskine genskaber den sexisme og racisme, der findes i hverdagen.
"Søgeresultater afspejler de beslutninger, der indgår i at lave algoritmerne og koderne, og disse afspejler Google-medarbejdernes holdning, " forklarer Bell. "Specielt, deres beslutninger om, hvad der skal betegnes som sexistisk eller racistisk, afspejler de bredere sociale strukturer af udbredt racisme og sexisme. På tur, beslutninger om, hvad der skal betegnes som sexistisk eller racistisk, 'træner' et ML-system. Selvom Google bebrejder brugerne for at bidrage til sexistiske og racistiske søgeresultater, kilden ligger i 'inputtet'."
Bell påpeger "i modsætning til den opfattede neutralitet af Googles søgeresultater, samfundsmæssig undertrykkelse og ulighed er indlejret i og forstærket af dem."
Et andet eksempel, forfatterne påpeger, er AI-systemer, der bruger data fra patienters elektroniske sundhedsjournaler (EPJ'er) til at komme med forudsigelser om passende behandlingsanbefalinger. Selvom dataloger og ingeniører ofte overvejer privatlivets fred, når de designer AI-systemer, at forstå de multivalente dimensioner af menneskelige data er ikke typisk en del af deres træning. I betragtning af dette, de kan antage, at EPJ-data repræsenterer objektiv viden om behandling og resultater, i stedet for at se det gennem en sociologisk linse, der genkender, hvordan EPJ-data er delvise og situerede.
"Når man bruger en sociologisk tilgang, Joyce forklarer, "Du forstår, at patientresultater ikke er neutrale eller objektive - disse er relateret til patienters socioøkonomiske status, og fortæller os ofte mere om klasseforskelle, racisme og andre former for uligheder end effektiviteten af bestemte behandlinger."
Avisen bemærker eksempler såsom en algoritme, der anbefalede, at sorte patienter modtager mindre sundhedspleje end hvide patienter med samme betingelser, og en rapport, der viser, at ansigtsgenkendelsessoftware er mindre tilbøjelig til at genkende farvede mennesker, og kvinder viste, at AI kan forstærke eksisterende uligheder.
"En sociologisk forståelse af data er vigtig, i betragtning af at en ukritisk brug af menneskelige data i AI sociotekniske systemer vil have tendens til at reproducere, og måske endda forværre, allerede eksisterende sociale uligheder, " sagde Bell. "Selvom virksomheder, der producerer AI-systemer gemmer sig bag påstanden om, at algoritmer eller platformbrugere skaber racistiske, sexistiske resultater, sociologisk videnskab illustrerer, hvordan menneskelig beslutningstagning finder sted ved hvert trin af kodningsprocessen."
I avisen, forskerne demonstrerer, at sociologisk forskning kan kombineres med anden kritisk samfundsvidenskabelig forskning for at undgå nogle af faldgruberne ved AI-applikationer. "Ved at undersøge design og implementering af AI sociotekniske systemer, sociologisk arbejde bringer menneskeligt arbejde og sociale sammenhænge i syne, " sagde Joyce. Bygger på sociologiens anerkendelse af vigtigheden af organisatoriske sammenhænge i udformningen af resultater, papiret viser, at både finansieringskilder og institutionelle sammenhænge er nøgledrivere for, hvordan AI-systemer udvikles og bruges.
Kræver AI vejledning fra sociologi? Forskere siger ja.
Joyce, Bell og kolleger foreslår, at trods velmenende bestræbelser på at inkorporere viden om sociale verdener i sociotekniske systemer, AI-forskere fortsætter med at demonstrere en begrænset forståelse af det sociale - prioriterer det, der kan være medvirkende til udførelsen af AI-ingeniøropgaver, men at slette kompleksiteten og indlejringen af sociale uligheder.
"Sociologiens dybt strukturelle tilgang står også i kontrast til tilgange, der fremhæver individuelle valg, " sagde Joyce. "En af de mest gennemgående troper af politisk liberalisme er, at sociale forandringer er drevet af individuelle valg. Som individer, logikken går, vi kan skabe mere retfærdige fremtider ved at lave og vælge bedre produkter, praksis, og politiske repræsentanter. Teknologiverdenen har en tendens til at opretholde et tilsvarende individualistisk perspektiv, når dens ingeniører og etikere lægger vægt på at eliminere menneskelig skævhed på individuelt niveau og forbedre følsomhedstræning som en måde at adressere ulighed i AI-systemer."
Joyce, Bell og kolleger inviterer sociologer til at bruge disciplinens teoretiske og metodiske værktøjer til at analysere, hvornår og hvordan uligheder gøres mere holdbare af AI-systemer. Forskerne understreger, at skabelsen af AI sociotekniske systemer ikke blot er et spørgsmål om teknologisk design, men rejser også grundlæggende spørgsmål om magt og social orden.
"Sociologer er uddannet til at identificere, hvordan uligheder er indlejret i alle aspekter af samfundet og til at pege på veje til strukturelle sociale forandringer. Derfor, sociologer bør spille en ledende rolle i forestillingen og udformningen af AI-futures, " sagde Joyce.