AI kan bruges til at identificere potentielle gerningsmænd til voldelige forbrydelser og vurdere risikoen for en kriminel gentagelse. Kredit:Max Pixel, licenseret under CC0
En intelligent vandpistol, der bruger ansigtsgenkendelse til at identificere sine mål, hjælper med at fremhæve nogle af de nye menneskerettighedsspørgsmål omkring kunstig intelligens (AI) – et forskningsområde, der er i fremmarch, efterhånden som nye teknologier bliver mere og mere udbredte i vores daglige tid. liv.
"Det er meget svært at være AI-forsker nu og ikke være opmærksom på de etiske implikationer, disse algoritmer har, sagde professor Bernd Stahl, direktør for Center for Computing and Social Responsibility ved De Montfort University i Leicester, Storbritannien.
"Vi er nødt til at komme til en bedre forståelse af ikke kun, hvad disse teknologier kan gøre, men hvordan de vil spille ud i samfundet og verden som helhed."
Han leder et projekt kaldet SHERPA, som forsøger at kæmpe med nogle af de etiske spørgsmål omkring smarte informationssystemer, der bruger maskinlæring, en form for AI, og andre algoritmer til at analysere store datasæt.
Den intelligente vandpistol blev skabt med det formål at fremhæve, hvordan skævheder i algoritmer kan føre til diskrimination og uretfærdig behandling. Bygget af en kunstner for SHERPA, vandpistolen kan programmeres til at vælge dens mål.
"Vores kunstner har bygget en vandpistol med ansigtsgenkendelse på, så den kun vil sprøjte vand på kvinder, eller den kan ændres til at genkende et enkelt individ eller mennesker i en vis alder, " sagde prof. Stahl. "Ideen er at få folk til at tænke over, hvad denne form for teknologi kan gøre."
Mens det kan virke som en harmløs sjov at sprøjte vand mod folk, problemerne er alt andet end. AI bruges allerede til at identificere ansigter på sociale medier, svare på spørgsmål om digitale hjemmeassistenter som Alexa og Siri, og foreslå produkter til forbrugerne, når de handler online.
Det bliver også brugt til at hjælpe med at lave domme om kriminelles risiko for gentagelser eller endda til identificere dem, der kan begå voldelige forbrydelser . Forsikringsselskaber og skattemyndighederne bruger det til at hjælpe med at opdage svindel, banker har henvendt sig til kunstig intelligens for at hjælpe med at behandle låneansøgninger, og det er det endda prøvet ved grænsekontrolposter .
Påvirkninger
I løbet af det seneste år, Prof. Stahl og hans kolleger har samlet 10 casestudier, hvor de empirisk har analyseret virkningerne af disse teknologier på tværs af en række sektorer. Disse omfatter brugen af kunstig intelligens i smarte byer, dets brug af forsikringsbranchen, i uddannelse, sundhedspleje, landbrug og af regeringer.
"Der er nogle meget højprofilerede ting, der går på tværs af sektorer, som privatliv, databeskyttelse og cybersikkerhed, " sagde prof. Stahl. "AI skaber også nye udfordringer for retten til at arbejde, hvis algoritmer kan tage folks job, eller retten til frie valg, hvis den kan bruges til at blande sig i den demokratiske proces, som vi så med Cambridge Analytica."
Måske er en af de mest omstridte nye anvendelser af AI i prædiktiv politiarbejde, hvor algoritmer trænes på historiske datasæt for at udvælge mønstre i lovovertræderens adfærd og karakteristika. Dette kan så bruges til at forudsige områder, grupper eller endda enkeltpersoner, der kan være involveret i forbrydelser i fremtiden. Lignende teknologi er allerede afprøvet i nogle dele af USA og Storbritannien.
Fordomme
Men disse algoritmer kan også lære de skævheder, der allerede findes i datasæt. Hvis en politidatabase viser, at primært unge, sorte mænd bliver arresteret for en bestemt forbrydelse, det er måske ikke en retfærdig afspejling af den faktiske gerningsmandsprofil og afspejler i stedet historisk racisme i en styrke. Brug af kunstig intelligens undervist på denne type data kan forværre problemer som racisme og andre former for diskrimination.
"Gennemsigtigheden af disse algoritmer er også et problem, " sagde prof. Stahl. "Disse algoritmer foretager statistisk klassificering af data på en måde, der gør det næsten umuligt at se, hvordan det præcist skete." Dette rejser vigtige spørgsmål om, hvordan retssystemer, for eksempel, kan forblive retfærdige og retfærdige, hvis de begynder at stole på uigennemsigtige 'black box' AI-algoritmer til at informere domsafgørelser eller domme om en persons skyld.
Det næste skridt for projektet vil være at se på potentielle interventioner, der kan bruges til at løse nogle af disse problemer. Det vil se på, hvor retningslinjer kan hjælpe med at sikre, at AI-forskere bygger retfærdighed ind i deres algoritmer, hvor nye love kan styre deres brug, og hvis en regulator kan holde negative aspekter af teknologien i skak.
Men et af de problemer, mange regeringer og regulatorer står over for, er at holde trit med det hurtige forandringstempo inden for nye teknologier som AI, ifølge professor Philip Brey, der studerer teknologifilosofien ved University of Twente, i Holland.
"De fleste mennesker i dag forstår ikke teknologien, fordi den er meget kompleks, uigennemsigtig og hurtigt bevægende, " sagde han. "Af den grund er det svært at forudse og vurdere virkningerne på samfundet, og at have tilstrækkelige reguleringsmæssige og lovgivningsmæssige svar på dette. Politik er normalt betydeligt bagud."
Prof. Brey er koordinator for SIENNA-projektet, som udvikler anbefalinger og adfærdskodekser for en række nye teknologier, herunder human genomik, menneskelig forbedring, AI og robotteknologi.
Minedrift
"Informationsteknologi har, selvfølgelig, allerede haft stor indflydelse på privatlivets fred gennem internettet og de mobile enheder, vi bruger, men kunstig intelligens er i stand til at kombinere forskellige typer information og udvinde dem på en måde, der afslører fundamentalt ny information og indsigt om mennesker, " sagde prof. Brey. "Det kan gøre dette på en meget hurtig og effektiv måde."
AI-teknologi åbner døren til realtidsanalyse af folks adfærd, følelser sammen med evnen til at udlede detaljer om deres mentale tilstand eller deres hensigter.
"Det er noget, der ikke tidligere var muligt, " sagde prof. Brey. "Så det, du gør med disse oplysninger, rejser nye former for bekymringer om privatlivets fred."
SIENNA-teamet afholder workshops, konsultationer med eksperter og offentlige meningsundersøgelser, der har til formål at identificere borgernes bekymringer i 11 lande. De forbereder sig nu på at udarbejde et sæt anbefalinger, som dem, der arbejder med kunstig intelligens og andre teknologier, kan omdanne til standarder, der sikrer, at etiske og menneskerettighedsmæssige overvejelser er fastkablet i designfasen.
Denne bredere offentlige forståelse af, hvordan teknologien sandsynligvis vil påvirke dem, kan være afgørende for AI's overlevelse på længere sigt, ifølge prof. Stahl.
"Hvis vi ikke får etikken rigtigt, så vil folk nægte at bruge det, og det vil udslette ethvert teknisk fremskridt, " han sagde.
Sidste artikelKinas teknologifirma øjner IPO for homoseksuelle dating-app Grindr
Næste artikelEuropæisk priskrig presser Lufthansa hårdt