Kredit:CC0 Public Domain
Kunstig intelligens ser ud til at være "voksende ulighed, "og dens anvendelse bør være underlagt hårde regler og grænser, især for følsomme teknologier såsom ansigtsgenkendelse, en forskningsrapport sagde torsdag.
AI Now Institute, et center på New York University, der studerer de sociale konsekvenser af kunstig intelligens, sagde, at efterhånden som disse teknologier bliver bredt udbredt, de negative virkninger begynder at dukke op.
Den 93 sider lange rapport undersøgte bekymringer, der blev rejst "fra AI-aktiveret ledelse af arbejdere, til algoritmiske bestemmelser af ydelser og sociale ydelser, til overvågning og sporing af immigranter og underrepræsenterede samfund, "skrev forskerne.
"Det, der bliver klart, er, at på tværs af forskellige domæner og kontekster, AI øger uligheden, lægge information og kontrol i hænderne på dem, der allerede har magt og yderligere frakoble dem, der ikke har det. "
Forskerne sagde, at AI -systemer implementeres på områder som sundhedspleje, uddannelse, beskæftigelse, strafferet "uden passende sikkerhedsforanstaltninger eller ansvarlige strukturer på plads."
Rapporten sagde, at regeringer og virksomheder bør standse brugen af ansigtsgenkendelse "i følsomme sociale og politiske sammenhænge", indtil risiciene er bedre forstået, og at en delmængde - "påvirke genkendelse" eller læsning af følelser ved hjælp af computerteknologi - bør forbydes i lyset af tvivl om, hvorvidt det virker.
Følelsesgenkendelse "bør ikke have lov til at spille en rolle i vigtige beslutninger om menneskeliv, såsom hvem der interviewes eller ansættes til et job, forsikringsprisen, vurdering af patientens smerter, eller elevernes præstationer i skolen, "stod der i rapporten.
Det opfordrede også til teknikere "til at have ret til at vide, hvad de bygger og til at bestride uetisk eller skadelig brug af deres arbejde."
AI Now -rapporten sagde, at medicinske organisationer, der anvender avancerede teknologier, skal implementere databeskyttelsespolitikker og give folk mulighed for "bekræftende godkendelse" muligheder for at trække sig fra undersøgelsen eller behandlingen, og fra forskning ved hjælp af deres medicinske oplysninger.
Mere generelt, forskerne sagde, at AI -industrien skal foretage "strukturelle ændringer" for at sikre, at algoritmer ikke forstærker racisme, fordomme eller mangel på mangfoldighed.
"AI -industrien er påfaldende homogen, skyldes hovedsageligt behandlingen af kvinder, farverige mennesker, kønsminoriteter, og andre underrepræsenterede grupper, "stod der i rapporten.
Bestræbelser på at regulere AI -systemer er i gang, men "bliver overskredet af regeringens vedtagelse af AI -systemer til overvågning og kontrol, "ifølge rapporten.
"På trods af voksende offentlig bekymring og lovgivningsmæssige foranstaltninger, udrulningen af ansigtsgenkendelse og andre risikable AI -teknologier er næsten ikke bremset, "skrev forskerne.
"Såkaldte 'smart city'-projekter rundt om i verden konsoliderer magten over borgerlivet i hænderne på profitprofilerede teknologivirksomheder, sætte dem til at styre kritiske ressourcer og information. "
© 2019 AFP