Videnskab
 science >> Videnskab >  >> Elektronik

Massive fejl fundet i ansigtsgenkendelsesteknologi:amerikansk undersøgelse

Ansigtsgenkendelsessoftware kan producere vildt unøjagtige resultater, ifølge en amerikansk regerings undersøgelse af teknologien, som bruges til retshåndhævelse, lufthavnssikkerhed og andre steder

Ansigtsgenkendelsessystemer kan producere vildt unøjagtige resultater, især for ikke-hvide, ifølge en amerikansk regeringsundersøgelse offentliggjort torsdag, der sandsynligvis vil skabe ny tvivl om implementering af kunstig intelligens -teknologi.

Undersøgelsen af ​​snesevis af ansigtsgenkendelsesalgoritmer viste "falske positive"-rater for asiatiske og afroamerikanere så meget som 100 gange højere end for hvide.

Forskerne fra National Institute of Standards and Technology (NIST), et regeringsforskningscenter, fandt også to algoritmer tildelt sorte hunner det forkerte køn næsten 35 procent af tiden.

Undersøgelsen kommer midt i en udbredt udbredelse af ansigtsgenkendelse til retshåndhævelse, lufthavne, grænsesikkerhed, bankvirksomhed, detailhandel, skoler og til personlig teknologi såsom oplåsning af smartphones.

Nogle aktivister og forskere har hævdet, at potentialet for fejl er for stort, og at fejl kan resultere i fængsling af uskyldige mennesker, og at teknologien kan bruges til at skabe databaser, der kan blive hacket eller uhensigtsmæssigt brugt.

NIST-undersøgelsen fandt både "falske positive, "hvor en person fejlagtigt identificeres, og "falske negativer, "hvor algoritmen ikke præcist matcher et ansigt til en bestemt person i en database.

"En falsk negativ kan kun være en ulempe - du kan ikke komme ind i din telefon, men problemet kan normalt afhjælpes ved et andet forsøg, "sagde hovedforsker Patrick Grother.

"Men en falsk positiv i en en-til-mange-søgning sætter et forkert match på en liste over kandidater, der berettiger til yderligere undersøgelse."

Undersøgelsen fandt, at USA-udviklede ansigtsgenkendelsessystemer havde højere fejlrater for asiater, afroamerikanere og indianske grupper, med den amerikanske indiske demografi, der viser de højeste andele af falske positiver.

Imidlertid, nogle algoritmer udviklet i asiatiske lande producerede lignende nøjagtighedshastigheder for matchning mellem asiatiske og kaukasiske ansigter - hvilket forskerne sagde, foreslår, at disse forskelle kan rettes.

"Disse resultater er et opmuntrende tegn på, at mere forskelligartede træningsdata kan give mere retfærdige resultater, " sagde Grother.

Ikke desto mindre, Jay Stanley fra American Civil Liberties Union, som har kritiseret udbredelsen af ​​ansigtsgenkendelse, sagde den nye undersøgelse viser, at teknologien ikke er klar til bred implementering.

"Selv statsforskere bekræfter nu, at denne overvågningsteknologi er fejlfri og forudindtaget, "Sagde Stanley i en erklæring.

"Ét falsk match kan føre til mistede flyvninger, lange forhør, overvågningslisteplaceringer, anspændte politimøder, falske anholdelser eller værre. Men teknologiens fejl er kun en bekymring. Ansigtsgenkendelsesteknologi – nøjagtig eller ej – kan aktivere uopdagelige, vedholdende, og mistænksom overvågning i en hidtil uset skala. "

© 2019 AFP




Varme artikler