Videnskab
 science >> Videnskab >  >> Elektronik

Rapport fra AI vagthunde ripper emotion tech

Kredit:CC0 Public Domain

Den mening, der påvirker anerkendelse, bør forbydes fra vigtige beslutninger, lyder som et vredt skrig ... men hvad betyder det hele? Snakken bliver varmere, rent faktisk, om kunstig intelligens indflydelse på vores daglige liv på måder, der forårsager lige så mange bekymringer som undren.

"Påvirker anerkendelse." In tech repræsenterer parlance en delmængde af ansigtsgenkendelse. Affektgenkendelse handler om følelsesmæssig AI, og det handler om kunstig intelligens, der bruges til at analysere udtryk med det formål at identificere menneskelige følelser.

Fortolker udtrykkene i dit ansigt? Hvor sund er disse fortolkninger?

På et forskningscenter på New York University, en rapport minder sine læsere om, at dette ikke er den bedste måde at forstå, hvordan mennesker har det. Rapportens opfattelse er, at enkelt og enkelt, følelsesdetekterende AI bør ikke let antages at være i stand til at foretage vigtige opkald til situationer, der kan have alvorlig indflydelse på mennesker:ved rekruttering, i overvågning af elever i klasseværelset, i kundeservice og sidst, men næppe mindst, i strafferet.

Der var behov for at undersøge, hvorfor enheder i første omgang bruger defekt teknologi til at foretage vurderinger af karakter på grundlag af fysisk udseende. Dette gælder især i sammenhænge som beskæftigelse, uddannelse, og strafferet.

AI Now Institute ved New York University udstedte AI Now 2019 -rapport . Instituttets fokus er på de sociale konsekvenser af kunstig intelligens. Instituttet bemærker, at AI -systemer bør have passende sikkerhedsforanstaltninger eller ansvarlighedsstrukturer på plads, og instituttet lyder bekymringer, hvor dette måske ikke er tilfældet.

Deres rapport fra 2019 ser på den forretningsmæssige brug af udtryksanalyse, som den i øjeblikket er ved at træffe beslutninger.

Reuters påpegede, at dette var AI Nows fjerde årsrapport om AI -værktøjer. Vurderingen undersøger risici for potentielt skadelig AI -teknologi og dens menneskelige indvirkning.

Henvendelse til instituttets rapport sagde, at affektgenkendelse har været "et særligt fokus for voksende bekymring i 2019 - ikke kun fordi det kan kode forspændinger, men fordi det mangler noget solidt videnskabeligt grundlag for at sikre nøjagtige eller endda gyldige resultater. "

Rapporten havde en stærk formulering:"Tilsynsmyndigheder bør forbyde brugen af ​​affektgenkendelse i vigtige beslutninger, der påvirker menneskers liv og adgang til muligheder. Indtil da, AI -virksomheder bør stoppe med at implementere det. "

Forfatterne hengiver sig ikke bare til det personlige; mening; de gennemgik forskning.

"I betragtning af de anfægtede videnskabelige grundlag for teknologi til affektgenkendelse - en underklasse af ansigtsgenkendelse, der hævder at opdage ting som personlighed, følelser, mentalt helbred, og andre indre stater - det bør ikke have lov til at spille en rolle i vigtige beslutninger om menneskeliv, såsom hvem der interviewes eller ansættes til et job, forsikringsprisen, vurdering af patientens smerter, eller elevernes præstationer i skolen. "

Rapporten gik endnu længere og sagde, at regeringer "specifikt skulle forbyde brug af affektgenkendelse i beslutningsprocesser med stor indsats."

Randen James Vincent ville ikke blive overrasket over dette fund. Tilbage i juli, han rapporterede om forskning, der kiggede på fejl i teknologi til nøjagtigt at læse følelser gennem ansigtsudtryk; kort fortalt, du kan ikke stole på AI til at gøre det. Han citerede en professor i psykologi ved Northeastern University. "Virksomheder kan sige, hvad de vil, men dataene er klare. "

Vincent rapporterede dengang om en gennemgang af litteraturen bestilt af Association for Psychological Science, og fem forskere undersøgte beviserne:"Emotionelle udtryk genovervejet:udfordringer ved at udlede følelser fra menneskelige ansigtsbevægelser.". Vincent sagde "Det tog dem to år at undersøge dataene, med anmeldelsen set på mere end 1, 000 forskellige undersøgelser. "

Da følelser udtrykkes på en lang række forskellige måder, det er svært pålideligt at udlede, hvordan nogen har det ud fra et enkelt sæt ansigtsbevægelser. Forfatterne sagde, at teknologivirksomheder meget vel kan stille et spørgsmål, der er fundamentalt forkert. Bestræbelser på at aflæse folks indre tilstande fra ansigtsbevægelser uden at overveje forskellige aspekter af konteksten var i bedste fald ufuldstændige og manglede i værste fald gyldighed.

Mens rapporten opfordrede til et forbud, det kan være rimeligt at overveje, at bekymringen er imod det naive tillidsniveau for en teknologi, der stadig er i behov for forbedring. Følelsesmæssig analyse skal gøres bedre.

Ifølge Randen artikel, en professor i psykologi ved Northeastern University mente, at den måske vigtigste takeaway fra anmeldelsen var, at "vi skal tænke over følelser på en mere kompleks måde."

Leo Kelton, BBC nyheder, imens, videregav synspunktet til AI Now medstifter Prof.Kate Crawford, der sagde, at undersøgelser havde vist betydelig variation med hensyn til antallet af følelsesmæssige tilstande og den måde, folk udtrykte dem på.

Reuters rapporterede om sit konferenceopkald forud for rapportens udgivelse:"AI Now -grundlæggerne Kate Crawford og Meredith Whittaker sagde, at skadelige anvendelser af AI formerer sig på trods af bred enighed om etiske principper, fordi der ikke er nogen konsekvenser for at krænke dem." Den nuværende rapport sagde, at AI-aktiveret affektgenkendelse fortsat blev implementeret i stor skala på tværs af miljøer fra klasseværelser til jobsamtaler. Det var oplysende beslutninger om, hvem der er produktiv, men ofte uden folks viden.

AI Now -rapporten indeholder specifikke eksempler på, at virksomheder driver forretning med følelsesdetekterende produkter. Et sådant firma sælger videoanalyse-kameraer, der klassificerer ansigter som vrede, frygt, og sorg, solgt til kasinoer, restauranter, detailhandlere, ejendomsmæglere, og gæstfrihedsindustrien, .

Et andet eksempel var en virksomhed med AI-drevne videobaserede værktøjer til at anbefale, hvilke kandidater en virksomhed skulle interviewe. Algoritmerne var designet til at detektere følelsesmæssigt engagement i ansøgernes mikroudtryk.

Rapporten omfattede et firma, der skabte pandebånd, der påstås at opdage og kvantificere elevernes opmærksomhedsniveauer gennem detektion af hjerneaktivitet. (AI -rapporten ignorerede ikke at tilføje, at undersøgelser "skitserer betydelige risici forbundet med implementering af følelsesmæssig AI i klasseværelset.")

© 2019 Science X Network




Varme artikler