Videnskab
 science >> Videnskab >  >> Elektronik

Følelsesgenkendelse har et privatlivsproblem - her kan du løse det

Kredit:CC0 Public Domain

Med enheder, der lytter overalt, hvor du går, bekymringer om privatlivets fred er endemiske for avanceret teknologi. Specielt følsomme er forskellige teknikker drevet af lyd fra dine smartphones og højttalere, sætte forbrugerne i en konstant cost-benefit-analyse mellem privatliv og nytteværdi.

Tage, for eksempel, en mobilapp eller virtuel assistent, der kan lære at tilpasse sig brugernes humør og genkende følelser i realtid. Denne form for tilpasning kan skabe mere naturligt flydende samtaler, og mere nyttig, menneskelignende forståelse fra stemmeassistenter. Men hvor trækker brugeren grænsen, hvis lyden, der driver disse indsigter, var gemt fuld af identifikatorer om deres køn og demografiske oplysninger?

Et nyt papir af CSE Ph.D. studerende Mimansa Jaiswal og prof. Emily Mower Provost foreslår en metode til at fjerne denne barriere og muliggøre mere sikre teknologier, der er bygget på machine learning (ML). Ved brug af kontradiktorisk ML, de har demonstreret evnen til at "aflære" disse følsomme identifikatorer fra lyd, før den gemmes, og i stedet bruge afskalede repræsentationer af højttaleren til at træne følelsesgenkendelsesmodeller.

Følelsesgenkendelse, følelsesanalyse, og andre teknikker til automatisk at identificere forskellige komplekse egenskaber ved tale drives af ML -modeller, der er trænet i enorme lagre af mærkede data. For pålideligt at vælge mønstre i en brugers tale, modellen skal have betydelig træningserfaring med lignende tale, der hjælper den med at identificere visse fælles træk.

Disse systemer, der beskæftiger sig med typiske smartphone-brugeres dagligdag, skal derefter trænes i en lang række almindelige menneskelige taler-i det væsentlige, optagelser af samtaler.

"Håbet med dette oplæg er at vise, at disse maskinlæringsalgoritmer ender med at kode ganske mange oplysninger om en persons køn eller demografiske oplysninger, "siger Jaiswal. Disse demografiske oplysninger gemmes på virksomhedens servere, der driver en bestemt mobilapp eller stemmeassistent - hvilket efterlader brugeren åben for identifikation af virksomheden eller, værre, enhver ondsindet aflytter.

"Følgerne af lækage af følsomme oplysninger er dybtgående, "forfatterne skriver." Forskning har vist, at diskrimination forekommer på tværs af variabler i alder, race, og køn ved ansættelse, politi, og kreditvurderinger. "

Disse identificerende lyddata, opbevaret i sin rå form, kunne endda tilsidesætte fravalgsmuligheder valgt af brugeren andre steder i appen. For at håndtere dette, tjenester flyttet til lagring af repræsentationer opnået efter forbehandling på skyen, for at undgå lækage af information.

Tidligere arbejde med kodning af lyddata med fortrolighed i tankerne forsøgte at tilføje tilfældig støj til datasættet. Mens teknikken virkede, hvis lytteren ikke havde kendskab til, hvilken slags støj der blev brugt, i det øjeblik angriberen kunne få adgang til netværket, hvilket genererede anonymiteten, faldt metoden fra hinanden.

I stedet, Jaiswal og Mower Provost bruger modstridende ML -teknikker til at reducere kodningen af ​​demografiske og private funktioner fra den rå lyd, før den nogensinde er gemt. Tilbage er en abstrakt datafremstilling af den originale optagelse. Forfatterne bruger disse fremstillinger til delvis at skjule det faktiske indhold i samtalen, eliminerer de risici for privatliv, der følger med datalagring i engros.

Udfordringen var, derefter, at sikre, at dette nye format af fortrolighedsbeskyttede data stadig kan bruges til at træne ML-modeller effektivt i deres hovedopgave. Forskerne fandt ud af, at når styrken af ​​den modsatte komponent stiger, fortrolighedsmetriken stiger for det meste - og ydelsen på den primære opgave er uændret, eller kun er mindre påvirket.

"Vi oplever, at ydelsen enten opretholdes, eller der er et lille fald i ydeevnen for nogle opsætninger, "skriver forfatterne. I flere tilfælde identificerede de endda en markant stigning i ydeevnen, indebærer, at at gøre modellen blind for køn øger dens robusthed ved ikke at lære sammenhænge mellem køn- og følelsesmærker.

Jaiswal håber at kunne bruge disse fund til at gøre maskinlæringsforskning mere sikker og sikker for brugere i den virkelige verden.

"ML -modellerne er for det meste black box -modeller, " hun siger, "hvilket betyder, at du normalt ikke ved, hvad de præcist koder for, hvilke oplysninger de har, eller om disse oplysninger kan bruges på en god eller ondsindet måde. Det næste trin er at forstå forskellen i information, der kodes mellem to modeller, hvor den eneste forskel er, at man er blevet uddannet til at beskytte privatlivets fred. "

"Vi ønsker at forbedre, hvordan mennesker opfatter og interagerer med disse modeller."

Denne forskning blev offentliggjort i papiret "Privacy Enhanced Multimodal Neural Representations for Emotion Recognition, "offentliggjort på konferencen for Association for the Advancement of Artificial Intelligence (AAAI) i 2020.


Varme artikler