Forskere i U of T Engineering har designet et 'privatlivsfilter', der forstyrrer ansigtsgenkendelsesalgoritmer. Systemet er afhængigt af to AI-skabte algoritmer:den ene udfører kontinuerlig ansigtsgenkendelse, og en anden designet til at forstyrre den første. Kredit:Avishek Bose
Hver gang du uploader et billede eller en video til en social medieplatform, dets ansigtsgenkendelsessystemer lærer lidt mere om dig. Disse algoritmer indtager data om, hvem du er, din placering og personer, du kender – og de forbedres konstant.
Efterhånden som bekymringerne for privatliv og datasikkerhed på sociale netværk vokser, U of T Engineering-forskere ledet af professor Parham Aarabi og kandidatstuderende Avishek Bose har skabt en algoritme til dynamisk at forstyrre ansigtsgenkendelsessystemer.
"Personligt privatliv er et reelt problem, da ansigtsgenkendelse bliver bedre og bedre, " siger Aarabi. "Dette er en måde, hvorpå nyttige anti-ansigtsgenkendelsessystemer kan bekæmpe denne evne."
Deres løsning udnytter en dyb læringsteknik kaldet modstridende træning, som stiller to kunstig intelligens-algoritmer op mod hinanden. Aarabi og Bose designede et sæt af to neurale netværk:det første arbejde med at identificere ansigter, og den anden arbejder på at forstyrre den førstes ansigtsgenkendelsesopgave. De to kæmper konstant og lærer af hinanden, opsætning af et igangværende AI-våbenkapløb.
Resultatet er et Instagram-lignende filter, der kan anvendes på billeder for at beskytte privatlivets fred. Deres algoritme ændrer meget specifikke pixels i billedet, lave ændringer, der næsten er umærkelige for det menneskelige øje.
"Den forstyrrende AI kan 'angribe', hvad det neurale net til ansigtsdetektion leder efter, " siger Bose. "Hvis detektions-AI leder efter øjenkrogen, for eksempel, den justerer øjenkrogene, så de er mindre synlige. Det skaber meget subtile forstyrrelser i billedet, men for detektoren er de betydelige nok til at narre systemet."
Aarabi og Bose testede deres system på 300-W ansigtsdatasættet, en industristandardpool med mere end 600 ansigter, der omfatter en bred vifte af etniciteter, lysforhold og miljøer. De viste, at deres system kunne reducere andelen af ansigter, der oprindeligt kunne påvises, fra næsten 100 procent ned til 0,5 procent.
"Nøglen her var at træne de to neurale netværk mod hinanden - hvor det ene skaber et stadig mere robust ansigtsdetektionssystem, og den anden skaber et stadig stærkere værktøj til at deaktivere ansigtsgenkendelse, " siger Bose, hovedforfatter på projektet. Holdets undersøgelse vil blive offentliggjort og præsenteret på 2018 IEEE International Workshop on Multimedia Signal Processing senere på sommeren.
Ud over at deaktivere ansigtsgenkendelse, den nye teknologi forstyrrer også billedbaseret søgning, funktionsidentifikation, vurdering af følelser og etnicitet, og alle andre ansigtsbaserede attributter, der kunne udtrækkes automatisk.
Næste, teamet håber at gøre privatlivsfilteret offentligt tilgængeligt, enten via en app eller en hjemmeside.
"For ti år siden skulle disse algoritmer defineres af mennesker, men nu lærer neurale net af sig selv – du behøver ikke at levere dem andet end træningsdata, " siger Aarabi. "I sidste ende kan de gøre nogle virkelig fantastiske ting. Det er en fascinerende tid i marken, der er et enormt potentiale."