Kredit:York University
Dybe konvolutionelle neurale netværk (DCNN'er) ser ikke objekter, som mennesker gør - ved at bruge konfigureret formopfattelse - og det kan være farligt i AI-applikationer i den virkelige verden, siger professor James Elder, medforfatter af en undersøgelse fra York University offentliggjort i dag.
Udgivet i Cell Press-tidsskriftet iScience , Deep learning-modeller formår ikke at fange den konfigurerede natur af menneskelig formopfattelse, er en samarbejdsundersøgelse foretaget af Elder, som besidder York Research Chair in Human and Computer Vision og er meddirektør for Yorks Center for AI &Society, og assisterende psykologiprofessor Nicholas Baker ved Loyola College i Chicago, tidligere VISTA-postdoc ved York.
Undersøgelsen brugte nye visuelle stimuli kaldet "Frankensteins" til at udforske, hvordan den menneskelige hjerne og DCNN'er behandler holistiske, konfigurerede objektegenskaber.
"Frankensteins er simpelthen genstande, der er blevet adskilt og sat sammen igen den forkerte vej rundt," siger ældste. "Som et resultat har de alle de rigtige lokale funktioner, men de forkerte steder."
Efterforskerne fandt ud af, at selvom det menneskelige visuelle system er forvirret af Frankensteins, er DCNN'er det ikke - hvilket afslører en ufølsomhed over for konfigurerede objektegenskaber.
"Vores resultater forklarer, hvorfor dybe AI-modeller fejler under visse forhold og peger på behovet for at overveje opgaver ud over objektgenkendelse for at forstå visuel behandling i hjernen," siger Elder. "Disse dybe modeller har en tendens til at tage 'genveje', når de løser komplekse genkendelsesopgaver. Selvom disse genveje kan fungere i mange tilfælde, kan de være farlige i nogle af de AI-applikationer i den virkelige verden, vi i øjeblikket arbejder på med vores industri- og regeringspartnere, " Ældste påpeger.
En sådan applikation er trafikvideosikkerhedssystemer:"Objekterne i en travl trafikplads - køretøjer, cykler og fodgængere - hindrer hinanden og ankommer til en førers øje som et virvar af afbrudte fragmenter," forklarer Elder. "Hjernen er nødt til at gruppere disse fragmenter korrekt for at identificere de korrekte kategorier og placeringer af objekterne. Et AI-system til trafiksikkerhedsovervågning, der kun er i stand til at opfatte fragmenterne individuelt, vil fejle denne opgave, hvilket potentielt misforstår risici for sårbare trafikanter. "
Ifølge forskerne førte ændringer til træning og arkitektur, der havde til formål at gøre netværk mere hjerne-lignende, ikke til konfigureret behandling, og ingen af netværkene var i stand til nøjagtigt at forudsige prøve-for-prøve menneskelige objektdomme. "Vi spekulerer i, at for at matche menneskelig konfigurationsfølsomhed skal netværk trænes til at løse bredere række af objektopgaver uden for kategorigenkendelse," bemærker Elder. + Udforsk yderligere