Videnskab
 science >> Videnskab >  >> Elektronik

Forskere måler pålidelighed, tillid til næste generations AI

Forskerne observerer en lignende forskel i overensstemmelse med eksempler uden for distribution og de modsatte eksempler, hvilket motiverer brugen af ​​overensstemmelse i attributions-kvarteret som en tillidsværdi. Kredit:US Army -grafik

Et team af hær- og industriforskere har udviklet en metrik for neurale netværk - computersystemer, der er modelleret løst efter den menneskelige hjerne - der kunne vurdere pålideligheden og tilliden til den næste generation af kunstig intelligens og maskinlæringsalgoritmer.

Dybt neuralt netværk, eller DNN'er, er en form for maskinlæring, der bruger træningsdata til at lære. Når først uddannet, de kan komme med forudsigelser, når de får nye oplysninger eller input; imidlertid, de kan let blive bedraget, hvis de nye oplysninger ligger for langt uden for dens uddannelse.

Forskere sagde i betragtning af mangfoldigheden af ​​information i uddannelsesdata og potentielle nye input, at komme med en løsning er udfordrende.

"Dette åbner en ny forskningsmulighed for at skabe den næste generation af algoritmer, der er robuste og modstandsdygtige, "sagde Dr. Brian Jalaian, en videnskabsmand ved U.S. Army Combat Capabilities Development Command's Army Research Laboratory. "Vores tilgang er alsidig og kan tilføjes som en ekstra blok til mange af hærens moderne algoritmer ved hjælp af moderne maskinlæringsalgoritmer, der er baseret på dybe neurale netværk, der bruges til visuelle billeder."

Denne nye tillidsværdi vil hjælpe hæren med at skabe sikre og sikre maskinlæringsteknikker, og vil gælde i kommando- og kontrolsystemer, præcisionsbrands- og beslutningsstøttesystemer, Sagde Jalaian.

Siden 2018 har forskere fra hæren og SRI International, gennem laboratoriets Internet of Battlefield Things Collaborative Research Alliance, har undersøgt metoder til at hærde hærens maskinlæringsalgoritmer for at give større pålidelighed og sikkerhed, og være mindre modtagelige modstridende teknikker til maskinlæring.

Forskerne offentliggjorde deres arbejde, "Attributionsbaseret tillidsværdi for dybe neurale netværk", ved konferencen for neurale informationsbehandlingssystemer i 2019.

"Mens vi havde en vis succes, vi havde ikke en tilgang til at opdage de stærkeste state-of-the-art angreb såsom (modstridende) patches, der tilføjer støj til billeder, sådan at de fører til forkerte forudsigelser, "Sagde Jalaian." I dette arbejde, vi foreslog en generativ model, som justerer aspekter af de originale inputbilleder i det underliggende originale dybe neurale netværk. Det originale dybe neurale netværks reaktion på disse genererede input vurderes derefter for at måle modelens overensstemmelse. "

Dette adskiller sig fra den eksisterende forskning, da det ikke kræver adgang til uddannelsesdata, brug af ensembler eller behovet for at træne en kalibreringsmodel på et valideringsdatasæt, der ikke er det samme som træningssættet Sagde Jalaian.

Inden for hæren, forskere fortsætter med at arbejde med test- og evalueringsfællesskabet for at udvikle containeriserede algoritmer, der måler tillid til forskellige algoritmer på tværs af forskellige applikationer.

Jalaian sagde, at de undersøger variationer af generative modeller, der kan hærde Army AI -systemer mod modstridende manipulationer, samt at undersøge modstandsdygtigheden af ​​neurale netværksmodeller, både teoretisk og empirisk, der kunne udføres inden for små smarte enheder, såsom dem, der ville være en del af Internet of Battlefield Things.


Varme artikler