Videnskab
 science >> Videnskab >  >> Elektronik

Framework forbedrer kontinuerlig læring for kunstig intelligens

Kredit:SilverBlu3

Forskere har udviklet en ny ramme for dybe neurale netværk, der gør det muligt for kunstig intelligens (AI)-systemer bedre at lære nye opgaver, mens de "glemmer" mindre af, hvad de har lært om tidligere opgaver. Forskerne har også vist, at brugen af ​​rammen til at lære en ny opgave kan gøre AI bedre til at udføre tidligere opgaver, et fænomen kaldet bagudoverførsel.

"Folk er i stand til løbende at lære; vi lærer hele tiden nye opgaver, uden at glemme, hvad vi allerede ved, " siger Tianfu Wu, en assisterende professor i elektro- og computerteknik ved NC State og medforfatter til et papir om arbejdet. "Til dato, AI-systemer, der bruger dybe neurale netværk, har ikke været særlig gode til dette."

"Dybe neurale netværk AI-systemer er designet til at lære smalle opgaver, " siger Xilai Li, en co-lead forfatter af papiret og en ph.d. kandidat ved NC State. "Som resultat, en af ​​flere ting kan ske, når man lærer nye opgaver. Systemer kan glemme gamle opgaver, når de lærer nye, som kaldes katastrofal glemsel. Systemer kan glemme nogle af de ting, de vidste om gamle opgaver, mens man ikke også lærer at lave nye. Eller systemer kan rette gamle opgaver på plads, mens de tilføjer nye opgaver – hvilket begrænser forbedringer og hurtigt fører til et AI-system, der er for stort til at fungere effektivt. Løbende læring, også kaldet livslang læring eller at lære at lære, forsøger at løse problemet."

"Vi har foreslået en ny ramme for løbende læring, som adskiller netværksstrukturlæring og modelparameterlæring, " siger Yingbo Zhou, co-lead forfatter af papiret og en forsker ved Salesforce Research. "Vi kalder det Learn to Grow-rammen. I eksperimentel test, Vi har fundet ud af, at det overgår tidligere tilgange til løbende læring."

For at forstå Learn to Grow-rammen, tænk på dybe neurale netværk som et rør fyldt med flere lag. Rådata går ind i toppen af ​​røret, og opgaveoutput kommer ud i bunden. Hvert "lag" i røret er en beregning, der manipulerer dataene for at hjælpe netværket med at udføre sin opgave, såsom at identificere objekter i et digitalt billede. Der er flere måder at arrangere lagene i røret på, som svarer til forskellige "arkitekturer" af netværket.

Når du beder et dybt neuralt netværk om at lære en ny opgave, Learn to Grow-rammen begynder med at udføre noget, der kaldes en eksplicit neural arkitekturoptimering via søgning. Hvad dette betyder er, at når netværket kommer til hvert lag i dets system, det kan beslutte at gøre en af ​​fire ting:springe over laget; brug laget på samme måde som tidligere opgaver brugte det; fastgør en letvægtsadapter til laget, hvilket ændrer det lidt; eller opret et helt nyt lag.

Denne arkitekturoptimering opstiller effektivt den bedste topologi, eller række af lag, nødvendig for at løse den nye opgave. Når dette er afsluttet, netværket bruger den nye topologi til at træne sig selv i, hvordan man udfører opgaven – ligesom ethvert andet AI-system med dyb indlæring.

"Vi har kørt eksperimenter med adskillige datasæt, og hvad vi har fundet er, at jo mere en ny opgave ligner tidligere opgaver, jo mere overlap der er med hensyn til de eksisterende lag, der beholdes for at udføre den nye opgave, " siger Li. "Hvad der er mere interessant er, at med den optimerede – eller "lærte" topologi – glemmer et netværk, der er trænet til at udføre nye opgaver, meget lidt af, hvad det behøvede for at udføre de ældre opgaver, også selvom de ældre opgaver ikke lignede."

Forskerne kørte også eksperimenter, der sammenlignede Learn to Grow-rammens evne til at lære nye opgaver med flere andre kontinuerlige læringsmetoder, og fandt ud af, at Learn to Grow-rammen havde bedre nøjagtighed, når de fuldførte nye opgaver.

For at teste, hvor meget hvert netværk måske har glemt, da de lærte den nye opgave, forskerne testede derefter hvert systems nøjagtighed til at udføre de ældre opgaver – og Learn to Grow-rammen overgik igen de andre netværk.

"I nogle tilfælde, Learn to Grow-rammen blev faktisk bedre til at udføre de gamle opgaver, " siger Caiming Xiong, forskningsdirektøren for Salesforce Research og en medforfatter til værket. "Dette kaldes tilbageoverførsel, og opstår, når du opdager, at at lære en ny opgave gør dig bedre til en gammel opgave. Det ser vi på mennesker hele tiden; ikke så meget med AI."

Papiret, "Lær at vokse:En kontinuerlig strukturlæringsramme for at overvinde katastrofal glemsel, " vil blive præsenteret på den 36. internationale konference om maskinlæring, afholdes 9-15 juni i Long Beach, Californien.