Videnskab
 science >> Videnskab >  >> Elektronik

Deep learning strækker sig op til videnskabelige supercomputere

Forskere leverede en 15-petaflop dyb-læringssoftware og kørte den på Cori, en supercomputer ved National Energy Research Scientific Computing Center, en Department of Energy Office of Science brugerfacilitet. Kredit:Lawrence Berkeley National Laboratory

Maskinelæring, en form for kunstig intelligens, nyder hidtil uset succes i kommercielle applikationer. Imidlertid, brugen af ​​maskinlæring i højtydende computing til videnskab har været begrænset. Hvorfor? Avancerede maskinlæringsværktøjer var ikke designet til store datasæt, som dem der bruges til at studere stjerner og planeter. Et team fra Intel, National Energy Research Scientific Computing Center (NERSC), og Stanford ændrede den situation. De udviklede den første 15-petaflop deep-learning software. De demonstrerede sin evne til at håndtere store datasæt via testkørsler på Cori-supercomputeren.

Brug af maskinlæringsteknikker på supercomputere, forskere kunne udtrække indsigt fra store, komplekse datasæt. Kraftige instrumenter, såsom acceleratorer, producere massive datasæt. Den nye software kan gøre verdens største supercomputere i stand til at passe sådanne data ind i deep learning-anvendelser. Den resulterende indsigt kan være til gavn for modellering af jordsystemer, fusionsenergi, og astrofysik.

Maskinlæringsteknikker rummer potentiale til at gøre det muligt for forskere at udvinde værdifuld indsigt fra store, komplekse datasæt, der produceres af acceleratorer, lyskilder, teleskoper, og computersimuleringer. Selvom disse teknikker har haft stor succes i en række kommercielle anvendelser, deres brug i højtydende databehandling til videnskab har været begrænset, fordi eksisterende værktøjer ikke var designet til at arbejde med de terabyte- til petabyte-størrelse datasæt, der findes i mange videnskabsdomæner.

For at løse dette problem et samarbejde mellem Intel, National Energy Research Scientific Computing Center, og Stanford University har arbejdet på at løse problemer, der opstår ved brug af deep learning-teknikker, en form for maskinlæring, på terabyte og petabyte datasæt. Holdet udviklede den første 15-petaflop deep-learning software. De demonstrerede dets skalerbarhed til dataintensive applikationer ved at udføre en række træningskørsler ved hjælp af store videnskabelige datasæt. Kørslerne brugte fysik- og klimabaserede datasæt på Cori, en supercomputer placeret på National Energy Research Scientific Computing Center. De opnåede en peak rate mellem 11,73 og 15,07 petaflops (enkelt præcision) og en gennemsnitlig vedvarende ydeevne på 11,41 til 13,47 petaflops. (En petaflop er millioner milliarder beregninger i sekundet.)