Videnskab
 science >> Videnskab >  >> Astronomi

Maskinlæring accelererer kosmologiske simuleringer

Simuleringen længst til venstre kørte med lav opløsning. Brug af maskinlæring, forskere opskalerede lavopløsningsmodellen for at skabe en højopløsningssimulering (til højre). Denne simulering fanger de samme detaljer som en konventionel højopløsningsmodel (midt), mens den kræver væsentligt færre beregningsressourcer. Kredit:Y. Li et al./Proceedings of the National Academy of Sciences 2021

Et univers udvikler sig over milliarder på milliarder af år, men forskere har udviklet en måde at skabe et komplekst simuleret univers på mindre end en dag. Teknikken, offentliggjort i denne uge Proceedings of the National Academy of Sciences , samler maskinlæring, højtydende computing og astrofysik og vil hjælpe med at indlede en ny æra af højopløselige kosmologiske simuleringer.

Kosmologiske simuleringer er en væsentlig del af at drille universets mange mysterier, inklusive dem af mørkt stof og mørk energi. Men indtil nu, forskere stod over for den fælles gåde at ikke være i stand til at have det hele ¬— simuleringer kunne fokusere på et lille område i høj opløsning, eller de kunne omfatte et stort volumen af ​​universet ved lav opløsning.

Carnegie Mellon University fysikprofessorer Tiziana Di Matteo og Rupert Croft, Flatiron Institute-forsker Yin Li, Carnegie Mellon Ph.D. kandidat Yueying Ni, University of California Riverside professor i fysik og astronomi Simeon Bird og University of California Berkeleys Yu Feng overvandt dette problem ved at lære en maskinlæringsalgoritme baseret på neurale netværk for at opgradere en simulering fra lav opløsning til super opløsning.

"Kosmologiske simuleringer skal dække et stort volumen til kosmologiske undersøgelser, mens det også kræver høj opløsning for at løse den lille skala galaksedannelsesfysik, hvilket ville medføre skræmmende beregningsmæssige udfordringer. Vores teknik kan bruges som et kraftfuldt og lovende værktøj til at matche disse to krav samtidigt ved at modellere den lille skala galaksedannelsesfysik i store kosmologiske volumener, " sagde Ni, hvem udførte træningen af ​​modellen, byggede pipeline til test og validering, analyserede dataene og lavede visualiseringen ud fra dataene.

Den trænede kode kan tage fuldskala, lavopløsningsmodeller og generere superopløsningssimuleringer, der indeholder op til 512 gange så mange partikler. For et område i universet på omkring 500 millioner lysår på tværs, der indeholder 134 millioner partikler, eksisterende metoder ville kræve 560 timer at lave en højopløsningssimulering ved hjælp af en enkelt behandlingskerne. Med den nye tilgang, forskerne behøver kun 36 minutter.

Resultaterne var endnu mere dramatiske, da flere partikler blev tilføjet til simuleringen. For et univers 1, 000 gange så stor med 134 milliarder partikler, forskernes nye metode tog 16 timer på en enkelt grafisk behandlingsenhed. Ved at bruge de nuværende metoder, en simulering af denne størrelse og opløsning ville tage en dedikeret supercomputer måneder at gennemføre.

At reducere den tid, det tager at køre kosmologiske simuleringer, "har potentialet til at give store fremskridt inden for numerisk kosmologi og astrofysik, " sagde Di Matteo. "Kosmologiske simuleringer følger universets historie og skæbne, hele vejen til dannelsen af ​​alle galakser og deres sorte huller."

Forskere bruger kosmologiske simuleringer til at forudsige, hvordan universet ville se ud i forskellige scenarier, som hvis den mørke energi, der trækker universet fra hinanden, varierede over tid. Teleskopobservationer bekræfter derefter, om simuleringernes forudsigelser stemmer overens med virkeligheden.

"Med vores tidligere simuleringer, vi viste, at vi kunne simulere universet for at opdage ny og interessant fysik, men kun ved små eller lave skalaer, " sagde Croft. "Ved at inkorporere maskinlæring, teknologien er i stand til at indhente vores ideer."

Di Matteo, Croft og Ni er en del af Carnegie Mellon's National Science Foundation (NSF) Planning Institute for Artificial Intelligence in Physics, som støttede dette arbejde, og medlemmer af Carnegie Mellon's McWilliams Center for Cosmology.

"Universet er de største datasæt, der findes - kunstig intelligens er nøglen til at forstå universet og afsløre ny fysik, " sagde Scott Dodelson, professor og leder af afdelingen for fysik på Carnegie Mellon University og direktør for NSF Planning Institute. "Denne forskning illustrerer, hvordan NSF Planning Institute for Artificial Intelligence vil fremme fysik gennem kunstig intelligens, maskinelæring, statistik og datavidenskab."

"Det er klart, at AI har en stor effekt på mange områder af videnskaben, inklusive fysik og astronomi, " sagde James Shank, en programdirektør i NSF's Afdeling for Fysik. "Vores AI-planlægningsinstitutprogram arbejder på at skubbe AI til at fremskynde opdagelse. Dette nye resultat er et godt eksempel på, hvordan AI transformerer kosmologi."

For at skabe deres nye metode, Ni og Li udnyttede disse felter til at skabe en kode, der bruger neurale netværk til at forudsige, hvordan tyngdekraften flytter mørkt stof rundt over tid. Netværkene tager træningsdata, køre beregninger og sammenligne resultaterne med det forventede resultat. Med efteruddannelse, netværkene tilpasser sig og bliver mere præcise.

Forskernes specifikke tilgang, kaldet et generativt modstandsnetværk, sætter to neurale netværk op mod hinanden. Et netværk tager lavopløsningssimuleringer af universet og bruger dem til at generere højopløsningsmodeller. Det andet netværk forsøger at adskille disse simuleringer fra dem, der er lavet med konventionelle metoder. Over tid, begge neurale netværk bliver bedre og bedre indtil, ultimativt, simuleringsgeneratoren vinder frem og skaber hurtige simuleringer, der ligner de langsomme konventionelle.

"Vi kunne ikke få det til at virke i to år, "Li sagde, "og pludselig begyndte det at virke. Vi fik smukke resultater, der matchede det, vi forventede. Vi lavede endda nogle blindtests selv, og de fleste af os kunne ikke se, hvilken der var 'rigtig', og hvilken der var 'falsk'."

På trods af kun at blive trænet ved brug af små områder med plads, de neurale netværk replikerede nøjagtigt de store strukturer, der kun optræder i enorme simuleringer.

Simuleringerne fangede ikke alt, selvom. Fordi de fokuserede på mørkt stof og tyngdekraft, mindre fænomener - såsom stjernedannelse, supernovaer og virkningerne af sorte huller - blev udeladt. Forskerne planlægger at udvide deres metoder til at omfatte de kræfter, der er ansvarlige for sådanne fænomener, og at køre deres neurale netværk 'on the fly' sammen med konventionelle simuleringer for at forbedre nøjagtigheden.


Varme artikler