Videnskab
 science >> Videnskab >  >> Astronomi

Forskere bruger kunstig intelligens til at opdage gravitationsbølger

Videnskabelig visualisering af en numerisk relativitetssimulering, der beskriver kollisionen af ​​to sorte huller i overensstemmelse med den binære sorte huls fusion GW170814. Simuleringen blev udført på Theta supercomputeren ved hjælp af open source, numerisk relativitet, fællesskabssoftware Einstein Toolkit (https://einsteintoolkit.org/). Kredit:Argonne Leadership Computing Facility, Visualiserings- og dataanalysegruppe [Janet Knowles, Joseph Insley, Victor Mateevitsi, Silvio Rizzi].)

Da gravitationsbølger første gang blev opdaget i 2015 af det avancerede Laser Interferometer Gravitational-Wave Observatory (LIGO), de sendte en krusning gennem det videnskabelige samfund, da de bekræftede en anden af ​​Einsteins teorier og markerede fødslen af ​​gravitationsbølgeastronomi. Fem år senere, talrige gravitationsbølgekilder er blevet opdaget, herunder den første observation af to kolliderende neutronstjerner i gravitations- og elektromagnetiske bølger.

Da LIGO og dets internationale partnere fortsætter med at opgradere deres detektorers følsomhed over for gravitationsbølger, de vil være i stand til at sondere et større volumen af ​​universet, derved gør detektionen af ​​gravitationsbølgekilder til en daglig begivenhed. Denne opdagelsesflod vil starte en æra af præcisionsastronomi, der tager højde for ekstrasolare messenger-fænomener, inklusive elektromagnetisk stråling, gravitationsbølger, neutrinoer og kosmiske stråler. At realisere dette mål, imidlertid, vil kræve en radikal gentænkning af eksisterende metoder, der bruges til at søge efter og finde gravitationsbølger.

For nylig, beregningsforsker og leder for translationel kunstig intelligens (AI) Eliu Huerta fra det amerikanske energiministeriums (DOE) Argonne National Laboratory, i samarbejde med samarbejdspartnere fra Argonne, University of Chicago, University of Illinois i Urbana-Champaign, NVIDIA og IBM, har udviklet en ny AI-ramme i produktionsskala, der giver mulighed for accelereret, skalerbar og reproducerbar detektion af gravitationsbølger.

Denne nye ramme indikerer, at AI-modeller kan være lige så følsomme som traditionelle skabelonmatchende algoritmer, men størrelsesordener hurtigere. Desuden, disse AI-algoritmer ville kun kræve en billig grafikbehandlingsenhed (GPU), som dem, der findes i videospilsystemer, at behandle avancerede LIGO-data hurtigere end i realtid.

AI-ensemblet, der blev brugt til denne undersøgelse, behandlede en hel måned – august 2017 – med avancerede LIGO-data på mindre end syv minutter, distribuere datasættet over 64 NVIDIA V100 GPU'er. AI-ensemblet, der blev brugt af holdet til denne analyse, identificerede alle fire binære sorte hul-fusioner, der tidligere var identificeret i det datasæt, og rapporterede ingen fejlklassifikationer.

"Som datalog, hvad der er spændende for mig ved dette projekt, " sagde Ian Foster, direktør for Argonnes Data Science and Learning (DSL) division, "er, at det viser, hvordan med de rigtige værktøjer, AI-metoder kan integreres naturligt i videnskabsmænds arbejdsgange - hvilket giver dem mulighed for at udføre deres arbejde hurtigere og bedre - hvilket øger, ikke erstatter, menneskelig intelligens."

At bringe forskellige ressourcer til at bære, dette tværfaglige og multiinstitutionelle team af samarbejdspartnere har udgivet en artikel i Natur astronomi fremvisning af en datadrevet tilgang, der kombinerer teamets kollektive supercomputing-ressourcer for at muliggøre reproducerbare, accelereret, AI-drevet gravitationsbølgedetektion.

"I dette studie, vi har brugt den kombinerede kraft af AI og supercomputing til at hjælpe med at løse rettidige og relevante big-data-eksperimenter. Vi gør nu AI-studier fuldt reproducerbare, ikke blot at fastslå, om kunstig intelligens kan give en ny løsning på store udfordringer, " sagde Huerta.

Med udgangspunkt i dette projekts tværfaglige karakter, holdet ser frem til nye anvendelser af denne datadrevne ramme ud over big-data udfordringer i fysik.

"Dette arbejde fremhæver den betydelige værdi af datainfrastruktur for det videnskabelige samfund, " sagde Ben Blaiszik, en forsker ved Argonne og University of Chicago. "De langsigtede investeringer, der er foretaget af DOE, National Science Foundation (NSF), National Institutes of Standards and Technology og andre har skabt et sæt byggeklodser. Det er muligt for os at bringe disse byggeklodser sammen på nye og spændende måder for at skalere denne analyse og hjælpe med at levere disse muligheder til andre i fremtiden."

Huerta og hans forskerhold udviklede deres nye rammer gennem støtte fra NSF, Argonne's Laboratory Directed Research and Development (LDRD) program og DOE's Innovative and Novel Computational Impact on Theory and Experiment (INCITE) program.

"Disse NSF-investeringer indeholder originale, innovative ideer, der har et betydeligt løfte om at transformere den måde, videnskabelige data, der kommer i hurtige strømme, behandles. De planlagte aktiviteter bringer accelereret og heterogen computerteknologi til mange videnskabelige praksisfællesskaber, " sagde Manish Parashar, direktør for Office of Advanced Cyberinfrastructure hos NSF.


Varme artikler