Videnskab
 science >> Videnskab >  >> Fysik

Partikelfysikere slår sig sammen med kunstig intelligens for at løse de sværeste videnskabelige problemer

Kredit:CC0 Public Domain

Eksperimenter ved Large Hadron Collider (LHC), verdens største partikelaccelerator ved det europæiske partikelfysiklaboratorium CERN, producere omkring en million gigabyte data hvert sekund. Selv efter reduktion og kompression, de indsamlede data på kun en time svarer til den datamængde, Facebook indsamler på et helt år – for meget at gemme og analysere.

Heldigvis partikelfysikere behøver ikke at håndtere alle disse data alene. De samarbejder med en form for kunstig intelligens kaldet machine learning, der lærer at lave komplekse analyser på egen hånd.

En gruppe forskere, herunder forskere ved Department of Energy's SLAC National Accelerator Laboratory og Fermi National Accelerator Laboratory, opsummere nuværende anvendelser og fremtidsudsigter for maskinlæring i partikelfysik i et papir offentliggjort i dag i Natur .

"Sammenlignet med en traditionel computeralgoritme, som vi designer til at lave en specifik analyse, vi designer en maskinlæringsalgoritme for selv at finde ud af, hvordan man laver forskellige analyser, potentielt spare os for utallige timers design- og analysearbejde, " siger medforfatter Alexander Radovic fra College of William &Mary, der arbejder på NOvA neutrino-eksperimentet.

Sigte gennem big data

For at håndtere de gigantiske datamængder produceret i moderne eksperimenter som dem på LHC, forskere anvender det, de kalder "triggere" – dedikeret hardware og software, der i realtid beslutter, hvilke data der skal opbevares til analyse, og hvilke data der skal smides ud.

I LHCb, et eksperiment, der kunne kaste lys over, hvorfor der er så meget mere stof end antistof i universet, maskinlæringsalgoritmer træffer mindst 70 procent af disse beslutninger, siger LHCb-forsker Mike Williams fra Massachusetts Institute of Technology, en af ​​forfatterne til Naturresuméet. "Maskinlæring spiller en rolle i næsten alle dataaspekter af eksperimentet, fra triggere til analyse af de resterende data, " han siger.

Machine learning har vist sig at være ekstremt vellykket inden for analyse. De gigantiske ATLAS- og CMS-detektorer ved LHC, som muliggjorde opdagelsen af ​​Higgs-bosonen, hver har millioner af sanseelementer, hvis signaler skal sættes sammen for at opnå meningsfulde resultater.

"Disse signaler udgør et komplekst datarum, " siger Michael Kagan fra SLAC, der arbejder på ATLAS og også var forfatter på Nature reviewet. "Vi er nødt til at forstå forholdet mellem dem for at komme med konklusioner, for eksempel at et bestemt partikelspor i detektoren blev produceret af en elektron, en foton eller noget andet."

Neutrino-eksperimenter har også gavn af maskinlæring. NOvA, som administreres af Fermilab, studerer, hvordan neutrinoer ændrer sig fra en type til en anden, når de rejser gennem Jorden. Disse neutrinoscillationer kunne potentielt afsløre eksistensen af ​​en ny neutrinotype, som nogle teorier forudser at være en partikel af mørkt stof. NOvA's detektorer holder øje med ladede partikler, der produceres, når neutrinoer rammer detektormaterialet, og maskinlæringsalgoritmer identificerer dem.

Fra machine learning til deep learning

Den seneste udvikling inden for maskinlæring, ofte kaldet "dyb læring, " lover at tage applikationer inden for partikelfysik endnu længere. Deep learning refererer typisk til brugen af ​​neurale netværk:computeralgoritmer med en arkitektur inspireret af det tætte netværk af neuroner i den menneskelige hjerne.

Disse neurale net lærer på egen hånd, hvordan de udfører bestemte analyseopgaver i løbet af en træningsperiode, hvor de får vist prøvedata, såsom simuleringer, og fortalte hvor godt de klarede sig.

Indtil for nylig, succesen med neurale net var begrænset, fordi træning af dem plejede at være meget hårdt, siger medforfatter Kazuhiro Terao, en SLAC-forsker, der arbejder på MicroBooNE neutrino-eksperimentet, som studerer neutrino-oscillationer som en del af Fermilabs kort-baseline neutrino-program og vil blive en del af det fremtidige Deep Underground Neutrino Experiment (DUNE) ved Long-Baseline Neutrino Facility (LBNF). "Disse vanskeligheder begrænsede os til neurale netværk, der kun var et par lag dybe, " siger han. "Takket være fremskridt inden for algoritmer og computerhardware, vi ved nu meget bedre, hvordan man bygger og træner mere dygtige netværk hundreder eller tusinder af lag dybt."

Mange af fremskridtene inden for deep learning er drevet af teknologigiganters kommercielle applikationer og den dataeksplosion, de har genereret i løbet af de sidste to årtier. "NOvA, for eksempel, bruger et neuralt netværk inspireret af arkitekturen i GoogleNet, " siger Radovic. "Det forbedrede eksperimentet på måder, som ellers kun kunne være opnået ved at indsamle 30 procent flere data."

En grobund for innovation

Maskinlæringsalgoritmer bliver mere sofistikerede og finjusterede dag for dag, åbne op for hidtil usete muligheder for at løse partikelfysiske problemer.

Mange af de nye opgaver, de kunne bruges til, er relateret til computersyn, siger Kagan. "Det ligner ansigtsgenkendelse, bortset fra at i partikelfysik, billedtræk er mere abstrakte end ører og næser."

Nogle eksperimenter som NOvA og MicroBooNE producerer data, der let kan oversættes til faktiske billeder, og AI kan let bruges til at identificere funktioner i dem. I LHC-eksperimenter, på den anden side, Billeder skal først rekonstrueres fra en grumset pulje af data genereret af millioner af sensorelementer.

"Men selvom dataene ikke ligner billeder, vi kan stadig bruge computersynsmetoder, hvis vi er i stand til at behandle dataene på den rigtige måde, " siger Radovic.

Et område, hvor denne tilgang kunne være meget nyttig, er analysen af ​​partikelstråler produceret i stort antal ved LHC. Jets er smalle sprays af partikler, hvis individuelle spor er ekstremt udfordrende at adskille. Computer vision-teknologi kan hjælpe med at identificere funktioner i jetfly.

En anden ny anvendelse af deep learning er simulering af partikelfysikdata, der forudsiger, for eksempel, hvad der sker ved partikelkollisioner ved LHC og kan sammenlignes med de faktiske data. Simuleringer som disse er typisk langsomme og kræver enorm computerkraft. AI, på den anden side, kunne lave simuleringer meget hurtigere, potentielt komplementere den traditionelle tilgang.

"For blot et par år siden, ingen ville have troet, at dybe neurale netværk kan trænes til at 'hallucinere' data fra tilfældig støj, " siger Kagan. "Selvom dette er meget tidligt arbejde, det viser meget lovende og kan hjælpe med fremtidens dataudfordringer."

Nyd godt af sund skepsis

På trods af alle åbenlyse fremskridt, maskinlæringsentusiaster møder ofte skepsis fra deres samarbejdspartnere, dels fordi maskinlæringsalgoritmer for det meste fungerer som "sorte bokse", der giver meget lidt information om, hvordan de nåede frem til en bestemt konklusion.

"Skepsis er meget sundt, " siger Williams. "Hvis du bruger maskinlæring til triggere, der kasserer data, som vi gør i LHCb, så vil du være ekstremt forsigtig og sætte barren meget højt."

Derfor, etablering af maskinlæring i partikelfysik kræver konstant indsats for bedre at forstå algoritmernes indre virkemåde og at foretage krydstjek med rigtige data, når det er muligt.

"Vi bør altid forsøge at forstå, hvad en computeralgoritme gør og altid evaluere dens udfald, " siger Terao. "Dette gælder for enhver algoritme, ikke kun maskinlæring. Så, at være skeptisk bør ikke stoppe fremskridt."

Hurtige fremskridt har fået nogle forskere til at drømme om, hvad der kunne blive muligt i den nærmeste fremtid. "I dag bruger vi mest maskinlæring til at finde funktioner i vores data, der kan hjælpe os med at besvare nogle af vores spørgsmål, " siger Terao. "Ti år fra nu, maskinlæringsalgoritmer kan muligvis stille deres egne spørgsmål uafhængigt og genkende, når de finder ny fysik."

Varme artikler