Kredit:CC0 Public Domain
For første gang, data fra LHCb, et stort fysikeksperiment, vil blive behandlet på en farm af GPU'er. Denne løsning er ikke kun meget billigere, men det vil hjælpe med at reducere klyngestørrelsen og behandle data med hastigheder på op til 40 Tbit/s. Forskningspapiret er udgivet i Computing og software til Big Science .
En tværfaglig taskforce af forskere fra et af de største internationale samarbejder inden for højenergifysik LHC skønhed ved CERN har foreslået en ny måde at behandle enorm datastrøm fra partikeldetektoren. Holdet består af forskere fra førende europæiske og amerikanske universiteter. Den russiske del af holdet var repræsenteret af HSE og Yandex School of Data Analysis. Hovedformålet med forslaget er at give samarbejdet en robust, effektiv og fleksibel løsning, der kunne håndtere øget dataflow, der forventes i den kommende dataoptagelsesperiode. Denne løsning er ikke kun meget billigere, men det vil hjælpe med at reducere klyngestørrelsen og behandle data med hastigheder på op til 40 Tbit/s.
Især LHC og LHCb blev skabt med det formål at søge efter "ny fysik, " noget ud over standardmodellen. Selvom forskningen har opnået moderat succes, håb om at finde helt nye partikler, såsom WIMP'er, har fejlet. Mange fysikere mener, at for at opnå nye resultater, statistikker over partikelkollision ved LHC bør øges betydeligt. Men dette kræver ikke kun nyt accelerationsudstyr – opgraderinger er i øjeblikket undervejs og skal være afsluttet i 2021-2022 – men også helt nye systemer til at behandle data om partikelkollisioner. For at registrere begivenhederne på LHCb som korrekt registreret, det rekonstruerede spor skal matche det, der er modelleret af algoritmen. Hvis der ikke er noget match, dataene er udelukket. Omkring 70 % af alle kollisioner i LHC er udelukket på denne måde, hvilket betyder, at der kræves seriøs beregningskapacitet til denne foreløbige analyse.
En gruppe forskere, herunder Andrey Ustyuzhanin, Mikhail Belous og Sergei Popov fra HSE University, præsenterede et nyt papir med en algoritme for en farm af GPU'er som en første højniveau-trigger (HLT1) til hændelsesregistrering og detektion på LHCb-detektoren. Konceptet har fået navnet Allen, efter Frances Allen, en forsker i beregningssystemteori og den første kvinde, der har modtaget Turing-prisen.
I modsætning til tidligere udløsere, det nye system overfører data fra CPU'er til GPU'er. Disse kan omfatte både professionelle løsninger (såsom Tesla GPU'er, de mest avancerede på markedet) og almindelige "gamer" GPU'er fra NVIDIA eller AMD. Takket være dette, unbracontriggeren afhænger ikke af en bestemt udstyrsleverandør, som gør det nemmere at skabe og reducerer omkostningerne. Med de højeste ydeevne systemer, triggeren kan behandle data med op til 40 Tbit/s.
I en standardordning, information om alle hændelser går fra detektoren til en nul-niveau (L0) trigger, som består af programmerbare chips (FPGA). De udfører udvælgelse på grundniveau. I den nye ordning der vil ikke være nogen L0-trigger. Dataene går straks til gården, hvor hver af de 300 GPU'er samtidigt behandler millioner af hændelser i sekundet.
Efter indledende begivenhedsregistrering og detektion, kun de udvalgte data med værdifuld fysisk information går til almindelige x86-processorer af andet-niveau triggere (HLT2). Dette betyder, at den primære beregningsbelastning relateret til hændelsesklassificering sker på gården ved hjælp af GPU'er undtagelsesvis.
Denne ramme vil hjælpe med at løse begivenhedsanalyse og udvælgelsesopgaver mere effektivt:GPU'er er oprindeligt skabt som et multikanalsystem med flere kerner. Og mens CPU'er er gearet til fortløbende informationsbehandling, GPU'er bruges til massive simultane beregninger. Ud over, de har et mere specifikt og begrænset sæt opgaver, hvilket øger ydeevnen.
Ifølge Denis Derkach, leder af LHCb-teamet på HSE University, takket være beslutningen om ikke at bruge CPU'er, den nye farm er velegnet til fremtidig LHCb-dataoptagelse. Ud over, Allen vil koste betydeligt mindre end et lignende system på CPU'er. Det vil også være enklere end de tidligere hændelsesregistreringssystemer ved acceleratorer.
Den langsigtede fordel ved den nye tilgang er særlig vigtig. Udstyr til mange fysikeksperimenter bliver i øjeblikket opgraderet over hele verden. Og praktisk talt hver sådan opgradering fører til en voksende strøm af bearbejdet information. Tidligere, eksperimenter brugte undtagelsesvis ikke systemer baseret på GPU'er. Men fordelene ved Allen - en enklere arkitektur og lavere omkostninger - er så indlysende, at denne tilgang uden tvivl vil tage føringen ud over LHCb-eksperimentet.