CERNs datacenter. Kredit:Robert Hradil, Monika Majer/ProStudio22.ch
Den 29. juni 2017, CERN DC passerede milepælen på 200 petabyte data permanent arkiveret i sine båndbiblioteker. Hvor kommer disse data fra? Partikler kolliderer i Large Hadron Collider (LHC) detektorer cirka 1 milliard gange i sekundet, genererer omkring en petabyte kollisionsdata i sekundet. Imidlertid, sådanne datamængder er umulige for nuværende computersystemer at registrere, og de filtreres derfor af eksperimenterne, beholder kun de mest "interessante". De filtrerede LHC -data aggregeres derefter i CERN Data Center (DC), hvor den første datarekonstruktion udføres, og hvor en kopi arkiveres til langsigtet båndopbevaring. Selv efter den drastiske datareduktion udført af eksperimenterne, CERN DC behandler i gennemsnit en petabyte data om dagen. Sådan blev milepælen på 200 petabyte data permanent arkiveret i sine båndbiblioteker nået den 29. juni.
De fire store LHC -eksperimenter har produceret hidtil usete datamængder i de to sidste år. Dette skyldes i høj grad den fremragende ydeevne og tilgængeligheden af selve LHC. Ja, i 2016, forventningerne var oprindeligt til omkring 5 millioner sekunder med datatagning, mens den endelige total var omkring 7,5 millioner sekunder, en meget velkommen 50% stigning. 2017 følger en lignende tendens.
Yderligere, da lysstyrken er højere end i 2016, mange sammenstød overlapper hinanden, og hændelserne er mere komplekse, kræver stadig mere sofistikeret rekonstruktion og analyse. Dette har en stærk indvirkning på computerkravene. Følgelig, rekorder brydes i mange aspekter af dataindsamling, datahastigheder og datamængder, med enestående anvendelsesniveauer til computer- og lagringsressourcer.
For at klare disse udfordringer, computerinfrastrukturen som helhed, og især lagringssystemerne, gennemgik større opgraderinger og konsolidering i løbet af de to år med Long Shutdown 1. Disse opgraderinger gjorde datacentret i stand til at klare de 73 petabyte data, der blev modtaget i 2016 (heraf 49 LHC -data) og med datastrømmen, der hidtil er leveret i 2017. Disse opgraderinger tillod også CERN Advanced STORage -systemet (CASTOR) at passere den udfordrende milepæl på 200 petabyte permanent arkiverede data. Disse permanent arkiverede data repræsenterer en vigtig brøkdel af den samlede mængde data, der modtages i CERN -datacenteret, resten er midlertidige data, der periodisk bliver ryddet op.
En anden konsekvens af de større datamængder er et øget behov for dataoverførsel og dermed et behov for en højere netværkskapacitet. Siden begyndelsen af februar har et tredje 100 Gb/s (gigabit pr. sekund) fiberoptisk kredsløb forbinder CERN DC til dets eksterne udvidelse, der er vært på Wigner Research Center for Physics (RCP) i Ungarn, 1800 km væk. Den ekstra båndbredde og redundans, der leveres af dette tredje link, hjælper CERN pålideligt med computerkraft og lagring i fjernudvidelsen. Et must-have i forbindelse med beregning af stigende behov!
Dette kort viser ruterne for de tre 100 Gbit/s fiberforbindelser mellem CERN og Wigner RCP. Ruterne er valgt omhyggeligt for at sikre, at vi opretholder forbindelse i tilfælde af hændelser. (Billede:Google)
Sidste artikelHelisk snoede fotoniske krystalfibre
Næste artikelMærkelig silke:Hvorfor rappellerende edderkopper ikke spinder ude af kontrol