Videnskab
 Science >> Videnskab >  >> Natur

Forsker:Klimamodeller kan køre i flere måneder på supercomputere - men min nye algoritme kan gøre dem ti gange hurtigere

Kredit:Pixabay/CC0 Public Domain

Klimamodeller er nogle af de mest komplekse stykker software, der nogensinde er skrevet, i stand til at simulere et stort antal forskellige dele af det overordnede system, såsom atmosfæren eller havet. Mange er blevet udviklet af hundredvis af videnskabsmænd gennem årtier og bliver konstant tilføjet og forfinet. De kan løbe op til over en million linjer computerkode - titusindvis af udskrevne sider.



Ikke overraskende er disse modeller dyre. Simuleringerne tager tid, ofte flere måneder, og de supercomputere, som modellerne kører på, bruger meget energi. Men en ny algoritme, jeg har udviklet, lover at gøre mange af disse klimamodelsimuleringer ti gange hurtigere, og den kan i sidste ende blive et vigtigt værktøj i kampen mod klimaændringer.

En af grundene til, at klimamodellering tager så lang tid, er, at nogle af de processer, der simuleres, i sig selv er langsomme. Havet er et godt eksempel. Det tager et par tusinde år for vand at cirkulere fra overfladen til det dybe hav og tilbage (derimod har atmosfæren en "blandingstid" på uger).

Lige siden de første klimamodeller blev udviklet i 1970'erne, indså forskerne, at dette ville blive et problem. For at bruge en model til at simulere klimaændringer, skal den tages ud fra forhold, der er repræsentative for før industrialiseringen førte til frigivelse af drivhusgasser til atmosfæren.

For at skabe en så stabil ligevægt "spin-up" videnskabsmænd deres model ved i det væsentlige at lade den køre, indtil den holder op med at ændre sig (systemet er så komplekst, at der som i den virkelige verden altid vil være nogle udsving).

En starttilstand med minimal "drift" er afgørende for nøjagtigt at simulere virkningerne af menneskeskabte faktorer på klimaet. Men takket være havet og andre træge komponenter kan dette tage flere måneder selv på store supercomputere. Ikke underligt, at klimaforskere har kaldt denne flaskehals for en af ​​de "store udfordringer" inden for deres felt.

Kan ikke bare smide flere computere efter problemet

Du spørger måske, "hvorfor ikke bruge en endnu større maskine?" Desværre ville det ikke hjælpe. Forenklet set er supercomputere blot tusindvis af individuelle computerchips, hver med snesevis af behandlingsenheder (CPU'er eller "kerner") forbundet med hinanden via et højhastighedsnetværk.

En af de maskiner, jeg bruger, har over 300.000 kerner og kan udføre næsten 20 quadrillioner aritmetiske operationer i sekundet. (Det er klart, at det deles af hundredvis af brugere, og enhver enkelt simulering vil kun bruge en lille brøkdel af maskinen.)

En klimamodel udnytter dette ved at underopdele planetens overflade i mindre områder - underdomæner - med beregninger for hver region, der udføres samtidigt på en anden CPU. I princippet er det sådan, at jo flere underdomæner du har, jo mindre tid bør det tage at udføre beregningerne.

Det er sandt indtil et punkt. Problemet er, at de forskellige underdomæner skal "vide" hvad der sker i tilstødende, hvilket kræver at overføre information mellem chips. Det er meget langsommere end den hastighed, hvormed moderne chips kan udføre aritmetiske beregninger, hvad computerforskere kalder "båndbreddebegrænsning." (Enhver, der har forsøgt at streame en video over en langsom internetforbindelse, ved, hvad det betyder.)

Der er derfor et faldende udbytte af at kaste mere computerkraft på problemet. Ocean-modeller lider især af så dårlig "skalering."

Ti gange hurtigere

Det er her den nye computeralgoritme, som jeg har udviklet og offentliggjort i Science Advances kommer ind. Det lover dramatisk at reducere spin-up-tiden for havet og andre komponenter i jordsystemmodeller. I test på typiske klimamodeller var algoritmen i gennemsnit omkring ti gange hurtigere end de nuværende tilgange, hvilket reducerede tiden fra mange måneder til en uge.

Den tid og energi, dette kan spare klimaforskere, er værdifuld i sig selv. Men at være i stand til at spin-up modeller hurtigt betyder også, at forskere kan kalibrere dem mod det, vi ved, der faktisk skete i den virkelige verden, forbedre deres nøjagtighed eller bedre definere usikkerheden i deres klimafremskrivninger. Spin-ups er så tidskrævende, at ingen af ​​dem i øjeblikket er mulige.

Den nye algoritme vil også give os mulighed for at udføre simuleringer i mere rumlige detaljer. I øjeblikket fortæller havmodeller os typisk ikke noget om funktioner, der er mindre end 1º bredde i længde- og breddegrad (ca. 110 km ved ækvator). Men mange kritiske fænomener i havet opstår i langt mindre skalaer – snesevis af meter til få kilometer – og højere rumlig opløsning vil helt sikkert føre til mere præcise klimafremskrivninger, for eksempel af havniveaustigning, stormfloder og orkanintensitet.

Sådan virker det

Som så meget "ny" forskning er den baseret på en gammel idé, i dette tilfælde en, der går århundreder tilbage til den schweiziske matematiker Leonhard Euler. Kaldet "sekvensacceleration", kan du tænke på det som at bruge tidligere oplysninger til at ekstrapolere til en "bedre" fremtid.

Blandt andre applikationer er det meget brugt af kemikere og materialeforskere til at beregne strukturen af ​​atomer og molekyler, et problem, der tilfældigvis fylder mere end halvdelen af ​​verdens supercomputerressourcer.

Sekvensacceleration er nyttig, når et problem er iterativt af natur, præcis hvad klimamodelspin-up er:du feeder output fra modellen tilbage som input til modellen. Skyl og gentag, indtil outputtet bliver lig med inputtet, og du har fundet din ligevægtsløsning.

I 1960'erne fra Harvard-matematikeren D.G. Anderson fandt på en smart måde at kombinere flere tidligere output til et enkelt input, så du kommer til den endelige løsning med langt færre gentagelser af proceduren. Cirka ti gange færre, som jeg fandt, da jeg anvendte hans plan på spin-up-problemet.

At udvikle en ny algoritme er den nemme del. At få andre til at bruge det er ofte den største udfordring. Det er derfor lovende, at UK Met Office og andre klimamodelleringscentre afprøver det.

Den næste store IPCC-rapport kommer i 2029. Det ser ud til at være langt væk, men i betragtning af den tid, det tager at udvikle modeller og udføre simuleringer, er forberedelserne allerede i gang. Koordineret af et internationalt samarbejde kendt som Coupled Model Intercomparison Project, er det disse simuleringer, der skal danne grundlag for rapporten. Det er spændende at tænke på, at min algoritme og software kan bidrage.

Flere oplysninger: Samar Khatiwala, Effektiv spin-up af jordsystemmodeller ved hjælp af sekvensacceleration, Science Advances (2024). DOI:10.1126/sciadv.adn2839

Journaloplysninger: Videnskabelige fremskridt

Leveret af The Conversation

Denne artikel er genudgivet fra The Conversation under en Creative Commons-licens. Læs den originale artikel.




Varme artikler