Kredit:CC0 Public Domain
Klimatologer og statistikere fra Ca' Foscari Universitetet i Venedig har udviklet en metode til nøjagtigt at estimere systematiske fejl, der påvirker årtiers klimaforudsigelser. Den foreslåede metode lover store fremskridt hen imod opnåelse af pålidelige klimaprognoser på kort sigt. Resultatet blev offentliggjort i går på det prestigefyldte tidsskrift Videnskabelige rapporter af Natur forlagsgruppe.
Decadal klimaforudsigelse udforsker klimaudviklingen med en prognosehorisont på omkring et årti, og repræsenterer en af de mest interessante grænser for klimaforskning på grund af dens potentielt enorme økonomiske, politiske og sociale konsekvenser.
De numeriske modeller, der i øjeblikket anvendes i dekadale klimaforudsigelsessystemer, er påvirket af alvorlige systematiske fejl (eller skævheder) i nøgleområder i havet og atmosfæren, på grund af deres ufuldkomne repræsentation af grundlæggende fysiske processer. På grund af disse skævheder, den simulerede middeltilstand af klimaet kan være væsentligt forskellig fra den observerede over store regioner.
Som i tilfældet med vejrudsigten, disse modeller initialiseres – de assimilerer observerede data, så den simulerede klimaudvikling er så tæt som muligt på den observerede. For at forudsige den fremtidige udvikling, modellen er "sat fri". I den første fase er modellen således "tvunget" til at følge observationerne; derefter, fra det øjeblik det er "frigivet", afgår det gradvist fra det observerede middelklima og slapper af mod sit eget, specifikt middelklima. Som om det var to separate parallelle verdener:observerede og simulerede virkeligheder. På det tidspunkt, hvor modellen udvikler sig frit uden observationsmæssige begrænsninger, modellen driver, med en progressiv "overgang" fra den første til den anden (biased) virkelighed.
Problemstillingen er kompleks, og driftens udvikling er derfor oftest kun estimeret ved hjælp af simple empiriske metoder, og kvantificering af dens usikkerhed forsømt:Med andre ord, afdriften betragtes typisk som en ren fejl, der skal rettes.
Denne forskning, i modsætning, fokuserer på driften, som for første gang betragtes som en statistisk proces med sin egen tidsmæssige dynamik. Den statistiske model gjorde det muligt at adskille de forskellige komponenter, der stemmer overens med at bestemme drift og bias, herunder langsigtede fejltendenser og sæsonbetingelser. Yderligere, det gjorde det muligt at etablere årsagssammenhænge mellem drift og andre klimatiske processer.
Artiklen offentliggjort i går er medforfatter af Davide Zanchettin, Carlo Gaetan, Angelo Rubino og Maeregu Arisido fra DAIS sammen med forskere fra Max Planck Instituttet i Hamborg, Bjerknes Center for Klimaforskning og Geofysisk Institut ved Bergen Universitet, som en del af det store europæiske projekt FORORD (preface.b.uib.no/).
Den foreslåede metode - baseret på en lineær dynamisk model - er resultatet af synergier mellem forskningsgrupper om statistik, numerisk modellering og klimadynamik koordineret af professorerne Gaetan og Rubino (arbejdspakkeleder i projektet FORORD).
"Vores repræsenterer en innovativ applikation, inden for klimaforskning, af en statistisk metode, der er veletableret på andre områder, såsom økonomi. Vores resultat kan forhåbentlig fremme samarbejdet mellem europæiske forskere inden for statistik og klimatologi, efter en tendens, som kolleger i USA har forudset", forklarer Davide Zanchettin.
"Vi havde til formål at bringe mere sofistikerede statistiske metoder til klimaforskning. Vi nåede dette mål takket være DAIS's forpligtelse til at bygge en "bro mellem to verdener" - dynamisk klimatologi og statistik - der ofte bruger forskellige sprog", siger Angelo Rubino.
"Forord repræsenterede en fantastisk mulighed for at vise, hvordan kompleks statistisk teori ikke blot er en teoretisk øvelse, men en potentiel støtte på andre områder" slutter Carlo Gaetan.