Si chiama EC-EARTH il consorzio che ha dato vita al progetto prima ed alla realizzazione poi di un modello climatico che dovrebbe racchiudere lo stato dell’arte della conoscenza del sistema climatico, al fine di condurre delle simulazioni che aiutino a comprenderne l’evoluzione futura.
L’ISAC-CNR è nel consorzio e ieri è stato diramato un comunicato stampa che spiega il progetto e fornisce le indicazioni necessarie per consultare i risultati delle prime sperimentazioni.
A questo link trovate l’home page del progetto, mentre a quest’altro è possibile navigare attraverso le ricostruzioni del clima passato condotte dal modello, il confronto con le osservazioni e, naturalmente i primi scenari di proiezione al….2100. Attualmente sono disponibili simulazioni con gli scenari di emissione RCP 4.5 e 8.5, due dei nuovi scenari di emissione che sostituiranno nel prossimo report dell’IPCC quelli impiegati nell’AR4 del 2007.
Consultando questi primi output si nota che le ricostruzioni, pur riproducendo il trend di lungo periodo dei principali parametri atmosferici, non intercettano alcune importanti oscillazioni di medio periodo, tra cui, per esempio, quella degli ultimi 10-15 anni. Con riferimento alla temperatura media superficiale globale infatti, si nota un aumento decisamente significativo anche negli ultimi anni del secolo scorso e nei primi dell’attuale, cosa che sappiamo non essere avvenuta. Stranamente però, i trend delle proiezioni mostrano un iniziale appiattimento (forse riferibile alle attuali condizioni di partenza), per poi riprendere la tendenza all’aumento. In pratica il modello non intercetta la decisa frenata del riscaldamento pur prevedendo che questa terminerà a breve. Mancano inoltre, ma questo potrebbe essere soltanto un problema relativo alle caratteristiche di provvisorietà di questi primi risultati, la ricostruzione e la proiezione del contenuto di calore degli oceani, altro parametro – ben più rappresentativo della temperatura media superficiale globale- assolutamente stabile da quasi un decennio.
E’ comunque una navigazione interessante e vi invito a farla, anche se le l’impressione che ho avuto è che non siano risolti i problemi che sin qui hanno indotto non poche perplessità circa la capacità di questi sistemi di fare delle previsioni affidabili. Nel comunicato stampa leggiamo che “Il modello globale Ec-Earth rappresenta uno strumento importante e il suo utilizzo permetterà di iniziare anche in Italia le attività di ‘climate services’ raccomandate dall’Organizzazione meteorologica mondiale (Wmo), necessarie per un’efficace programmazione delle misure di adattamento ai cambiamenti climatici”.
Dunque l’obbiettivo è quello di fornire strumenti decisionali. Ora le proiezioni di lungo e lunghissimo periodo saranno pure importanti, ma è fuor di dubbio che quelle di breve e medio periodo lo sono certamente molto di più. Se la base di partenza di questo progetto è il modello delle previsioni stagionali di ECMWF (il consorzio europeo per le previsioni a medio termine), non possiamo far finta di non sapere che quel modello ha mancato completamente la previsione dell’estate del 2003 in Europa e quella del 2010 in Russia, nonché le previsioni di inverno particolarmente rigido in Eurasia e in Nord America nel 2010 e nel 2011. I pattern atmosferici che hanno generato queste anomalie, pur essendo riferibili a dinamiche più strettamente meteorologiche, hanno assunto anche caratteristiche climatiche per le loro caratteristiche spaziali e temporali, e nessuno li aveva previsti. Il problema non sono il caldo di oggi o la neve di domani, quelli sono affari di chi fa meteorologia. Ma se in mezzo mondo si muore di caldo per 60 giorni d’estate e si gela per altrettanti d’inverno, si suppone che un modello di previsione climatica debba essere in grado di dirlo in anticipo altrimenti è inutile o comunque, nella migliore delle ipotesi, soltanto sperimentale. E con gli esperimenti non si prendono decisioni. Qual’è dunque l’utilità decisionale in termini di “climate services” di questi strumenti?
In pratica sarebbe forse il caso di cercare di capire se quanto accaduto – ma potremmo fare anche altri esempi significativi- è o meno riferibile in qualche modo allo shift verso una nuova condizione generale che il sistema sembra aver subito nel primi anni 2000, così come ne ha subito certamente un’altro circa a metà degli anni ’70, altro step importante di cui non si trova traccia nelle ricostruzioni operate dal modello. E queste sono mutazioni che con il trend di lungo periodo, sia esso del tutto o soltanto in parte determinato da un forcing antropico, hanno molto poco a che fare, mentre sono decisive ai fini delle policy di adattamento.
Queste mie sono tuttavia soltanto delle prime impressioni, che nulla tolgono allo sforzo che si sta compiendo per realizzare questo prodotto. L’augurio, che immagino tutti speriamo non resti solamente tale, è che si riesca una buona volta a uscire dalla logica circolare secondo la quale si assume che il mondo si sia scaldato solo per effetto dell’azione antropica e quindi continuerà a farlo finché (ma molti dicono anche oltre) quel forcing non cesserà. E’ evidente che questo ragionamento è quantomeno limitativo e rischia di far perdere di vista l’obbiettivo finale: capire quel che è successo e immaginare quel che succederà per non avere sorprese, buone o cattive che siano.
Intanto qualcuno ha già esagerato nel prendere per oro colato le proiezioni climatiche:
http://www.bbc.co.uk/news/science-environment-14969399
Per infatti che il Time Atlas of the World mostri già come libere dai ghiacci ampie porzioni costiere della Groenlandia che…in realtà sono ancora sotto la calotta glaciale!
Li chiamano “esperimenti”…direi che cominciamo male…