Nelle ultime settimane, complice l’uscita di uno studio che ha rivisitato i dataset della temperatura (qui un primo commento e qui un’analisi approfondita del paper), si sono riaperti gli interrogativi sul trend del riscaldamento globale degli ultimi anni. Un trend certamente inferiore a quanto atteso la cui pendenza, se c’è, è oggetto di accesa discussione scientifica.
Certamente, quando mancano ormai poco più di tre mesi alla conferenza di Parigi, scoprire pur a mezzo di un quasi ossessivo trattamento statistico dei dati che il pianeta ha continuato a scaldarsi, quando lo stesso IPCC ha sentenziato nel suo ultimo report che c’è stata una pausa o iato nell’aumento delle temperature, può essere funzionale al dibattito politico più che a quello scientifico, ma, come vedremo tra poco, il punto non è questo.
Dato infatti per scontato un contributo delle attività umane alle dinamiche recenti del clima per il tramite soprattutto delle emissioni di CO2 e quindi dell’aumento del calore ritenuto dal pianeta, il punto è, quanto è sensibile il sistema a questo contributo? Come si modificheranno, se si modificheranno, le complesse e per certi aspetti sconosciute interazioni tra gli infiniti fattori in gioco? E quanto lo faranno in relazione ai diversi livelli di riscaldamento prospettati dai diversi scenari di emissione futuri?
La risposta a queste domande passa attraverso la definizione di uno dei fattori chiave del dibattito scientifico in ordine al riscaldamento globale, un fattore noto come sensibilità climatica e scomponibile in una sensibilità che si potrebbe definire di percorso (Transient Climate Sensitivity o TCS) e una che si potrebbe definire ‘endemica’ (Equilibrium Climate Sensitivity o ECS). Tecnicamente l’ECS è l’aumento delle temperature medie superficiali atteso per un sistema in cui la CO2 fosse stabilmente in concentrazione doppia rispetto al periodo pre-industriale, mentre la TCS è l’aumento delle temperature attese per un periodo di venti anni a concentrazione di CO2 sempre doppia rispetto al periodo pre-industriale ma a sua volta in aumento dell’1% ogni anno (qui).
Dopo un trentennio circa di ricerca, cinque colossali report IPCC e quantità immani di risorse investite nella modellazione del sistema al fine di definirne la sensibilità all’aumento delle emissioni, la risposta è ancora molto simile a quella dei primi giorni di dibattito e la riassume l’IPCC nel suo ultimo report: l’ECS dovrebbe essere compresa tra 1° e 6°C, con l’estremo inferiore giudicato estremamente improbabile, quello superiore molto improbabile e il range tra 1,5° e 4,5°C giudicato probabile. Va da se’ che la differenza tra gli estremi è enorme, quello inferiore non è un problema e quello superiore potrebbe essere un disastro; come pure ampia e aperta a diverse interpretazioni per effetti possibili significativamente diversi è l’ampiezza dello spread nell’intervallo giudicato probabile.
In poche parole, tutti gli sforzi fatti non hanno risolto il problema, non sappiamo quanto e come reagirà il sistema, ammesso e non concesso che il fondamento della relazione tra forcing antropico e temperature sia corretto, altro aspetto tutto da definire.
Comunque, visto che con i tentativi di modellazione della complessità del sistema non sono arrivati grossi risultati, c’è qualcuno che si è chiesto se non potesse essere più efficace tentare di semplificare, privando cioè i modelli di simulazione di quel grado di complessità che finisce per renderli irrisolvibili e inaffidabili. Si tratta di Roy Spencer, scienziato già noto e piuttosto scettico, che nel 2014 ha pubblicato i risultati dei suoi tentativi in uno studio sul ruolo dell’ENSO (El Niño, La Niña) sull’andamento delle temperature superficiali degli oceani (qui per il pdf del paper).
Oggi, alla luce della ‘rivisitazione’ del dataset delle temperature con cui ho aperto questo post e della conseguente ‘scomparsa’ della pausa del riscaldamento globale, Spencer è tornato sull’argomento. E dimostra che, impiegando il modello semplificato con il nuovo dataset, cioè con il riscaldamento che non si sarebbe mai arrestato, la sensibilità climatica con la quale si riesce a ricostruire più efficacemente l’andamento delle temperature è di 1,5°. Molto prossima al limite inferiore dell’ipotesi IPCC, inferiore ai famosi 2°C oltre i quali il mondo dovrebbe andare arrosto e molto più simile a quanto risulta anche dagli studi più recenti sull’argomento.
In pratica, scrive Spencer sul suo blog, “anche nel nuovo dataset che elimina la pausa, il riscaldamento è così debole da implicare una sensibilità climatica al limite di ciò che l’IPCC considera altamente improbabile”.
Se poi, replicando l’esperimento della sua pubblicazione del 2014, si aggiunge anche l’ENSO e il forcing che impone al bilancio radiativo nel computo del modello semplificato, la situazione cambia ancora. Così ancora Spencer: “…abbiamo ridotto la sensibilità climatica richiesta per spiegare le osservazioni a soli 1,3°C, che è una riduzione di quasi il 50% sotto quanto necessario per pareggiare il conto dei modelli del CMIP5“.
Cioè, il mondo immaginato da modelli enormemente complessi (e costosi) si scalda due volte di più di quello reale. Ammesso e non concesso, che quello reale sia efficacemente rappresentato dalle osservazioni come recentemente modificate.
Come al solito F. Vomiero con le sue considerazioni offre molti spunti di riflessione.
Per quel che mi riguarda vorrei approfondire i concetti che lui riassume nei punti 1 e 2 del suo ragionamento.
Fabio scrive che in campo climatologico la scienza è ignorante in quanto non è riuscita ancora a comprendere a fondo il sistema climatico. Io condivido pienamente questa visione in quanto abbiamo ancora grosse difficoltà a comprendere la fisica della convezione umida, per esempio. Nei modelli questo vulnus produce incertezze enormi. La questione fu analizzata qualche anno fa da S. Bony e B. Stevens in un articolo pubblicato su Science (su CM me ne occupai con un post http://www.climatemonitor.it/?p=33816 ). In questo articolo si poneva l’accento sulla scarsa abilità dei modelli climatici a prevedere il clima futuro e se ne attribuiva la responsabilità al loro alto grado di complessità associato alla scarsa conoscenza di alcuni meccanismi fisici di base.
Bony e Stevens sono dell’avviso che i modelli semplici (quelli che privilegiano i processi fuidodinamici, per la precisione) riescono a modellare meglio il clima terrestre. Essi danno, però, delle risposte che non rafforzano il paradigma climatologico attuale e, per questo motivo, sono piuttosto snobbati.
.
I modelli più complessi non sono, sulla base dei risultati ottenuti, altrettanto performanti, ma sono più credibili perché, apparentemente, tengono conto di un maggiore quantitativo di processi fisici: il problema di fondo risiede, però, nel fatto che non siamo ancora in grado di comprendere appieno le leggi che regolano molti di questi processi.
.
R. Spencer ha sempre sottolineato che un errore di pochi punti percentuali nella modellazione del contributo delle nubi ai fini del bilancio radiativo terrestre, è in grado di falsare completamente i risultati dei modelli. Anzi è in grado di giustificare completamente tutto il riscaldamento moderno senza ricorrere al forcing radiativo della CO2. La sua è, però, una voce che predica nel deserto ed è sovente attaccato da uno stuolo di attivisti che gli rimproverano le sue convinzioni politico-religiose senza minimamente cercare di controbattere ai suoi studi.
.
Un altro aspetto del dibattito che travaglia la società odierna è la mancanza di attenzione verso il principale vulnus che a mio avviso caratterizza la comunicazione della scienza, ovvero l’incapacità di scienziati e divulgatori a comunicare l’incertezza dei loro risultati.
Emblematico al riguardo è il caso del 2014: anno più caldo di sempre o no? Chi stila questa orribile classifica basa le sue conclusioni su differenze di qualche centesimo di grado nelle temperature globali. Se nella comunicazione di questo dato tenessimo conto del margine di incertezza nella stima, si stima NON misura, della temperatura globale ci renderemmo conto che disquisire di anno più caldo di sempre a causa di una differenza di 2 centesimi di grado equivale a disquisire del sesso degli angeli. Eppure il fior fiore degli scienziati si fa trascinare in questa polemica del tutto inutile (per non dire di peggio 🙂 ).
.
Tornando ai modelli climatici si può vedere che il grafico delle temperature globali “misurate” si trova all’interno della fascia di incertezza 5%-95% rispetto alla media degli output modellistici (CMIP 5) e, in particolare, viaggia intorno al margine inferiore della banda. Se la pausa dovesse proseguire, fra qualche anno ne uscirà e, a quel punto, non ci saranno più santi: i modelli hanno toppato. Ovviamente oggi come oggi ciò non si può ancora dire, siamo ancora all’interno della fascia di incertezza e, quindi, i dati concordano con i modelli.
.
Lo stesso discorso andrebbe fatto, però, per tutti i grafici delle varie grandezze rilevanti dal punto di vista climatologico.
Per alcune grandezze questo ragionamento non vale. Consideriamo i ghiacci artici. Dall’inizio dell’anno l’estensione è stata quasi sempre compresa nella fascia di incertezza di 2-sigma rispetto al valore medio: dovremmo dedurne che l’estensione dei ghiacci artici è inferiore alla media, ma rientra nel margine di incertezza, quindi è normale. Neanche per sogno: i ghiacci artici sono destinati a scomparire entro alcuni anni con conseguenze devastanti sul clima terrestre. E che dire di quelli antartici (marini) che sono anni che viaggiano al di fuori della fascia di incertezza di 2-sigma senza che nessuno o quasi, lo dice?
.
Io farei salti di gioia se quanto scrive F. Vomiero nel punto 5 del suo commento diventasse lo standard della comunicazione scientifica climatologica, ma ciò non succederà mai perché se noi dicessimo che non siamo certi del disfacimento climatico in atto, nessuno sarebbe disposto ad accettare i sacrifici che i movimenti di opinione pro-AGW ci stanno imponendo. La parola d’ordine, pertanto, è nascondere l’incertezza ed il dubbio, marciare spediti e convinti contro la catastrofe climatica causata dall’uomo senza se e senza ma. E questo non mi sta bene e siccome non sono disposto a porgere la classica altra guancia, molte volte divento più intransigente della controparte. Del resto se lo fa la NOAA, perché non dovrei farlo io che scienziato non sono?
Ciao, Donato.
Secondo me il punto è proprio il valore della sensibilità climatica, e anche solo a guardare l’ampio range proposto dall’Ipcc non possiamo parlare di settled science in questo caso. L’approccio di Spencer mi pare corretto nella sua semplicità. Tempo fa cercavo lavori in merito che provassero a prevedere come sarebbe variato nel tempo il famoso global energy balance di trenberth e kiehl, ma non ho trovato nulla (forse colpa mia che non so cercare bene). Eppure è proprio a partire da questi modelli semplificati, come fa Spencer, che si dovrebbero stimare più facilmente (rispetto ai modelli) certe macro grandezze.
L’interessante spunto fornitoci da Guidi in questo articolo di prospettiva generale, mi stimola alcune riflessioni che vado a riportare, precisando che si tratta di opinioni personali che hanno soltanto lo scopo di fornire, spero, un ulteriore possibile contributo ai ragionamenti.
1- Il problema della possibile non perfetta corrispondenza tra modellistica e realtà è un dato di fatto, ma proprio perché nell’ambito dello studio dei fenomeni ipercomplessi questo fatto diventa una regola (non solo in campo climatico), non credo sia molto utile percorrere la strada della critica spinta verso i modelli, quanto piuttosto cercare di imparare a cogliere quello che in realtà possono offrirci e quindi la sostanza e non il dettaglio.
2- Questa problematica, introduce di conseguenza un altro concetto che è quello di ignoranza. Sì, purtroppo in tema di clima e cambiamenti climatici la scienza è purtroppo ancora abbastanza ignorante, nonostante le apparenze, e questo concetto emerge chiaramente anche nell’articolo di Guidi. Non solo ignorante, ma ancora poco attrezzata a misurare in modo corretto, ricordiamoci che praticamente in climatologia non esistono misure vere, ma soltanto stime, dati grezzi, a volte molto precari, trattati e ritrattati statisticamente con l’utilizzo di algoritmi vari. Si pensi alle serie di temperature, ai dati satellitari, ai dati paleoclimatici. Ma questo, attenzione, la scienza lo sa benissimo, e infatti la ricerca procede a ritmo serrato (vedi anche i continui ritocchi ai dati).
3- Anche il problema della sensibilità climatica è correlato a quanto abbiamo detto, per cui, personalmente, allo stato attuale delle cose, non credo sia così importante cercare di stabilire se sarà 1,8°C o 2,1°C, perché tanto sappiamo già che non è possibile farlo con precisione. Ha un certo senso invece affermare che, in base alle attuali conoscenze, potrebbe essere intorno ai due gradi.
4- Lo “IATO”: esiste, non esiste: io penso che, dall’analisi di tutti i dati che abbiamo a disposizione, sia abbastanza evidente un recente “rallentamento” del riscaldamento globale della durata di circa 11 anni, a mio avviso, la migliore stima fatta su questo periodo è stata quella operata dal prof. Zavatti (2002-2012) poco tempo fa su C.M. Purtroppo pare, che questa breve fase, sia al momento già terminata. Il significato di questa “evidenza scientifica” in termini climatici, potrebbe però essere meno importante di quanto si pensi, in quanto mi pare assodato che l’origine dei cambiamenti climatici sia multifattoriale e che quindi le varie cause in alcuni periodi possono agire in sinergia, in altri in contrasto tra di loro, generando l’ovvia irregolarità della curva.
5- In quanto al possibile approccio proposto da Roy Spencer per la semplificazione dei modelli, non ho le competenze per esprimermi, ma credo che nell’immenso dominio della ricerca climatica, ciò sia stato già provato e riprovato, anzi credo si tratti di un approccio abbastanza diffuso per cercare di isolare le possibili cause tra di loro. Piuttosto, in base al principio del “rasoio di Occam”, io proporrei una semplificazione dei concetti e dei dati, nella comunicazione mediatica della scienza, che non significa banalizzare ulteriormente, ma, in termini di ordine e onestà intellettuale, chiarire bene, ove necessario, cosa sia attualmente possibile affermare con una certa sicurezza (mai certezza) e quindi i fatti supportati in modo robusto dai dati, e cosa invece in base alle attuali conoscenze, risulta essere invece ancora mera ipotesi, mal supportata dai dati e dalle conoscenze. Insomma, in questo preciso tempo zero (stato dell’arte), distinguere bene i fatti dai fattoidi. Domani… Chissà. Fra vent’anni ne sapremo sicuramente molto di più.
Saluto sempre tutti cordialmente.
Fabio, tre cose.
1. Concordo, scientificamente non è importante sapere esattamente il valore della sensibilità climatica. Ma se su quel numero si basano policy ad elevato impatto allora lo diventa. Circa il numero, la ricerca più recente lo colloca intorno a 1,3-1,5, quindi ben al di sotto dei famosi 2 gradi ‘politicamente corretti’.
2. Lo iato esiste-non esiste. Se perché non esista, ovvero perché sia terminata la fase di rallentamento, deve arrivare El Nino, allora è storia del clima vista e stravista, non serve un movimento salva-pianeta.
3. Roy Spencer alla fine del suo post dice chiaramente che quello da lui tentato è un approccio che l’IPCC, leggi CMIP5, non vuole seguire. Non credo lo abbiano fatto in molti, perché i risultati non danno soddisfazione a quanto pare.
gg