Efficienza del sistema climatico e comprensione del suo funzionamento, questi i temi toccati in un nuovo studio pubblicato da Spencer e Braswell.
Per efficienza si intende la capacità del sistema di “gestire” il calore in eccesso risultante da una alterazione del bilancio radiativo, cioè dell’equilibrio tra energia entrante, energia trattenuta e energia restituita dal sistema. Ove questa fosse bassa, un elemento perturbante, un forcing, potrebbe risultare in un eccessivo riscaldamento del sistema. Diversamente un sistema efficiente potrebbe, qualora dovesse intervenire un elemento forzante, avere la capacità di aumentare la quantità di calore restituito allo spazio, evitando o comunque così attenuando il riscaldamento.
L’aumento della concentrazione di gas serra per effetto delle attività umane, è a tutti gli effetti un elemento forzante. In termini pratici, la sua capacità di alterare il bilancio radiativo è abbastanza nota, e non è sufficiente né a spiegare il riscaldamento cui il Pianeta è stato soggetto nell’era moderna, né a giustificare le previsioni di ulteriore e dunque pericoloso riscaldamento. Questo perché all’innescarsi del forcing, dovrebbero attivarsi dei processi – feedback- in grado di amplificarne gli effetti. Questi feedback si ritiene, o almeno così è per una larga parte della comunità scientifica che si occupa di clima, dovrebbero essenzialmente essere positivi, ovvero amplificanti. Di conseguenza, le simulazioni del comportamento del sistema, i modelli climatici, sono costruite seguendo la logica di un sistema poco efficiente, destinato, o comunque a rischio, di eccessivo riscaldamento.
Qui subentra il problema della comprensione. Per quanto si possa tentare di renderli sempre più complessi cercando di tener conto di tutti i fattori noti che contribuiscono al funzionamento di un sistema, l’unico modo per testare la validità dei sistemi di simulazione è confrontarli con la realtà. Ammesso che esista, un programma che indichi la squadra di calcio che vince il campionato, è praticamente inservibile se poi a vincere è una squadra diversa. Potrà sembrare banale, ma con riferimento al funzionamento del clima, questi test si sta cominciando a farli solo ora. Non per scelta ovviamente, quanto piuttosto per impossibilità, visto che la modellistica climatica è ancora piuttosto giovane e la realtà del clima può considerarsi tale solo nell’arco di decenni. Per ovviare a questa difficoltà, i test hanno sin qui riguardato il passato, ossia, dopo aver “tarato” i sistemi di simulazione in base all’evoluzione del sistema, si è proceduto a verificare se questi lo riproducevano efficacemente. Questo ragionamento, pur ineludibile, è in realtà circolare, perché non fornisce alcuna garanzia che la proiezione delle simulazioni nel futuro restituisca dei risultati soddisfacenti, anche perché, complice un livello per alcuni aspetti piuttosto basso di comprensione scientifica, i risultati sono scarsi anche per quel che riguarda le ricostruzioni del passato. Uno degli esempi più importanti è la difficoltà che i modelli hanno a riprodurre il raffreddamento anche piuttosto marcato cui il clima è andato soggetto intorno agli anni ’70.
E’ anche vero che nel corso degli ultimi anni la quantità e l’affidabilità delle osservazioni disponibili, specie grazie all’impiego di sensori satellitari, è molto aumentata. Spencer e Braswell hanno infatti impiegato le misure della radiazione uscente del sistema CERES, confrontandole poi con gli eventi di riscaldamento per il periodo 2000-2010. Il risultato cui sono giunti restituisce l’immagine di un sistema molto più efficiente di quanto non sia stato immaginato per i modelli climatici. Al sopraggiungere di una fase di riscaldamento infatti, le osservazioni mostrano che già alcuni mesi prima della fase di picco delle temperature, il calore restituito allo spazio comincia ad aumentare, limitando quindi la quantità di calore trattenuta e lo stesso riscaldamento. Nei modelli climatici invece, la fase di picco è ancora immaginata come fase di immagazzinamento del calore, con il risultato che nelle simulazioni il sistema si scalda di più e più velocemente di quanto accada nella realtà.
L’analisi contenuta in questo lavoro, è comunque riferita ad eventi di breve periodo, immediatamente riconducibili ad esempio alle oscillazioni che avvengono nell’arco di alcuni mesi per le temperature superficiali degli oceani, con particolare riferimento al Pacifico equatoriale. E’ presumibile, ma richiede comunque analisi più approfondite e soprattutto serie di dati più lunghe, che questa reattività del sistema nel breve e medio periodo segua meccanismi analoghi anche nel lungo periodo, dando quindi una spiegazione alla differenza via via più ampia tra l’andamento delle temperature osservate e quelle previste.
Come scrive lo stesso Spencer sul suo blog tuttavia, siamo ancora ben lungi dalla soluzione del problema. Lo scopo principale del lavoro condotto con Braswell era infatti quello di riuscire a discernere il peso dei forcing radiativi da quello dei feedback, cosa che egli giudica ancora impossibile.
Di conseguenza, pur sottolineando il fatto che il confronto con la realtà restituisce l’immagine di un sistema climatico meno sensibile alle perturbazioni e più efficiente nel gestirle di quanto si immagini, la presenza di un numero molto elevato di fattori e di relazioni tra questi, impedisce di valutare correttamente il peso e dunque la valenza positiva o negativa dei feedback. Senza questa valutazione, l’approccio numerico ovvero modellistico alla previsione climatica – e lo dimostra il fatto che la battuta d’arresto delle temperature globali dell’ultimo decennio non è stata prevista da alcuna simulazione – continua a dimostrare molti limiti.
Addendum
Alcune di queste considerazioni vengono direttamente dal lavoro di Spencer e Braswell, altre sono nostre. Come era prevedibile, la pubblicazione di questo lavoro, accompagnata da un comunicato stampa credo volutamente poco politically correct, ha alzato parecchia polvere.
Le vestali del clima hanno indossato velocemente i paramenti e, ora perché interpellate da testate scientifiche, ora d’iniziativa, si sono affrettate a dire la loro. Naturalmente peste e corna. Spencer ha risposto al fuoco. La battaglia si svolge sul piano più formale – in termini di liceità della pubblicazione – che tecnico, comunque leggendo lo scambio epistolare potrete farvi un’idea.
Ancora una volta, le parole più sagge e scientificamente corrette arrivano da Judith Curry che pure conduce la sua breve analisi del lavoro di Spencer e Braswell così come delle critiche cui è stato soggetto, e conclude sottolineando quanto sia necessario proseguire sulla strada del confronto tra realtà e simulazioni e della determinazione del reale peso dei feedback, piuttosto che, come ha detto Trentberth, evitare la pubblicazione di lavori di questo genere.
Infatti le vestali dichiarano che se non fosse stato per l’orrida, inutile e ignorante blogosfera climatica questo lavoro non avrebbe mai ricevuto tanta attenzione. E’ comprensibile dato che ci sono loro a guardia del tempio. Allora attendiamo pazientemente che qualcuno di loro dimostri che in effetti osservazioni e simulazioni dicono le stesse cose per cui Spencer e Braswell sbagliano nel vedere delle differenze sostanziali e che si conosce bene il peso dei feedback rispetto ai forcing.
Addendum # 2
Sembra che questa sia destinata a diventare una saga. Roy Spencer ha pubblicato ieri un’altra replica che credo meriti di esser letta.
La trovate qui
Intervengo raramente, ma questo articolo, a cominciare dalla premessa (con la quale concordo pienamente) secondo me mette in luce l’aspetto principale della discussione AGW, o per lo meno, quello che mi interessa di più.
Il lavoro di Spencer mi sembra l’approccio più diretto, e quindi più efficace, nel cercare di valutare la sensibilità climatica (quello che per me è il fulcro di tutta la vicenda AGW). La valutazione tramite GCM soffre di un’evidente circolarità, almeno fino a quando i GCM non siano testa con la realtà a venire. La valutazione tramite proxy e altri confronti col passato remoto, oltre alle difficoltà tecniche, presuppone che la Terra sia un sistema con variabili di stato pressochè costanti nel corso dei millenni. Confronti con passato recente (es.: reazioni a eruzioni vulcaniche) non sono molto attendibili a cuasa dei lag temporali. E soprattutto le stime riportate da IPCC non sono simili tra loro, sono compatibili solo grazie all’elevato grado di incertezza.
Ora, è giustissimo da parte di chiunque ne abbia rilevato dei problemi, criticare il lavoro di Spencer, ma questo può e deve tranquillamente essere fatto secondo i canoni del consueto dibattito scientifico.
Seguendo i consigli di Guido Guidi sono andato a leggermi le reazioni e le considerazioni che hanno accolto il lavoro di Spencer ed al. di cui si parla nell’articolo. Come faceva notare Guido Guidi ci troviamo di fronte ad un lavoro non risolutivo in quanto indaga un intervallo temporale molto esiguo e, inoltre, si espone alle stesse critiche che vengono avanzate alle analisi dei climatologi tradizionali: parametri di elaborazione statistica dei dati eccessivamente addomesticati, non riproducibilità dei risultati e semplificazioni eccessive del modello. Questo per restare nell’ambito strettamente scientifico. Dal punto di vista politico, invece, il problema è molto più grosso. Come giustamente nota J. Curry il paper di Spencer ed altri è criticabile. Il guaio è che la critica che viene mossa dagli ambienti della climatologia ortodossa non riguarda tanto la sostanza del lavoro ma, la rivista su cui esso è stato pubblicato, il suo IF, il referaggio, la mancata revisione paritaria, il fatto che nel comitato revisionale della rivista vi è un solo climatologo, ecc., ecc., ecc.. In altre parole il solito scenario cui, purtroppo, siamo abituati da anni.
J. Curry, pur criticando alcune parti del lavoro (le conclusioni in particolare), fa una considerazione secondo me molto importante: diamo la possibilità a Spencer di pubblicare ed esporre le sue tesi e, successivamente, critichiamo quanto vogliamo e contestiamo le conclusioni del suo lavoro da un punto di vista scientifico. Il guaio sta nel fatto che Spencer ed altri non avrebbero mai potuto pubblicare il loro lavoro in una rivista di climatologia in quanto, come sostengono apertamente Trenberth, Schmidt, Dessler ed altri, esso contiene tesi inaccettabili che mai avrebbero superato il referaggio di una rivista di climatologia con alto IF (allineata alle tesi dominanti, aggiungo io). E a questo punto il circolo si chiude. Nessuno ha il diritto di esporre tesi diverse da quelle ortodosse. Spencer ha pubblicato su una rivista secondaria che si occupa di telerilevamento, è l’accusa che gli viene lanciata. Essendo, però, i dati elaborati nell’articolo desunti da analisi satellitari condotte dallo strumento CERES non ci troviamo di fronte ad un controsenso in quanto, in buona sostanza, il lavoro riguarda proprio un telerilevamento. Se una rivista si occupa di telerilevamento non vedo nulla di strano che un lavoro simile è pubblicato in una rivista del genere. Quello che dà fastidio, però, sono le conlusioni di Spencer e Braswell: i dati dimostrano che il sistema climatico ha una bassa sensibilità ai gas climalteranti ed è molto efficiente nel mantenere delle condizioni di equilibrio in quanto dispone di risorse, in buona parte ignote, in grado di riequilibrarne gli squilibri. Sono queste conclusioni che i climatologi contestano e, forse, non a torto visti i limiti oggettivi del lavoro. Per contestare il lavoro di S&B, però, essi usano gli stessi argomenti che gli scettici usano nei riguardi delle loro conclusioni: tuning eccessivo, semplificazioni eccessive, non riproducibilità dei risultati e via cantando. Quel che fa rabbia è che loro possono usarli, gli altri NO! Per concludere questo lungo commento tre considerazioni finali sul lavoro di S&B:
– esso, secondo la mia modesta opinione, ha dimostrato ancora una volta che i dati rilevati, in genere, non concordano con i risultati dei modelli;
– rimane ancora indeterminata l’entità degli effetti di forcing e di feedback degli elementi che determinano l’evoluzione del sistema climatico;
– restano, quindi, del tutto inesplorate le cause che determinano i fenomeni naturali più importanti dal punto di vista climatico e che sono rappresentati dagli indici ENSO, AMO e PDO.
Ciao, Donato.
Reply
Donato,
sei pronto (già da un pezzo) per scrivere su CM. Attento pero’ che poi ti nominano 🙂
gg
GG, io non sono stato ancora nominato: devo preoccuparmi? 😉
Reply
No se non hai problemi di autostima 🙂
gg
Grazie, (troppo buono). Per quel che riguarda le nomine, … ci sono abituato.
Ciao, Donato.
Leggo:
Nei modelli climatici invece, la fase di picco è ancora immaginata come fase di immagazzinamento del calore, con il risultato che nelle simulazioni il sistema si scalda di più e più velocemente di quanto accada nella realtà.
Capisco che parliamo di “effetto serra”, ma immaginare la Terra come un sistema termodinamico chiuso nello spazio (sono ingegnere aerospaziale prima ancora che nucleare) è ai limiti dell’assurdo!
Come spesso accade, comunque, non capisco il polverone sollevato: invece che tentare di accordare teoria e dati, si rifiutano i dati…o meglio, temo di capirlo fin troppo bene…