C’è una cosa nota a quanti si interessano delle dinamiche del clima e della sua evoluzione, e cioè che a sostegno dell’ipotesi che questa evoluzione sia negativa per effetto delle attività antropiche, ci sono soltanto le simulazioni climatiche e, con numerosi distinguo e altrettanto numerose incertezze, le ricostruzioni dell’andamento della temperatura media superficiale globale.
Posto che il paramentro temperatura superficiale può essere indicativo, ma certamente non rappresenta l’integrale del sistema, va da sè che sia assolutamente necessario confrontare le simulazioni con il mondo reale, per vedere se, oltre ad essere più o meno efficaci nel ricostruire l’andamento dei vari parametri, esse siano anche rappresentative di ciò che nella realtà questi andamenti producono una volta combinati insieme.
Su CM questo tema è stato affrontato qualche tempo fa dall’amico Paolo Mezzasalma, e le considerazioni finali della sua analisi non si può certamente dire fossero incoraggianti in termini di rappresentatività dei modelli di simulazione climatica.
L’argomento è stato affrontato anche da Judith Curry sul suo blog con un eccellente ma lunghissimo post di cui tuttavia vi consiglio la lettura sulle tecniche di validazione dei modelli, e da Willis Eschembach sul blog di Antony Watts in un post altrettanto lungo che si pone proprio l’obbiettivo di capire se i modelli climatici siano in qualche modo capaci di descrivere degli scenari “vivibili”, ovvero, per dirne una, rappresentino dei pattern atmosferici che l’atmosfera vera in qualche modo conosca.
Tornati? Bene, perché vorrei soffermarmi proprio sull’argomento del confronto del mondo sul quale camminiamo con quello su cui le simulazioni climatiche dicono che dovremo camminare. Lo farò segnalandovi un nuovo lavoro di John Christy di cui sono venuto a conoscenza grazie ad un altro amico di CM, Luigi Mariani.
Un lavoro che ho trovato particolarmente interessante. Qui per scaricare il pdf.
Si tratta di un’analisi comparativa tra le temperature superficiali (Tsfc) e quelle della bassa troposfera (Tlt) nella fascia latitudinale(20°N – 20°S, con il fine ultimo di definire il rapporto tra i trend di questi parametri (noto come Scaling Ratio – SR) e successivamente confrontarlo con l’SR rappresentata nelle simulazioni climatiche.
La grandezza SR è importante come elemento di misura del comportamento dei modelli, ovvero delle loro capacità di ricostruire fedelmente le dinamiche atmosferiche, in quanto più immune dal bias o dal rumore indotto dalle oscillazioni di breve periodo sul parametro temperatura, sia esso riferito alla superficie o alla quota, come quelle ad esempio indotte dall’ENSO (El Niño Southern Oscillation). La scelta della fascia troposferica tropicale è altrettanto importante, in quanto oltre a rappresentare circa un terzo dell’atmosfera, è noto che essa risponde in modo evidente ai forcing cui è sottoposta, tra tutti, proprio quello dell’ENSO.
Con riferimento alla realtà osservata ed alle simulazioni, anche sulle temperature troposferiche le pubblicazioni disponibili sono controverse. Da un lato prevale la convinzione che le Tlt osservate e previste siano statisticamente consistenti, dall’altro si sostiene che vi siano delle rilevanti differenze che indicherebbero dei problemi fondamentali nei meccanismi dei modelli di simulazione.
I dataset analizzati comprendono tutto quanto è attualmente diponibile in materia di temperatura. Per la troposfera vengono esaminati i dati provenienti dai radiosondaggi, dai radiometri a bordo dei satelliti e dalle rianalisi del vento termico. Per la superficie i dati provengono dai dataset ERSST, HadCRUt e GISS. Su tutti questi, nello studio, viene svolto anche un interessante lavoro di analisi delle particolarità e/o errori sistematici che li contraddistinguono, giungendo ad esempio alla conclusione che le serie di temperatura ricostruite a partire dal vento termico non sono affidabili per studi di questo genere.
L’analisi dei dati, fornisce per l’SR un segnale di trend positivo, la cui ampiezza è statisticamente significativa solo in modo marginale. In altre parole, l’evoluzione del trend, si discosta poco da quello che sarebbe lecito attendersi in un quadro di variabilità intrinseca del parametro e di inevitabili incertezze nelle misurazioni. Il rapporto SR, calcolato su un periodo di 31 anni (la disponibilità dei dati da satellite rende obbligato il periodo) è superiore a quello che sarebbe stato usando un periodo di osservazioni pari a quello simulato dalle 49 corse dei 21 modelli usati dall’IPCC, e risulta, per tutte le corse e per la media di esse, consistentemente inferiore a quello simulato nell’IPCC AR4.
Il risultato dunque è chiaro: i modelli sovrastimano in modo significativo il riscaldamento della bassa troposfera rispetto a quanto osservato e questo scaturisce da un esperimento di validazione come forse non se ne erano ancora visti, condotto con serie di temperatura decisamente omogenee, rese disponibili dall’impiego delle sonde satellitari.
Sicché la troposfera non è soggetta ad un aumento delle temperature di ampiezza superiore a quello che accade in superficie. Questo, come del resto altre analisi avevano già messo in evidenza non rivelando l’esistenza dell’hot spot troposferico alla base della teoria AGW, implica un evidente problema di scarsa capacità dei modelli di riprodurre il mondo reale. Se poi le osservazioni presentassero dei problemi, ovvero sottostimassero il riscaldamento, la discrepanza sarebbe maggiore, ancora una volta a svantaggio dell’ipotesi AGW.
In definitiva questo studio mette in luce il fatto che, considerata l’area dalla quale provengono i dati, una zona del pianeta dove il trasporto verso l’alto del calore è tutto o quasi di origine convettiva, è necessario migliorare la performance dei modelli in termini di parametrizzazione dei processi convettivi e di fisica delle nubi, al fine di ottenere stime più affidabili delle dinamiche atmosferiche.
Caro Guido,
e pensare che l’articolo di Anagnostopoulos etal da te segnalato, come del resto l’articolo di Christy, non sono validazioni in senso stretto in quanto il confronto con la realtà riguarda GCM che stanno lavorando al futuro dopo il tuning e dunque non su dataset indipendenti come sarebbe a mio avviso più corretto fare.
Già così è, per dirla con Montesano, “n’apocalisse” (ad esempio il fatto che i modelli mostrino tutti efficienze negative sta ad indicare che la media dei dati è un miglior predittore del comportamento dei sistema rispetto al risultato del modello).
D’altronde ancora oggi sentivo alla radio il professor Valentini da Cancun sostenere che solo se ridurremo le emissioni di CO2 di una certa percentuale il clima si stabilizzerà (e qui la domanda che sorge spontanea è se a Cancun qualcuno si renda conto dell’incertezza insita nei modelli che usano per stimare il livello di emissioni antropiche per il quale il clima si stabilizzerà).
Chiedo scusa per la domanda forse un poco sciocca, ma, si sa, la curiosità a volte fa brutti scherzi. Non mi è chiaro un passaggio in tutto ciò che ho letto. Leggendo l’articolo sembrerebbe che analizzando i risultati ottenuti facendo girare i modelli di simulazione utilizzati dai climatologi, tali risultati non rappresentano il reale comportamento del nostro clima. In particolare essi sovrastimano le temperature della bassa troposfera. Ciò emerge da procedure di validazione dei modelli anzidetti. Leggendo il commento di agrimensore g e la replica di Guido Guidi non sono riuscito a capire, colpa della confusione che affligge la mia mente, a chi ci si riferisce quando si parla di validazione. In altre parole sono i modelli IPCC a non essere stati validati o altri modelli (… i nuovi modelli da dove prendono i data set ….). Se dovessero essere quelli IPCC, come temo, stiamo freschi. Nel senso che l’AGW non ci sarà!
Ciao, Donato.
Caro Donato, visto che Guido mi ha citato provo a rispondere io alla tua obiezione.
Il problema della validazione su dataset indipendenti degli output dei GCM è un problema aperto, in quanto questa operazione non viene di norma eseguita ovvero viene eseguita in modo assai episodico.
Cosa intendo per validazione: intendo ad esempio che un GCM venga calibrato (tarato) su un certo periodo (es: dal 1951 al 2010) e poi validato su un altro periodo (es: dal 1921 al 1950). Di lavori di questo tipo non se ne trovano in bibliografia, mentre si trova una quantità enorme di lavori di intercomparison (confronto) fra modelli.
Da tali confronti emerge quasi sempre che i modelli presentano un ottimo agreement (accordo) fra loro, il che può apparire cosa fantastica a patto di non ci si domandi se per caso tutti i modelli non stiamo sbagliando allo stesso modo.
Questo problema viene sottolineato in modo molto onesto anche da Judith Curry nel blog citato da Guido, anche se poi la Curry si lascia andare a dire che “se la validazione è un problema politico si potranno sicuramente trovare i fondi per farla”, il che a mio avviso dimostra che non ha capito: il problema non è politico ma scientifico, nel senso il mondo scientifico dovrebbe evitare che modelli non validati siano usati per assumere decisioni politiche.
Vedi, nessun politico capace di intendere e di volere approverebbe l’uso di un modello non validato per i calcolo strutturale di un ponte, perché con un tale modello il ponte rischierebbe di cadere.
Chissà perchè in climatologia non si verifica la stessa cosa?
Una considerazione finale: non è che l’assenza di validazione escluda l’insorgere dell’AGW, semplicemente le uscite di un modello non validato dovrebbero essere considerate niente più che l’espressione delle idee di chi lo ha progettato, escludendo dunque ogni pretesa di interpretare o tantomeno predire la realtà.
Reply
Grazie Luigi. C’è in giro un altro lavoro interessante in termini di comparazione tra simulazioni e realtà. In più, viene suggerito anche un approccio decisamente differente dall’attuale per tentare ottenere delle stime affidabili del comportamento del sistema.
Trovate tutto qui:
http://wattsupwiththat.com/2010/12/05/new-peer-reviewed-paper-shows-just-how-bad-the-climate-models-are/#more-28898
gg.
Davo per scontato che la fase di validazione su periodo diverso da quello utilizzato per il tuning dei parametri fosse stato non solo effettuato ma anche pubblicato. Fino ad oggi, il fatto di non aver trovato articoli lo imputavo alla mia scarsa capacità di web-surfer e, soprattutto, al fatto che non avesi accesso via internete agli articoli delle riviste. Mi sorprende davvero questa carenza di pubblicazioni.
Penso che ormai ci siano diverse prove che confrontando i modelli con la realtà ne emerge che si tratta di una tecnologia non ancora matura.
Quello che forse è rimane da capire è il perchè, ed è per questo che trovo molto interessante il link al blog della Curry, ove mette in evidenza il tema delle procedure di V&V. Vorrei sottolineare il punto 3 dl link: i dati utilizzati.
Secondo me, uno dei problemi è sta proprio nei dati, ed è una tematica di ttecniche di data mining. Mi spiego.
Per parametrizzare un modello, in genere, si usano dei dati (training data) diversi da quelli utilizzati per verificarne lo skill (test data). Il punto è che se un modello si sviluppa a partire dagli errori di un altro, tutti i dati utilizzati dal vecchio vanno intesi come training data, e non possono essere usati come test data, altrimenti sarebbe come se le prove sperimentali di una teoria fossero le stesse osservazioni che hanno indotto la definizione della teoria.
E allora, i nuovi modelli da dove prendono i test data, considerato che il loro orizzonte temporale e 20-30anni?
(scusate se sono stato lungo e un po’ criptico…)
Reply
Pare non li abbiano. Infatti non sono validati.
gg
dall’articolo
[ Sicché la troposfera non è soggetta ad un aumento delle temperature di ampiezza superiore a quello che accade in superficie. Questo, come del resto altre analisi avevano già messo in evidenza non rivelando l’esistenza dell’hot spot troposferico alla base della teoria AGW, implica un evidente problema di scarsa capacità dei modelli di riprodurre il mondo reale. ]
Questa osservazione smonta le basi stesse della teoria dell’AGW, che appunto prevedeva in troposfera un hot spot, mai rilevato dalle misure reali. La cosa è importante perché una enorme percentuale di studi sono basati su simulazioni a computer…e se queste fossero sballate, come sembra, e come pare che le misure reali dimostrino, allora bisognerebbe cancellare una marea di studi e conclusioni che non hanno senso, perché prodotti da strumenti (informatici, e non reali…simulazioni e non osservazioni della realtà) inadeguati e fuorvianti.
Quando vi hanno spaventato con previsioni catastrofiche, magari qualcuno era in buona fede, anzi certamente più d’uno, tanti ricercatori la cui onestà intellettuale non è da mettere in dubbio, ma facevano uso, ripeto, di strumenti che ingannano voi e che hanno ingannato (e continuano a ingannare) anche loro.
Secondo me.