Da anni ormai la paleoclimatologia si è concentrata sul difficilissimo compito di creare serie di dati di parametri climatici sempre più affidabili. E’ ormai bagaglio comune dei lettori di Climatemonitor tutto il dibattito intorno ai dati proxy, ovvero registrazioni di un parametro da cui, indirettamente, possiamo desumere ad esempio la temperatura, ma anche l’umidità dell’aria e altre informazioni. Data la natura estremamente eterogenea di questi dati proxy, i paleoclimatologi hanno sempre lavorato con una categoria per volta (ad esempio gli anelli di accrescimento degli alberi).
L’esempio più famoso e mediatico mai visto è la ricostruzione delle temperature dell’ultimo millennio, ad opera del paleclimatologo Mann: stiamo parlando dell’Hockey Stick. Questa ricostruzione, a parte numerosi artifici statistici, è partita proprio dalle serie dei dati estrapolate dagli anelli di accrescimento degli alberi.
In realtà le serie proxy sono di molteplice natura, ad esempio abbiamo le misurazioni dei pollini, ma anche i carotaggi sia dei ghiacciai che dei fondali lacustri e marini oppure ancora l’accrescimento delle stalattiti.
Questa necessità di utilizzare serie di dati omogenee nasce da un limite tecnico, che discende direttamente dall’impossibilità di quantificare a livello complessivo l’incertezza insita nei dati stessi. In realtà il limite tecnico è un limite relativo, dipende dal livello di “evoluzione” che raggiunge la branca scientifica in questione, nella fattispecie la paleoclimatologia. Negli ultimi anni, per cui, ci si è arroccati intorno ad un unico metodo, quello inventato da Mann oltre che ad una serie di modelli a rimorchio, più o meno complessi, ma sempre e comunque clonati.
Oggi vi proponiamo, aggiungo io finalmente, uno studio che apporta un raggio di novità (e di maggiore scientificità) alla ricostruzione tramite proxy data. Non essendo io un paleoclimatologo, bensì un economista e statistico, non seguo pedissequamente la produzione accademica paleoclimatologica, quindi se dico che questo studio mi sembra il primo nel suo genere, su questo punto accetto smentite, documentate.
Lo studio in questione è “The Value of Multi-proxy Reconstruction of Past Climate“, di Bo Li, Douglas W. Nychka e Caspar M. Ammann1 .
Lo scopo di questo studio è quello di creare un nuovo riferimento per l’incertezza nei dati, in modo tale da rendere sempre più affidabile la ricostruzione delle temperature degli ultimi 1000 anni. Come abbiamo detto, tuttavia, il primo problema contro cui si scontrano tutti i climatologi è l’assenza di dati misurati a partire da circa 150 anni fa. Fino a quel momento, possiamo soltanto cercare di immaginare le temperature esistenti derivandole appunto da altre grandezze.
I ricercatori in questione, tra i quali troviamo anche il noto Amman, utilizzano una tecnica statistica chiamata Modello gerarchico bayesiano (Hierarchical Bayes Model, HBM). Chiaramente lo scopo di questo articolo non è fare un trattato sull’HBM, vale la pena tuttavia spendere qualche parola, per circostanziare un po’ questo studio.
Questo tipo di approccio consente di descrivere un particolare fenomeno (dalla finanza alla geologia, passando per la climatologia) partendo da una serie di informazioni. Chiaramente più informazioni abbiamo circa un fenomeno, migliore sarà la nostra rappresentazione teorica dello stesso.
Va da sè che per quanto riguarda la formalizzazione del problema si debba passare attraverso strumenti matematico-statistici, sebbene non vi sia univocità operativa in tal senso, infatti il dibattito in materia è ancora estremamente attivo.
Inoltre, citando il Prof. Cipollini:
Perché i risultati del processo di inferenza siano applicativamente rilevanti, è prioritaria l’esistenza di uno stretto legame tra sistema reale e modello, quale esso sia. Inoltre non è giustificabile nessun formalismo matematico, per quanto potenzialmente efficace, qualora non ne sia esplicitabile il contenuto semantico.
Il punto cruciale, tralasciando davvero tutto il resto, è che per giungere ad un modello bayesiano bisogna disporre imprescindibilmente di una serie di informazioni, o mutatis mutandis, bisogna mettere in campo tutte le informazioni di cui si dispone. Queste informazioni devono essere di due tipi:
- “a priori”, queste sono informazioni che possediamo ancor prima di iniziare l’esperimento. Ad esempio potrebbero essere derivanti da esperimenti precedenti, anche parziali. Sono anche le ipotesi iniziali di un ricercatore.
- “campionarie”, in questo caso l’informazione è costituita effettivamente dai dati osservati (ad esempio l’andamento di una borsa, o le temperature superficiali del pianeta.
A questo punto il modello bayesiano elabora le informazioni a priori attraverso il campione osservato. Da questa inferenza nasce ciò che prende il nome di informazione “a posteriori” che altro non è se non una distribuzione condizionata ai dati osservati e alle ipotesi formulate dal ricercatore, nella forma di informazioni a priori. Non dimentichiamo, infatti, che il teorema di Bayes esprime una probabilità condizionale.
Di Bayes e dell’HBM potremmo parlarne per mesi, per il momento però ritengo che possa bastare. I due concetti che dobbiamo ricordare sono le informazioni a priori e quelle campionarie.
In questo studio, come avrete già capito, le informazioni a priori non sono altro che le serie proxy, nella fattispecie vengono selezionate le seguenti categorie:
- Anelli di accrescimento degli alberi;
- le temperature superficiali derivate dai boreholes;
- la concentrazione dei pollini.
A queste informazioni, i ricercatori hanno deciso di aggiungere anche quelle relative ai forcing esterni, ovvero:
- irradianza solare;
- attività vulcanica;
- gas serra.
Sulla base di queste informazioni è stato formalizzato un modello semplice, che in buona sostanza ragiona nel seguente modo: più Sole, più caldo; meno Sole, meno caldo; più vulcani, più freddo; meno vulcani, meno freddo. Per quanto riguarda i gas serra, nel testo non viene esplicitata la relazione, ma provo ad azzardarne io, una: più gas serra antropici, più caldo; meno gas serra antropici, meno caldo.
Prima di passare ai risultati dello studio, bisogna affrontare un ultimo concetto molto importante. Come abbiamo appreso dagli autori, vengono in qualche modo considerati i forcing esterni, questi valori vengono considerati variabili indipendenti e, nella teoria delle probabilità, assumono una funzione di variabile predittiva. In econometria è una variabile di controllo.
Attenzione, perchè questo è uno dei punti più delicati dell’intero studio. Anticipo qui una delle perplessità nate intorno a questo lavoro, e rimando le altre alla fine del testo. Gli autori stessi sentono la necessità di sottolineare che tale operazione, l’inclusione di forcing esterni come variabile indipendente, potrebbe essere criticata. In effetti va detto che all’interno di una procedura bayesiana non è infrequente l’inclusione di variabili covariate (variabili casuali, indipendenti e concomitanti). Tale metodologia consente notevoli incrementi nella precisione della stima2 , di per sè la procedura è corretta. Essendo in una fase ancora di progettazione dell’esperimento e dovendo decidere quali siano le nostre informazioni a priori, tuttavia, comprendete voi stessi quali possano essere i rischi di tale operazione. In altre parole, il rischio principale è di inserire non tanto variabili indipendenti, quanto variabili che siano legate alle altre. Ovvero ancora, il rischio è di inserire variabili non perfettamente casuali, ma in realtà dipendenti. E in un sistema complesso, quale che sia, il rischio è elevato, addirittura è una certezza.
Ovviamente questi aspetti vengono discussi in fase di definizione dell’esperimento ma può accadere che la portata di un inserimento o meno delle covariate non sia subito esplicita agli occhi del ricercatore.
I proxy utilizzati per costruire l’ipotesi a priori, vengono confrontati con una serie di proxy sintetici, frutto dell’elaborazione di un GCM. In altre parole, non potendo disporre di dati osservati per tutto il periodo della simulazione, e dovendo comunque avere dei dati da confrontare, il gruppo di Ammann ha deciso di prendere per “veri” i dati fuoriusciti da un modello climatico. E questo è sicuramente il secondo punto più delicato dell’esperimento. Il modello è sicuramente complesso, ma viene da chiedersi quanto sia attendibile per la ricostruzione delle temperature.
I run lanciati in ensemble hanno sicuramente una affidabilità superiore, ma il fatto che in questo modello e nei proxy vengano inseriti gli stessi dati per le forzanti, qualche perplessità la fa sorgere.
Ad ogni modo, questa operazione sarebbe ancora del tutto lecita se l’esperimento si limitasse a quantificare l’incertezza nella serie ricostruita. Abbiamo una ipotesi, abbiamo delle osservazioni, creiamo un modello e contro le osservazioni cerchiamo di capire quanto buono sia stato il nostro modello. Il problema è che in questo caso, questo sia l’ennesimo studio che vuole ricostruire le temperature del millennio scorso. Il risultato, nemmeno a dirlo, è una quasi copia dell’HS.
A scanso di equivoci, so bene che i sostenitori seri dell’AGW, nonchè quelli meno seri in stile creduloni, ripetono all’infinito che a noi scettici nemmeno se ce lo dicesse l’Altissimo crederemmo all’HS. Tutto sommato sbagliano, se me lo dicesse l’Altissimo ci crederei, ma non accadrà mai, perchè l’HS è quello che è.
Questo nuovo approccio, invece, è davvero un notevole passo avanti, innanzitutto perchè utilizza una tecnica statistica realmente riconosciuta come tale, anche dagli statistici. Chiaramente non è scevra da critiche o miglioramenti, anzi. Tuttavia gli stessi autori concludono lo studio augurandosi di aver aperto una strada. E ce lo auguriamo anche noi, non dimenticando però lo studio condotto da McShane e Wyner3 che in effetti potrebbe essere il vero precursore di questo studio di Ammann. Solo che quando venne pubblicato, fu seppellito dalla solita propaganda anti-scettica. Lo studio aveva delle lacune, diciamocelo, ma se oggi Ammann sta percorrendo quella stessa strada, probabilmente vorrà dire che l’idea non fosse proprio così infondata.
- The Value of Multi-proxy Reconstruction of Past Climate; Bo Li, Douglas W. Nychka and Caspar M. Ammann; http://www.image.ucar.edu/~nychka/manuscripts/JASALiPaleo.pdf [↩]
- A new Bayesian approach incorporating covariate information for heterogeneity and its comparison with HLOD; Swati Biswas, Shili Lin, Donald A Berry [↩]
- http://www.imstat.org/aoas/ [↩]
permettetemi una battuta
per credere all’HS ci vorrebbe la mann di Dio, come per il goal di Maradona
impossibile…il movimento ambientalista è fondamentalmente anticristiano, e quindi Dio non gli concederebbe mai la mann 🙂