Non c’è niente da fare, bisogna ammettere che negli ultimi mesi la scena del dibattito sul clima è stata dominata dal climategate. Dopo la pubblicazione delle mail e dei dati provenienti dai server della University of East Anglia, e dopo la “scoperta” di un consistente numero di casi in cui quanto scritto nel 4AR si è rivelato quantomeno approssimativo, condizionato ideologicamente e supportato da fonti scientificamente poco o per nulla accreditate, di clima vero e proprio se ne è parlato pochino.
Di fatto il confronto si è inasprito nella forma, senza progredire molto nella sostanza. Un inasprimento la cui utilità ai fini della comprensione delle dinamiche del clima è assolutamente nulla. Ormai ogni spazio dedicato all’informazione su questi temi o è pro climategate o è pro AGW; nel primo caso si assite spesso ad interventi che danno importanza ad aspetti che potrebbero non averne – è accaduto anche su CM anche a chi scrive-, nel secondo caso si rinnovano posizioni dogmatiche ammantate di etica a buon mercato come l’iniziativa dell’Earth Hour o, peggio, si intavolano discussioni su quello che sarebbe un “negazionismo” patologico, con origini assimilabili a quelle degli atteggiamenti criminosi, con l’eterno spauracchio delle multinazionali del petrolio a muovere le fila di queste gesta criminali. Tutto ciò e ridicolo, e, come detto, allontana dagli obbiettivi.
A questo scopo forse sarebbe utile fare tutti un bel bagno di umiltà ed affrontare le cose per quello che sono. Il problema principale, quale sia il problema cui ci si trova di fronte è conoscerlo. Noi, il clima, se con questo si intendono le sue dinamiche passate e presenti, non lo conosciamo con il livello di precisione che sarebbe necessario. Perchè abbiamo a disposizione una mole enorme di informazioni il cui livello di approssimazione è molto elevato e perché la maggior parte di esse non sono tra loro confrontabili. Ad esempio, si fa sempre un gran parlare di temperatura, ci siamo anche inventati una grandezza che il sistema stesso non conosce, la media superficiale globale, un fattore per nulla rappresentativo che scaturisce da una serie interminabile di approssimazioni, con il quale si pretenderebbe comunque di controllare il polso di tutto il sistema.
I dati con cui questa media è costruita, hanno subito nel tempo una serie incessante di aggiustamenti, dovuti in gran parte all’aumento prima ed alla contrazione poi del numero dei punti di osservazione, alla discontinuità temporale delle serie disponibili, alla disomogeneità della loro distribuzione sul territorio e all’aggiornamento delle tecniche e tecnologie a supporto dei metodi di osservazione. Nel corso degli anni si è cercato in tutti i modi di sopperire con tecniche di trattamento dati alle difficoltà innescate da queste problematiche. Questo lavoro di James Hansen del 1987, ad esempio, avendo individuato alle alte latitudini un elevato fattore di correlazione tra le temperature di località distanti anche un migliaio di chilometri, assume che sia parimenti correlato anche il trend delle serie e che dunque possano essere “generati” i dati anche ove per vaste zone non ve ne siano di reali. In questo modo, nel database del GISS (di cui Hansen è curatore), troviamo rappresentate le temperature per l’intera area artica, pur essendo presenti da quelle parti pochissime stazioni di rilevamento. Così scopriamo anche che se la temperatura media superficiale globale è un dato astratto, i dati su cui è calcolata lo sono ancora di più. Per di più con riferimento ad una zona, l’Artico, da tutti riconosciuto essere un hot spot dell’evidenza della deriva catastrofica del clima. Ma questo è poco, in effetti, se paragonato a quello che è successo con i dati pregressi sempre nel corso degli anni.
Il secolo scorso è stato interessato da una serie importante di oscillazioni della temperatura per l’alternarsi di dinamiche piuttosto complesse, che possiamo per brevità separare in due modalità , una fredda ed una calda, in fase con le oscillazioni di lungo periodo delle temperature di superficie degli oceani. A queste oscillazioni, si sarebbe sovrapposto un trend di lungo periodo di segno positivo, pari a circa 0,7°C, se calcolato a partire circa dalla metà del 1800. Nelle determinazioni del panel delle Nazioni Unite che si occupa di clima, l’IPCC, questo trend positivo sarebbe quasi interamente attribuibile all’ingerenza delle attività umane sugli equilibri del clima, ma si sarebbe manifestato esclusivamente nelle ultime decadi del secolo scorso, ovvero quando è stata osservata la maggior parte del riscaldamento.
Il punto è che questa “forma” preoccupante, la curva delle temperature medie superficiali globali, non l’ha sempre avuta, ma ci si è arrivati per gradi, con una serie di aggiustamenti operati ai danni di dati che in realtà avevano già detto tutto quello che avevano da dire, mettendo appunto in evidenza delle oscillazioni almeno in parte, se non del tutto paragonabili all’impennata termica cui abbiamo assistito dalla metà degli anni ’70 alla fine del secolo. Queste oscillazioni sono difficilmente riproducibili dai modelli di simulazione del clima, anzi, ne rappresentano il vero e proprio tallone di Achille. Perciò, più che con il progresso delle dinamiche interne a questi modelli, pur migliorati tantissimo, il problema è stato risolto introducendo nuove tecniche di trattamento dati, ammorbidendo non poco l’ampiezza delle oscillazioni, quando non addirittura invertendone il segno.
Del resto la scienza progredisce, per cui anche questa particolare e pragmatica soluzione è stata progressiva. Nell’immagine sottostante ci sono le tre versioni che nel corso degli anni sono state pubblicate della ricostruzione delle temperature medie superficiali globali dal GISS.
Nella mia infinita ignoranza, l’unica certezza che ho è che i numeri nel tempo non cambiano, specie quando non se ne aggiungono di nuovi. Allora qualcuno ci deve spiegare come sia stato possibile operare un cambiamento alle serie di temperatura in modo da produrre nel tempo un cambiamento in valore assoluto pari a 0.6°C per una sola decade, demolendo il raffreddamento occorso negli anni ’70 e rendendo in questo modo molto più continuo e quindi attribuibile ad un forcing non naturale il trend di riscaldamento dell’ultima parte del secolo.
In pratica è accaduto questo:
Mathews Graph 1976: il periodo 1955 – 1965 era circa 0.3°C più caldo degli anni ’70.
Hansen/GISS 1980: il periodo 1955 – 1965 era circa 0.1°C più caldo degli anni ’70.
Hansen/GISS 1987: il periodo 1955 – 1965 era circa 0.05°C più caldo degli anni ’70.
Hansen/GISS 2007: il periodo 1955 – 1965 era circa 0.03°C più freddo degli anni ’70.
Qualcuno ricorda di aver avuto freddo negli anni ’70, o qualcuno ricorda che molti scienziati, tra cui lo stesso Hansen, temevano si stesse avvicinando un’era glaciale? Beh, quel qualcuno si sbaglia. Può anche darsi che allora i numeri dicessero effettivamente questo, ma ora che abbiamo imparato (?) a leggerli al contrario non è più così. Vi sembra possibile una cosa del genere? Può poggiare su queste basi tutto il castello delle origine antropiche del riscaldamento globale? Credo proprio di no, anzi, a ben vedere, sembra proprio che il climategate sia iniziato parecchio tempo fa.
NB: leggi anche qui.
Qualcuno ha letto per caso l’ultima dell’IUCN ? Quella che declama che è in corso la ” più grande estinzione di massa dopo quella dei dinosauri ” e che ” la terra sta morendo ” ?
Questi sono terroristi, mica no.